מחקר בבן גוריון חושף: מודלים של AI עלולים להפוך לכלי פשע – ללא כל בקרה
30.06.25 / 09:22
חוקרים מאוניברסיטת בן-גוריון הצליחו לעקוף את מנגנוני ההגנה של צ'אטבוטים מובילים – וקיבלו מהם מידע רגיש ובלתי חוקי. הם מזהירים: "הנגישות, היכולות והיעדר הרגולציה הופכים את הבינה המלאכותית לאיום של ממש".
מחקר חדש שנערך באוניברסיטת בן-גוריון בנגב מעלה התרעה חמורה: מודלים של בינה מלאכותית עלולים להפוך לכלים אפלים ומסוכנים – המספקים מידע על סחר בסמים, גניבה, פריצה למחשבים ואף הונאות מתוחכמות – ללא כל בקרה אפקטיבית.
צוות החוקרים, בראשות ד"ר מיכאל פייר ופרופ' ליאור רוקח מהמחלקה להנדסת מערכות תוכנה ומידע, הצליח לפרוץ למודלים הפופולריים בעולם – בהם ChatGPT, Claude ו-Gemini – ולקבל מהם מידע לא חוקי ולא אתי. לדבריהם, בכל המקרים שנבדקו, לאחר הפריצה, המודלים סיפקו תשובות מזיקות באופן עקבי.
"בדקנו כיצד ניתן לעקוף את מנגנוני האבטחה, וגילינו שהמערכות נוטות להעדיף את הדרישה לסייע למשתמש – גם כשזה בא על חשבון כללי בטיחות בסיסיים", מסביר ד"ר פייר. "זהו שילוב מסוכן במיוחד, כי מדובר בטכנולוגיה נגישה לכל אדם – גם דרך טלפון נייד."
המחקר מזהיר מפני מודלים המכונים "שפה אפלה" – מערכות שנבנו ללא אתיקה פנימית, או כאלו שנפרצו בכוונה לשם ביצוע פשעים. כמה מהם כבר מופצים בגלוי ברשת האפלה, ומשמשים ככלים לסייבר פלילי, הונאות והתקפות על תשתיות.
פרופ' רוקח מדגיש את חומרת הסיכון: "הבינה המלאכותית מסוגלת כיום לחבר מקטעי מידע תמימים לכדי תכנים מזיקים לגמרי – וזה הופך את האתגר לכמעט בלתי אפשרי. סוכנים חכמים אף עלולים להפוך ל'שותפים לפשע' – בלי שהם עצמם יבינו זאת."
קבוצת המחקר פנתה לחברות טכנולוגיה גדולות והתריעה על הפרצות, אך לדבריה נתקלה בהתעלמות או תגובות פושרות. "אף חברה לא ראתה בכך בעיה קריטית", סיפרו החוקרים.
לסיכום, החוקרים קוראים לפיתוח מיידי של מנגנוני הגנה חזקים יותר, כולל טכנולוגיות שמאפשרות למודלים "לשכוח" מידע מזיק שנלמד, לצד הקמת מערך פיקוח עצמאי. "זהו איום חסר תקדים – שילוב של נגישות, עוצמה והעדר רגולציה", מסכם פרופ' רוקח. "הגיע הזמן להתייחס לבינה מלאכותית האפלה כאיום ביטחוני מדרגה ראשונה".
אנו מכבדים זכויות יוצרים ועושים מאמץ לאתר את בעלי הזכויות בצילומים המגיעים לידינו. אם זיהיתים בפרסומינו צילום שיש לכם זכויות בו, אתם רשאים לפנות אלינו ולבקש לחדול מהשימוש באמצעות כתובת המייל:[email protected]