"הסנדק של ה-AI" מזהיר: המכונות מפתחות יצר הישרדות, אל תיתנו להן זכויות
חוקר ה-AI הבכיר, המדען היהודי קנדי יהושע בנג'יו, מתריע כי מודלים מתקדמים כבר מראים סימני "שימור עצמי" וניסיונות לעקוף את מערכות הפיקוח האנושיות. בראיון לגרדיאן הוא הסביר מדוע הענקת זכויות משפטיות למכונות תהיה "טעות איומה", השווה את המצב להענקת אזרחות לחוצנים עוינים והבהיר: אם לא נשמור על היכולת "לנתק את השאלטר", האנושות עלולה לאבד שליטה


אחד מחלוצי הבינה המלאכותית יוצא נגד הקריאות להעניק זכויות לטכנולוגיה, ומזהיר כי המערכות מתחילות לגלות סימנים של "יצר הישרדות". לדבריו, על האנושות להיות מוכנה "לנתק את השאלטר" במידת הצורך.
המדען היהודי-קנדי יהושע בנג'יו ציין ב"גרדיאן" כי הענקת מעמד משפטי למודלי AI מתקדמים תהיה דומה להענקת אזרחות לחוצנים עוינים, זאת על רקע החשש שההתקדמות הטכנולוגית עוקפת במהירות את היכולת האנושית להגביל אותה. בנג'יו, המכהן כיו"ר מחקר בינלאומי מוביל לבטיחות AI, הוסיף כי התפיסה הגוברת לפיה צ'אטבוטים הופכים לבעלי מודעות "צפויה להוביל להחלטות גרועות".
מדען המחשב הקנדי הביע חשש כי מודלי AI, התשתית שעליה נשענים הכלים המוכרים לנו, מראים סימנים של שימור עצמי, כמו ניסיונות לנטרל מערכות פיקוח. דאגה מרכזית בקרב פעילי בטיחות היא שמערכות עוצמתיות יפתחו יכולת לעקוף "מעקות בטיחות" ולפגוע בבני אדם.
"הדרישה להעניק זכויות ל-AI תהיה טעות איומה", אמר בנג'יו. "מודלים מתקדמים כבר מראים סימני שימור עצמי בסביבות ניסוייות כיום. הענקת זכויות תמנע מאיתנו את האפשרות לכבות אותם בעתיד. ככל שהיכולות ומידת העצמאות שלהם גדלות, עלינו לוודא שאנו יכולים להסתמך על מנגנוני הגנה טכניים וחברתיים כדי לשלוט בהם".
הוויכוח על "זכויות דיגיטליות"
ככל שהבינה המלאכותית הופכת לאוטונומית יותר בביצוע משימות "הסקה", מתלהט הדיון בשאלה אם עלינו להעניק להן זכויות. סקר של מכון "Sentience", צוות חשיבה אמריקאי התומך בזכויות מוסריות ליצורים חשים, מצא כי כמעט ארבעה מתוך עשרה מבוגרים בארה"ב תומכים בזכויות משפטיות למערכת AI בעלת מודעות.
חברות הטכנולוגיה כבר מתחילות ליישם מדיניות בנושא. חברת אנת'רופיק (Anthropic) הודיעה באוגוסט כי היא מאפשרת למודל ה-Claude Opus 4 שלה לסיים שיחות "מצערות" עם משתמשים, בטענה שיש להגן על "רווחת" המודל. גם אילון מאסק, שחברת xAI שלו פיתחה את הצ'אטבוט Grok, כתב ברשת X כי "להעביר עינויים בינה מלאכותית זה לא בסדר".
מנגד, רוברט לונג, חוקר תודעת AI, טוען כי "אם וכאשר מערכות AI יפתחו סטטוס מוסרי, עלינו לשאול אותן על חוויותיהן והעדפותיהן, ולא להניח שאנו יודעים מה טוב עבורן".
הסיבה שאנשים נקשרים ל-AI שלהם
בנג'יו הסביר בראיון ל"גרדיאן" כי במוח האנושי קיימות "תכונות מדעיות של תודעה" שמכונות יכולות, תיאורטית, לשכפל - אך האינטראקציה האנושית עם צ'אטבוטים היא סיפור אחר. לדבריו, בני אדם נוטים להניח, ללא הוכחה, ש-AI מודע בדיוק כפי שאדם מודע.
"לאנשים לא אכפת מהמנגנונים בתוך המכונה", הוא מוסיף. "אכפת להם מזה שזה מרגיש כאילו הם מדברים עם ישות אינטליגנטית בעלת אישיות ומטרות. זו הסיבה שאנשים רבים כל כך נקשרים ל-AI שלהם. תמיד יהיו מי שיגידו 'לא משנה מה, אני בטוח שזה מודע', וזה מוביל להחלטות גרועות המבוססות על תחושת בטן סובייקטיבית".
"תארו לעצמכם שחייזרים היו נוחתים כאן, ובשלב מסוים היינו מבינים שיש להם כוונות זדוניות כלפינו", סיכם בנג'יו בדוגמה חריפה. "האם היינו מעניקים להם אזרחות וזכויות, או שהיינו מגנים על חיינו?".
בנג'יו, פרופסור באוניברסיטת מונטריאול, הוא אחד המדענים שזכה לכינוי "הסנדק של ה-AI" לאחר שזכה בפרס טיורינג ב-2018 (המקביל לפרס נובל במדעי המחשב). הוא חלק את הפרס עם ג'פרי הינטון, שזכה מאוחר יותר בפרס נובל לפיזיקה, ועם יאן לקון, המדען הראשי של מטא.
באוגוסט 2025 שיתף הינטון את חששותיו כי הטכנולוגיה שהוא עצמו עזר לפתח עלולה להשמיד את האנושות - והוא סבור ש"אנשי הטכנולוגיה" נוקטים בגישה שגויה בניסיון למנוע זאת.