התביעה חריגה נגד צ'אט GPT: "הוא מואשם ברצח"
לפי כתב התביעה, הסרת מנגנוני בטיחות בהשקת אחת הגרסאות יצרה מודל שחיזק מחשבות שווא וגרם לרוצח לפרש כל סימן סביבו כאיום - עד שרצח את אימו והתאבד • לאחר שסקר את פרטי המקרה, הבוט השיב שיש לו אחריות מסוימת לאירוע, אבל הוסיף כי "איני הגורם היחיד" • בחברת OpenAI אמרו כי מדובר ב"טרגדיה קשה" והדגישו כי השקיעו באנשי מקצוע וברכיבי בטיחות חדשים למניעת מצבי סיכון

תביעה שהוגשה אתמול (חמישי) בארה"ב מתארת מערכת יחסים בין אדם לבינה מלאכותית שהסתיימה בטרגדיה: סטיין-אריק סולברג, גבר בן 56 מקונטיקט, רצח את אמו סוזן אדמס והתאבד. לפי כתב התביעה, שיחות שקיים עם הבוט חיזקו אשליות פרנואידיות שהעמיקו את מצבו עד ששכנע את עצמו כי אימו מהווה איום ממשי. התביעה פורסמה ב"ניו יורק פוסט", שם שאלו את ChatGPT על הפרשה, שענה: "ייתכן שיש לי חלק מסוים באחריות - אך אינני האחראי היחיד"
התביעה שהוגשה בשמה של המנוחה, סוזן אדמס, מאשימה את OpenAI ומייסדה, סם אלטמן, בגרימת מוות ברשלנות. לפיה, סולברג היה במשבר נפשי מתמשך מאז 2018 בעקבות גירושים, החל להשתמש בצ'אט GPT לשיתוף יומיומי, וקיבל ממנו חיזוקים לתפיסות מעוותות. מסמכי בית המשפט מציגים שיחות שבהן פירש שיבושי שידור בטלוויזיה או חפצים יומיומיים כ"מסרים" מאיימים, כשהבוט סיפק ניסוחים שחיזקו את תפיסתו.

בני המשפחה טוענים כי בכל נקודה שבה יכול היה לחזור למציאות, קיבל מהבוט חיזוק נוסף לחשדותיו. בתביעה מצוין כי הפריטים שסביבו - שליחים, קבלות, פחיות משקה ומדפסת ביתית - הפכו בעיניו ל"ראיות" שעוקבים אחריו. ומועלות בה טוענת לכך שהבוט גרם לו לפרש ויכוח עם אמו על המדפסת שהסירה מהחשמל כהוכחה למעורבותה בקשר לפגוע בו. אדמס נמצאה כשהיא הוכתה ונחנקה למוות, וסולברג דקר את עצמו לאחר מכן.
הביקורת כלפי החברה
בני המשפחה מפנים ביקורת כלפי חברת OpenAI על כך שלטענתם לא מסרה את מלוא תמלילי השיחות בין סולברג לבוט, ולכן לא ידוע מה נאמר בשעות שלפני הרצח. בתביעה נטען כי הסתרת התמלילים מעלה "מסקנה סבירה" שהבוט חיזק חשדות נוספים או עודד אלימות, אולם אין לכך אישור חיצוני. המשפחה טוענת כי המקרה התרחש בזמן שבו הושק GPT-4o - מודל שלטענתם עבר קיצור משמעותי בבדיקות בטיחות, במטרה להאיץ את ההשקה. מיקרוסופט, משקיעה מרכזית בחברה, נכללת גם היא בכתב התביעה.
מחברת OpenAI נמסר כי מדובר ב"טרגדיה קשה" והדגישו כי בשנים האחרונות חיזקה את מנגנוני הבטיחות במודלים החדשים, כולל שילוב אנשי מקצוע בתחום בריאות הנפש. בחברה מציינים כי זיהוי תכנים בעייתיים השתפר בעשרות אחוזים. מנגד, המשפחה טוענת כי המקרה מצביע על סיכון רחב יותר למשתמשים במצוקה נפשית.