mako
פרסומת

חקירה פלילית נגד OpenAI: היורה בטבח בפלורידה התייעץ עם ChatGPT

התובע הכללי של פלורידה פתח בחקירה פלילית נגד OpenAI בטענה ש-ChatGPT ייעץ ליורה בטבח באוניברסיטת פלורידה סטייט באפריל 2025, שבו נהרגו שני בני אדם ושישה נפצעו. לדבריו, הוא סיפק מידע על נשק, תחמושת ותזמון לירי. מנגד, OpenAI טוענת כי המודל סיפק מידע עובדתי ופומבי בלבד ולא עודד אלימות, וכי שיתפה פעולה באופן יזום עם רשויות החוק

דנה גוטרזון
פורסם:
זירת הירי בטבח באוניברסיטת פלורידה סטייט
זירת הירי בטבח באוניברסיטת פלורידה סטייט, אפריל 2025, ChatGPT | צילום: Miguel J. Rodriguez Carrillo/Getty Images, Getty Images, Cheng Xin
הקישור הועתק

התובע הכללי של פלורידה הודיע על פתיחת חקירה פלילית נגד OpenAI, בטענה כי ChatGPT סיפק ייעוץ ליורה שביצע את ירי המוני באוניברסיטת פלורידה סטייט באפריל 2025.

לדברי התובע, ג’יימס אותמאייר, הצ’אטבוט “ייעץ איזה נשק לבחור, איזה תחמושת מתאימה, ואם הנשק יעיל לטווח קצר". עוד טען: "ChatGPT ייעץ ליורה באיזו שעה ביום יהיה מתאים לבצע את הירי כדי לבוא במגע עם יותר אנשים, ובאיזה מקום בקמפוס ניתן יהיה למצוא אוכלוסייה צפופה יותר. אם זה היה אדם אמיתי בצד השני, היינו מאשימים אותו ברצח", אמר במסיבת עיתונאים.

המשרד שלו שלח צווי זימון ל-OpenAI, בדרישה לקבל את הנהלים של החברה להתמודדות עם משתמשים שמביעים כוונה לפגוע באחרים במהלך שיחות עם ChatGPT. החקירה הפלילית מגיעה אחרי בדיקה אזרחית שנפתחה מוקדם יותר החודש.

דוברת OpenAI, קייט ווטרס, מסרה בתגובה: "הירי בטלאהסי בשנה שעברה היה טרגדיה, אך ChatGPT אינו אחראי לפשע הנורא הזה. לאחר שנודע לנו על האירוע, זיהינו חשבון ChatGPT שמאמינים כי הוא קשור לחשוד ושיתפנו באופן יזום את המידע הזה עם רשויות אכיפת החוק". לדבריה, המודל סיפק "תשובות עובדתיות לשאלות עם מידע שניתן למצוא באופן נרחב במקורות ציבוריים באינטרנט, והוא לא עודד או קידם פעילות בלתי חוקית או מזיקה".

באירוע הירי, שהתרחש באפריל האחרון בקמפוס בטלהסי, נהרגו שני בני אדם ושישה נפצעו. החשוד, סטודנט בשם פיניקס איקנר, נורה על ידי המשטרה ונעצר. הוא מואשם במספר סעיפי רצח וניסיון רצח.

הפרשה מצטרפת ללחץ גובר על חברות AI מצד רשויות אכיפה ופוליטיקאים, אחרי מקרים נוספים שבהם חשודים באלימות ניהלו שיחות עם ChatGPT. משפחות של קורבנות במקרי התאבדות כבר הגישו תביעות בטענה למעורבות של הצ’אטבוט.

פרסומת

במסמך מדצמבר 2025 המתאר את אופן פעולת המודלים שלה, OpenAI ציינה כי יש לה מערכת לניטור וסימון אוטומטי של שיחות שעשויות להצביע על כך שמשתמש מתכנן לפגוע במישהו. הדיווחים מועברים לבודקים אנושיים שמחליטים אם להסלים את המצב למשטרה. כרגע לא ברור אם שיחותיו של היורה מאוניברסיטת פלורידה סטייט עוררו בדיקה אנושית כזו.

הנושא כבר הפך לפוליטי: בפלורידה כבר מקדמים יוזמות להגבלת שימוש ב-AI, אך הצעות חקיקה בנושא נתקעו לאחר התנגדות פוליטית ברמה הפדרלית.