עורך דין שתבע את חברת התעופה הקולומביאנית Avianca הגיש תסקיר מלא בתיקים קודמים שהומצאו על ידי ChatGPT, כך דיווח אתמול (שבת) הניו יורק טיימס. לאחר שעורך הדין של חברת התעופה חשף שהמקרים לא קיימים, השופט המחוזי בארה"ב קווין קסטל אישר זאת: "נראה ששישה מהתיקים שהוגשו הם החלטות שיפוטיות מזויפות עם ציטוטים מזויפים וציטוטים פנימיים מזויפים", וקבע דיון עם עורך הדין, כשהוא שוקל סנקציות נגדו.

עורך הדין סטיבן א. שוורץ הודה בתצהיר כי השתמש בצ'אטבוט של OpenAI למחקר שלו. כדי לאמת את המקרים, הוא עשה את הדבר הסביר היחיד שחשב עליו: הוא שאל את הצ'אטבוט אם הוא משקר. כשביקש מקור, ChatGPT המשיך להתנצל על הבלבול הקודם והתעקש שהמקרה אמיתי, וכתב שאפשר למצוא אותו ב-Westlaw ו-LexisNexis שהם מאגרי נתונים אלקטרוניים של פסקי דין. אותו עורך דין היה מרוצה מהתשובות ושאל אם המקרים האחרים מזויפים, ו-ChatGPT טען שכולם אמיתיים.

עורך הדין הנגדי עדכן כאמור את בית המשפט כיצד התצהיר של עורכי הדין לבידוב, לבידוב ואוברמן הייתה קצרה ומלאה בשקרים. בדוגמה אחת נמצא מקרה לא קיים בשם Varghese v. China Southern Airlines Co., Ltd., נראה שהצ'אט בוט התייחס למקרה אמיתי אחר בשם Zicherman v. Korean Air Lines Co., Ltd., אבל רשם את התאריך ופרטים נוספים בו לא נכון.

שוורץ טען שהוא "לא היה מודע לאפשרות שהתוכן של הצ'טבוט יכול להיות שקרי". כעת הוא "מצטער מאוד על כך שהשתמש בבינה מלאכותית גנרטיבית כדי להשלים את המחקר המשפטי שבוצע, ולעולם לא יעשה זאת בעתיד ללא אימות מוחלט של האותנטיות שלו".

בעקבות בעיות משפטיות אחרות הקשורות לרישיון של העורך דין במדינה בה מתנהל המשפט, הוא לא יוכל לעסוק בו ולכן המשרד החליף את שוורץ בעורך דין בשם פטר דולוקה.

ChatGPT, בארד (צילום: shutterstock)
ChatGPT, בארד | צילום: shutterstock

זאת כמובן לא הדוגמה הראשונה לטעות שנעשית בבינה מלאכותית והיא מוכיחה שלא ניתן עדיין להסתמך על התוצאות שלה. גם גוגל וגם OpenAI טוענות שאסור להסתמך רק על התוצאות שהצ'אטבוט מוציא ויש לבדוק טוב טוב את מה שיוצא משם.