מארק וולטרס (צילום: facebook)
מארק וולטרס | צילום: facebook

בשבוע שעבר שדרן רדיו בארצות הברית בשם מארק וולטרס, מייסד Armed American Radio, הגיש תביעת דיבה ראשונה נגד ChatGPT בבית המשפט של ג'ורג'יה, בטענה שהבינה המלאכותית העלילה עליו שקרים והאשמות שווא, בין היתר שהוא מעל בכספים מארגון ללא מטרות רווח. לא הרבה זמן לפני כן, בחודש שעבר עורך דין אמריקני בשם סטיבן שוורץ השתמש בצ'אטבוט לטובת תביעה שהגיש – וגילה רק בבית המשפט שכל המידע שהוא השתמש בו היה מפוברק לגמרי. כעת הוא נמצא בסכנה לאבד את רישיון עורך הדין שלו.

בעידן שבו פייק ניוז הוא תופעה נפוצה ורבים נלחמים מדי יום על מנת למגר אותה, הבינה המלאכותית הפכה לסכנה של ממש, בשל הקלות שבה היא מפיצה מידע שגוי, לצד האפשרויות הטכנולוגיות שהיא מציעה על מנת לזייף תמונות, טקסטים, וידיאו וקול – בצורה שקשה לדעת מה אותנטי ומה לא.

איש התקשורת האמריקני שהגיש תביעת דיבה חלוצית נגד בינה מלאכותית, מציף אצלנו שאלה כמעט בלתי נמנעת: האם אנו ניצבים בפני עידן חדש של העברת מידע ללא מעצורים, ואת מי נוכל להאשים בפעם הבאה שמידע שקרי יופץ אודותינו – אם מעבר למקלדת ישנה טכנולוגיה ולא בן אדם?

עו"ד גאיה הררי הייט, ראש תחום מדיניות ורגולציה במכון SNPI, מסבירה ל-mako כי בכל הקשור לבינה מלאכותית במערכת המשפט, ישנם שני צדדים שאליהם כדאי להתייחס. האחד, הוא הדילמות המשפטיות שמתעוררות לאור הטכנולוגיה, שאליהן גם הרגולטורים וגם בתי המשפט יצטרכו לתת את הדעת. השני, הוא ההשפעה החדשה שנוצרה בעקבות הבינה המלאכותית, על תחומי החיים שלנו בכלל, ועל מערכת המשפט בפרט. 

לדבריה, קיים ערך רב לטכנולוגיות ייעודיות, שמבוססות על מאגרי נתונים איכותיים ועדכניים. עם זאת, הסוגיה המרכזית כאן היא לא האם הטכנולוגיה תשתלב בחיינו, אלא באיזה אופן – כשלדבריה חשוב להשקיע מאמצים בהבטחת השמירה על האתיקה בתוך התהליך החדש הזה.

הררי הייט מסבירה כי כאשר מדברים על אחריות לנזק שעלול להיגרם בידי טכנולוגיה, כמו במקרה של הוצאת דיבה, צריך קודם-כל לחפש את הגורם האנושי בסיפור. "יש לנו בדרך כלל שתי אפשרויות", היא אומרת. "ראשית, שהאחריות תוטל על מי שפיתח את הטכנולוגיה, ושנית, שהאחריות תוטל על מי שעושה בה שימוש. השאלות הללו הן דרמטיות, כי הן משפיעות במידה רבה על ההתקדמות הטכנולוגית. אנחנו לא רוצים לייצר אפקט מצנן, שבו חברות טכנולוגיה לא ישיקו מוצרים חדשניים מחשש לתביעות. אך מצד שני, אנחנו גם לא רוצים לאפשר פגיעה בזכויותיהם של אנשים".

גאיה הררי הייט, ראש תחום מדיניות ורגולציה ב-SNPI  (צילום: אלון מורביץ')
עו"ד גאיה הררי הייט, ראש תחום מדיניות ורגולציה ב-SNPI | צילום: אלון מורביץ'

בתשובה לשאלה מהי החקיקה שמתקיימת כיום בנושא, הררי הייט מבהירה כי האיחוד האירופי אישר השבוע חקיקה שתגביל חברות AI ותאלץ את מי שמפתחות מערכות "מסוכנות" לחשוף את הקוד שלהן. "מדובר בחקיקה אשר נחשבת תקדימית ומחמירה. בסין נוקטים בגישה שמעבירה את האחריות אל מפתחי הטכנולוגיה, וכבר עברו למשל תקנות בהקשר של דיפ פייק, אשר מגדירות כי האחריות היא על הפלטפורמות הטכנולוגיות. הרגולציה קובעת שמידע שמופק בידי AI צריך להיות מדויק ונכון, והיא אוסרת על תוכן שחותר תחת המדינה או שמכיל פרופגנדה, אלימות, תוכן מיני ואפליה או תוכן שיכול לשבש את הסדר החברתי-כלכלי".

מתברר שגם בישראל פורסמו עקרונות אתיים לבינה מלאכותית להערות הציבור באוקטובר 2022, אולם אלו טרם התקבלו סופית. "וגם אם יתקבלו", אומרת הררי הייט, "מדובר בעקרונות שאינם מחייבים משפטית". כשאני מנסה להבין מה משמעות העקרונות האתיים הללו, עורכת הדין אומרת: "אחד העקרונות, למשל, מדבר על 'אחריותיות', וקובע כי 'מפתחי הבינה המלאכותית, מפעיליה או המשתמשים בה, יגלו אחריות לתפקודה התקין ולקיום העקרונות האחרים בפעילותם. בין היתר, הם יפנו תשומת-לב לתפישות ניהול סיכונים מקובלות ולאפשרויות הטכנולוגיות הזמינות'. הגישה כאן בעצם פונה לחלוקת האחריות לאורך השרשרת הטכנולוגית – מרמת המפתח, דרך המפעיל ועד למשתמש. ככל שהסיכון גדול יותר, ומדובר בזכויות יסודיות יותר שנפגעו, כך האחריות תוטל על מפתח הטכנולוגיה, ולהיפך".

ביחס למקרה שבו עורך דין אמריקני השתמש בבית המשפט בנתונים שגויים שהציג לו ChatGPT, אומרת הררי הייט, שהמקרה רק מחזק את הצורך בהשקעה ובפיתוח של טכנולוגיות משפטיות. לדבריה, "שוק העבודה מתקדם ונסמך יותר ויותר על טכנולוגיה. לכן, יהיה קשה לשמור את עורכי הדין מאחור – בטח כשמדובר בשוק ובמקצוע שמרניים, שהקדמה הטכנולוגית רחוקה מלהיות טבע שני להם. בכל מקרה, אין ספק שיש עוד דרך ארוכה לעבור, ושהסיפור הזה הוא תמרור אזהרה לכל עורך דין שחושב שהצ'אט יקצר לו את יום העבודה".

האם ניתן להאשים טכנולוגיה בלשון הרע?

עו"ד רועי טוני, מומחה למשפט מסחרי ולטכנולוגיה ממשרד עו״ד רויזר-טוני ושות', מסביר כי בתלונות נגד OpenAI ישנה מעורבות טכנולוגית נוסף על מעורבות של בני אדם – ולכן הסיפור המשפטי הופך למורכב קצת יותר. חשוב להבין כי במקרים שבהם מעורבת בינה מלאכותית, לאותה טכנולוגיה אין בהכרח יכולת לסנן מידע כנדרש. לכן, הטכנולוגיה לא תמיד יכולה להבחין אם התוצר שהיא מפיקה מהווה הוצאת דיבה או לא, והדבר מעלה סוגיה נוספת, אולי מורכבת לא פחות: האם וכיצד בית המשפט יכול להתמודד עם תלונות מהסוג הזה, כאשר קיים פער כה גדול ביכולת טכנולוגית? לדברי טוני, "על מנת להדביק את הפער הזה, אנו נדרשים קודם כל לשופטים יצירתיים – אשר אינם מוגבלים לחשיבה מיושנת או לחשיבה שאינה רלוונטית לימינו".

טוני מזכיר בהקשר הזה את המקרה המפורסם של יואל שאול, שבו בית המשפט העליון בישראל נדרש להתמודד עם סוגיה טכנולוגית דומה בהקשר של לשון הרע. המקרה המדובר עסק בשאלה האם סימון "Like" או "Share" על פוסט ברשתות החברתיות, המכיל לשון הרע – יכול להוות כשלעצמו פרסום לשון הרע. "בית המשפט בארץ פסק שפעולת השיתוף, להבדיל מ'לייק', היא 'הדהוד' של הפרסום העוולתי. דבר זה עשוי להקנות לפוסט תפוצה נרחבת, מעבר למה שהפרסום היה מקבל לולא הוא שותף", אומר טוני.

עו"ד רועי טוני (צילום: יחסי ציבור)
עו"ד רועי טוני | צילום: יחסי ציבור

האם קביעה זו תקפה גם לאותו מקרה של איש הרדיו, אשר האשים בינה מלאכותית בהדהוד מידע שגוי אודותיו? לדברי טוני, נראה שהדבר תקף גם במקרה הזה. "בית המשפט העליון בעצם הכריע איזה סוג של מעורבות טכנולוגית מהווה אחריות לפרסום, על פי המשפט הישראלי. בהתאם להחלטה זו, נראה כי גם לשדרן הרדיו האמריקני קיימת עילה לתביעה. הבינה המלאכותית קבעה שהוגשה נגדו לכאורה תביעה בגין מעילה, ומידע זה עשוי לעלות כדי לשון הרע".

עם זאת, מעבר לדלתות בית המשפט, טוני מבהיר כי החקיקה בארץ מיושנת ביחס לטכנולוגיה הקיימת, שהינה פורצת דרך מדי יום ביומו. לדבריו, מצב זה יוצר מורכבות בהתאמת הרגולציה המשפטית לטכנולוגיה שבמשק. "השינויים בעולם המשפט הם תהליך שאורך זמן", הוא אומר, "ועם זאת, קיימים היום מנגנוני רגולציה של גופים מנהליים, שבהקשר הזה עשויים להביא לגיבוש מדיניות המקדמת אינטרסים ציבוריים, חברתיים וכלכליים.

"לדוגמה, משרד החדשנות, המדע והטכנולוגיה, פרסם בחודש ינואר 2023 מסמך מדיניות רגולציה ואתיקה להערות הציבור. המסמך הזה התייחס לפיתוח ולשימוש במערכות מבוססות בינה מלאכותית בארץ, והוא אמור להביא לידי ביטוי את התפישה של 'חדשנות אחראית'. כמו כן, המסמך אמור להוות מצפן ערכי ועסקי לכל חברה, ארגון או גוף ממשלתי, בבואו להשתמש במערכות בינה המלאכותית. כלומר, הרגולטור הוא גורם חשוב אשר יכול להתוות מדיניות ערכית נדרשת, בהטמעת מערכות מבוססות בינה מלאכותית".

לצד כל אלה, טוני מבהיר לסיום כי המערכות הטכנולוגיות המבוססות על בינה מלאכותית הן נושא שככול הנראה יאתגר את בתי המשפט ואת השיח המשפטי. באשר לשאלה האם הטכנולוגיה החדשה מהווה אמצעי מסוכן ליצירת פייק ניוז, עו"ד טוני משיב כי הבינה המלאכותית היא רק סימפטום להתנהגות החברתית שלנו, אשר הפכה למקובלת. לדבריו, "ככל שנחזור לדרך הישר ונימנע מפייק ניוז, כך האלגוריתם של הצ'אט לא יאפשר פרסום מידע שאיננו מבוסס. הסכנה בעצם החלה כאשר הפייק ניוז הפך לתופעה שלצידה אין סנקציה".