לפני כשבועיים, יועץ התקשורת איציק אלרוב נחקר באזהרה לאחר שפרסם תמונה המדמה את השרה מירי רגב כשהיא מכוסה בפופקורן ספוג דם, ומעליה כתב: "פופקורן טבול בדם הנופלים". התמונה הזאת כאמור אינה תמונה אמיתית של השרה, והיא ככל הנראה נוצרה על ידי אחד מחוללי יצירת התמונות באמצעות בינה מלאכותית, כמו מידג'רני או DALL-E. 

המקרה הזה מצטרף לשורת אירועים מהשנים האחרונות, בהם פוברקו והופצו ברשת תמונות פוגעניות או חושפניות של אנשי ציבור ומפורסמים. בולט המקרה שאירע בחודש שעבר בארצות הברית, כאשר תמונות פרובוקטיביות של טיילור סוויפט זויפו באמצעות בינה מלאכותית. במקרה הזה, התמונות הצליחו לצבור כל כך הרבה ויראליות, שטוויטר נאלצה לחסום את המילים "טיילור סוויפט" מהחיפוש שלה בניסיון למנוע מאנשים לצפות בתוכן הפוגעני.

העובדה שכלי ה-AI והולכים ומשתכללים בקצב מבהיל מעלה את השאלה האם החוק, הישראלי והבינלאומי, לא נותר הרחק מאחור במירוץ הזה. "כשמדברים על בינה מלאכותית, יכולות לעלות כל מיני סוגיות אזרחיות שיש להן משמעות מעניינת, גם אם אנחנו עדיין לא בעולמות הפליליים", אומרת עו"ד שיר שושני-כץ, שותפה במחלקת משפט וטכנולוגיה במשרד עורכי הדין AYR – עמר רייטר ז'אן שוכטוביץ ושות'. "עם זאת, מה שמרגיע מעט בסיפור הזה זה ש כלים של חברות גדולות ומסודרות בדרך כלל כוללים חסמים, מגבלות מסוימות, באופן מובנה באלגוריתם. כך לדוגמה, אם מזינים בכלים של גופים שנחשבים אמינים בקשה ליצור תמונה של מישהו עם דם על הידיים, מאוד יתכן שהאלגוריתם פשוט יסרב לעשות את זה".

עורך דין שיר שושני-כץ (צילום: ניר עמוס)
עו"ד שיר שושני כץ | צילום: ניר עמוס

לצד זאת, שושני-כץ מסבירה שעדיין עלולה להיות בעייתיות במקרים כאלה כי ישנן דרכים שמאפשרות לעיתים לעקוף את החסמים הללו, בין אם באמצעות מתן הוראות (פרומטים) לכלים הללו ש"עוקפים" במעט את ההגבלות, או באמצעות כלים אחרים. "כמו בהרבה תחומי אחרים שקשורים לטכנולוגיה, גם בתחום הזה אין מאה אחוז. זה נכון למשל גם לתחום אבטחת המידע, וזה נכון גם כאן".

סוגייה בעייתית נוספת שעשויה לעלות במסגרתהשימוש בכלי AI לטובת יצירת תמונות מפוברקות, היא מה שקרוי בשפה המשפטית "שימוש בתמונתו של אדם לשם ריווח", סעיף שמהווה חלק מחוק הגנת הפרטיות הישראלי. "אם אני יוצאת בקמפיין מסחרי ואני רוצה להשתמש בתמונה של אדם, מפורסם או לא, כדי לקדם את המוצר שלי, סביר מאוד להניח שאצטרך לקבל קודם את ההסכמה שלו. ברגע שאין הסכמה, זה בעייתי מבחינת החוק", אומרת שושני-כץ. "עולה גם עוד שאלה מעניינת בהקשר הזה כמו למשל האם תמונה שהורכבה באמצעות הרבה תמונות אחרות מהווה "תמונתו של אדם" במובן שהחוק חל עליה".

ידי AI: תמונות פורנוגרפיות של טיילור סוויפט מסתובבות ב-X (צילום: מתוך הרשתות החברתיות לפי סעיף 27א' לחוק זכויות יוצרים)
אחת מהתמונות הפרובוקטיביות של טיילור סוויפט שזויפו | צילום: מתוך הרשתות החברתיות לפי סעיף 27א' לחוק זכויות יוצרים

גם עולם הדיפ-פייק, שכולל תוצרים כמו קטעי וידיאו מלאכותיים שנוצרו באמצעות כלי בינה מלאכותית, מאתגר את החוק. בתחום הזה אנחנו רואים התייחסות נדירה יחסית של רגולטור ישראלי לתחום. כך, בספטמבר 2022 פירסמה הרשות להגנת הפרטיות במשרד המשפטים מסמך המפרט את עמדתה בתחום. במסמך ממליצה הרשות לכל מי שסבור שהופצו ברשת תמונות או סרטונים מזויפים המציגים את דמותו באופן שעלול להשפילו או לחשוף מידע הנוגע לצנעת חייו להגיש תלונה במשטרת ישראל. עם זאת, עו"ד שושני-כץ טוענת שגם כאן, הגבולות עדיין מטושטשים ויתכן שנראה בעתיד קווים מנחים יותר קונקרטיים. "העמדה של רשות הגנת הפרטיות לגבי דיפ- פייק היא שאם התוצר עשוי להיתפס בעיני הציבור כאותנטי, אז הוא כפוף להוראות דיני הגנת הפרטיות. זו נקודה מעניינת שעשויה להיות נתונה לפרשנות, כי מה שנחווה כאותנטי לאדם אחד, לא בהכרח תקף לאדם אחר".

חוק ישן לתופעה חדשה

האם החוק הישראלי בכלל מתכוון להגן על האזרחים מפני סכנות ה-AI? אם תשאלו את עו"ד שושני-כץ, לא בטוח. "המרדף הזה מזכיר קצת את מה שקורה בעולם הסייבר. מצד אחד מתפתחים כלי הגנה חדשים, אבל גם מתגלות פרצות חדשות. זה מרדף של חתול ועכבר, והחוק הישראלי לא מתמקד בנושא. למען האמת, החוק הישראלי כלל לא עוסק היום בבינה מלאכותית באופן ספציפי, וזה לא משהו נדיר, כי בסופו של דבר בינה מלאכותית היא טכנולוגיה ספציפית והדין בדרך כלל מנסה לשמור על ניטרליות טכנולוגית, כדי להיות רלוונטי גם עם הגעתה של טכנולוגיה חדשה. הדרך שלנו המשפטנים להתמודד עם העובדה הזאת היא להחיל הוראות דין קיימות על הטכנולוגיה החדשה".

בישראל, בניגוד לאיחוד האירופי ולמדינות מסוימות בארצות הברית, אין חקיקה שעוסקת בבינה מלאכותית באופן ספציפי. נכון להיום, חוק הגנת הפרטיות, שיכול להיות רלוונטי להיבטים מסויימים של בינה מלאכותית, נחקק בשנת 1981 ותוקן לאחרונה בשנות ה90, כך שהוא רחוק מלהדביק את קצב התקדמות הטכנולוגיה. "הדרך לעבוד עם חוק כל כך ישן שנוצר עוד לפני שהיה אינטרנט בכלל, היא לעבוד עם פרשנויות ומסמכים שרשות הגנת הפרטיות מפרסמת", מסבירה שושני-כץ. "במרדף שבין הטכנולוגיה למחוקק, המחוקק תמיד יפסיד - כי התהליכים הרגולטוריים הם הרבה יותר איטיים מהקצב שבו הטכנולוגיה מתפתחת".

ובכל זאת, מה אנחנו צפויים לראות בעתיד? "אני לא צופה שישראל תלך לאסדרה כללית של בינה מלאכותית, אלא שכל רגולטור יוציא מסמכי עקרונות בתחומו", אומרת שושני-כץ. "אני חושבת שיש לזה יתרונות, כי רגולציה עודפת עלולה גם לעצור את הטכנולוגיה, ואלה גם הטענות שמופנות נגד האיחוד האירופי, שנחשב כגורם המוביל ביותר בעולם המערבי בתחום הרגולציה הטכנולוגית מצד אחד, אבל מצד שני, לא מוביל את תחום הפיתוח של טכנולוגיות רבות, כולל בינה מלאכותית. זו גם הסיבה לכך שאנחנו רואים שחלק נכבד מהחברות שמובילות את תחום הבינה המלאכותית היום הן חברות אמריקאיות ולא אירופאיות".

 

סם אלטמן  (צילום: Steve Jennings / Stringer, getty images)
סם אלטמן, מנכ"ל OpenAI | צילום: Steve Jennings / Stringer, getty images

בתגובה לדברים הללו נשאלת השאלה האם בעולם שבו כלי ה-AI הולכים ונעשים מדויקים ואמינים מרגע לרגע, ניתן בכלל להסתדר בלי הגנה חוקית מלאה. האתגר הבא בתחום יגיע עם שחרור סורה (Sora), מודל יצירת הסרטונים עליו הכריזה חברת OpenAI בשבוע שעבר, כך צופה איילון גרופר, יזם, מומחה ויוצר תוכן בעולם הבינה המלאכותית. "בעזרת סורה אפשר ליצור תוכן מאוד ריאליסטי, זה מגיע לרמות שאי אפשר בכלל להבדיל בין זה לבין המציאות", אומר גרופר. "זאת גם הסיבה ש-OpenAI עדיין לא משחררת אותו לציבור הרחב - הם מפחדים שהוא יגיע לידיים הלא נכונות. בזמן שהם עובדים על הגבלות, מסתובבים ברשת לא מעט מודלים בלי הגבלות, וגם אם לא מגיעים אליהם, אפשר לשלב כמה כלים שונים ואיתם להגיע לתוצאה פוגענית. היכולת כבר קיימת, ללא ספק".

בניגוד לשושני-כץ שהשוותה את המירוץ שבין המחוקק לטכנולוגיה לעולם אבטחת המידע, גרופר מבקש להשוות את המצב לתופעה עדכנית יותר, הביטקוין ועולם הקריפטו בכלל. גם במקרה הזה, לקח לרגולטור זמן להתעורר. "אני מאמין שיהיו לנו חוקים ולא רק תקנות בנושא, מהסיבה הפשוטה שזה הרסני. תוצר של בינה מלאכותית יכול להרוס שם של בן אדם לגמרי", אומר גרופר. "זה רק עניין של זמן עד שמישהו יהיה השעיר לעזאזל ויחטוף חזק, עד שלרגולציה לא תהיה ברירה אלא להתעורר". 

אילון גרופר (צילום: צילום פרטי)
איילון גרופר. "ההתעסקות בבינה מלאכותית מסקרנת את הישראליים מאוד, היא חוצה גילאים ומגזרים" | צילום: צילום פרטי

עד שזה יקרה, גרופר מציע דרך נוספת להגן על הצרכנים - דווקא באמצעות הרשתות החברתיות. "אם מעלים היום ליוטיוב או לאינסטגרם וידיאו שפוגע בזכויות יוצרים, לדוגמה עם שיר שנעשה בו שימוש בלי רשות, מיד חוסמים אותו. בהתאם, אפשר להחליט שאם משהו שעולה לרשת נחשד כפייק, הרשת החברתית תחסום אותו", הוא מציע. "עם זאת הסיכוי שזה יקרה קלוש, כי בסוף הרשתות החברתיות מרוויחות מכך שאנשים יצפו בכמה שיותר תוכן לאורך זמן, ואם הרבה תוכן יסונן כי הוא נוצר על ידי AI - זה כבר יפגע בהן".

"גם לאנשים עם עין ספקנית מאוד, כמו שלי, יש נפילות. יש מקרים שאני עוצר ואומר וואו, לא הייתי מאמין בכלל שהדבר הזה נוצר על ידי בינה מלאכותית ושהוא לא אמיתי", אומר גרופר. "לא מזמן נתקלתי בתמונה של טראמפ שמוכה לכאורה על ידי שומרים. במבט ראשוני, אדם מן השורה שגולל ברשתות החברתיות יחשוב בתמימות שמה שהוא רואה מול עיניו אמיתי לחלוטין וימשיך לגלול. גם אם הוא יחשוד, המסרים כבר נשתלו בתוך המוח שלו. אם נעצור ונתמקד מעט יותר בתמונה הספציפית הזאת (שמופיעה בתחילת הכתבה), נוכל להבחין בכך שיש עיוותים וחוסר אחידות: לחלק מכפות הידיים יש 4 אצבעות, התנוחות שבה הדמויות בתמונה מצויות הן לא הגיוניות מבחינה פיזיולוגית וחלק מהעצמים מעוותים. עם זאת, חשוב לזכור שהיכולות כל הזמן משתפרות, וגם החסמים האלה ייפתרו בעתיד".

"הטיפ שלי זה תמיד לחשוב למה יכול להיות שמה שאני רואה, הוא לא אמיתי בכלל. אני יכול להגיד שההתעסקות בבינה מלאכותית מסקרנת את הישראליים מאוד, והיא חוצה גילאים ומגזרים. אני מקבל עשרות הודעות ביום מכל שכבות הגיל, מילדים ונערים בגילאי העשרה ועד בני 60 ומעלה ששואלים אותי שאלות בנושא. גם הטכנופובים הכי גדולים מבקשים להיחשף ל-AI, וזה מצביע על שינוי גדול יותר ממה שאנחנו מבינים כרגע".