אתר הפורומים רדיט, שמהווה בעצם סוג של רשת חברתית, הוא תמיד קרקע פורייה לסקנדלים מסוגים שונים. אירועים סנסציוניים כמו השקעות מפוקפקות נולדים ומתקיימים ברדיט, וכעת הונאה חדשה מעוררת סערה בקהילה: מכירת תמונות חושפניות של נשים, או ליתר דיוק אישה אחת, שמסתבר שהיא כלל וכלל לא אמיתית.

הכל התחיל כאשר משתמשת שכינתה עצמה ברשת החברתית "קלאודיה" פרסמה בפלטפורמה תמונות חושפניות שלה לבושה בהלבשה תחתונה, ואף הציעה לשלוח תמונות עירום מלא לכל מי שישלח לה הודעה פרטית ויעביר לה תשלום סמלי. אלא שמסתבר שמאחורי קלאודיה עומדים למעשה זוג סטודנטים למדעי המחשב שזהותם לא ידועה. הסטודנטים הצליחו ליצור באמצעות בינה מלאכותית את דמותה של נערת החלומות שלהם, בניסיון לבדוק אם הם יכולים להתעשר ממכירת תמונותיה ברשת.

דמותה של קלאודיה נוצרה למעשה על ידי Stable Diffusion, מנוע בינה מלאכותית שהחל לפעול בשנת 2022. המנוע משמש בעיקר ליצירת תמונות ריאליסטיות בהתאם לתיאור טקסטואלי, כלומר, המשתמש מכניס תיאור מסוים של התמונה שברצונו ליצור, ומקבל תוצר ויזואלי בהתאם לבקשותיו.

במקרה של קלאודיה, היוצרים ביקשו מהמערכת ליצור סלפי של אישה בביתה "ללא איפור, עם שיער שחור חלק באורך הכתפיים, על רקע פשוט". לאחר מכן, הסטודנטים לקחו את הניסוי שלהם לשלב הבא, כאשר הם פרסמו ברדיט פוסטים מפורשים למדי המתארים את חיי המין של אותה קלאודיה דמיונית. במהירות היא הפכה לכוכבת ברדיט - והתשלומים החלו לזרום לכיסם.

אלא שהמטרה של זוג הסטודנטים הפעם לא הייתה בהכרח להפיל בפח גולשים תמימים, אלא להוכיח שהשיטה שלהם עובדת. מה בכל זאת גרם להם להיחשף? ובכן, מסתבר שיש דבר אחד שמערכות של בינה מלאכותית שיוצרות תמונות יש מאין לא ממש מצטיינות בו: ידיים. כך לדוגמה, מומחי AI שבחנו היטב את תמונותיה של קלאודיה גילו כי בכפות ידיה יש יותר מחמש אצבעות. כמו כן, הם מצאו ברקע של תמונותיה פגמים אחרים שהסגירו את העובדה שמדובר בזיוף, כמו שומה בצוואר שהופיעה בחלק מהתמונות ובחלק לא. 

לא די בכך, אלא שיוצריה של קלאודיה גם עברו על חוקי הקהילה. Stability AI, הסטארטאפ הלונדוני שיצר את מנוע Stable Diffusion, אוסר על משתמשים ליצור תמונות מגונות ופורנוגרפיות באמצעות הטכנולוגיה שלה. עם זאת, במקרה הזה היוצרים לא נתפסו בזמן. גולשי רדיט שהבינו שנפלו בפח הגיבו בהתאם: "אני מרגיש נבגד", כתב אחד מהם.

אמנם סיפורה של קלאודיה נשאר בגדר הלצה ברדיט, אבל המנגנון שעליו התבססו הסטודנטים האנונימיים עשוי לשרת מטרות אפלות בהרבה. כך לדוגמה, בחודש פברואר האחרון פרסם הדיילי מייל הבריטי כי פדופילים משתמשים בבינה מלאכותית כדי ליצור תמונות מגונות של ילדים ולשתף אותן ברשתות החברתיות עם פדופילים אחרים, וגם אנחנו דיווחנו על הממצאים של חברת אקטיבנס הישראלית בנושא.

במקרים אחרים, חמורים יותר, משתמשים התנסו בטכנולוגיית 'דיפ פייק' (Deep-Fake) כדי להדביק את פניהם של ילדים אמיתיים על גופות עירומות שנוצרו על ידי בינה מלאכותית. לאן הטכנולוגיה האפלה הזו עוד תיקח אותנו בעתיד עוד מוקדם לשער, אבל מה שבטוח, זה שמעתה חשוב להפעיל שיקול דעת והיגיון בריא בכל מקרה שבו עולה חשד.