תופעת הסחיטות המיניות ("סקסטורשיין", Sextortion) נמצאת במגמת עלייה מטרידה, ונראה שהפיתוחים הטכנולוגיים רק מקשים על חייהם של הקורבנות. באמצעות בינה מלאכותית, זיוף תמונות, התכתבויות ופרופילים מזויפים, הסחיטה המינית ברשת הפכה לקלה מתמיד - כך מזהירים בחברת אקטיבפנס (Activefence), המנטרת תוכן זדוני ברחבי האינטרנט.

על פי נתונים שנאספו על ידי ה-FBI, בשנת 2022 נרשמו יותר מ-7,000 דיווחים על סחיטה מינית, המהווים עלייה של 463% בהשוואה לשנת 2021. עוד עולה מהנתונים, שבשנת 2022 נרשמו 12 מקרי התאבדות כתוצאה מסחיטה מינית.

לא די בכך, אלא שחברת אקטיבפנס חקרה פורומים שבהם תוקפים מעבירים מידע בדארקנט, וכן בפורומים של נתקפים שלא נחשפו בשמם מצנעת הפרט. הניטור מצביע על כך שבשנת 2021 מספר הנפגעים שדיווחו בפורום של נפגעי הסחיטה המינית עמד על 2,150, ואילו בשנת 2022 המספר שילש את עצמו ל-6,500 נפגעים. ב-2023 המספר עלה כבר ל-9,500 נפגעים, אולם נקודת ההנחה היא שבסוף שנת 2023 המספר עמד על יותר מ-13,000 עדויות. מדובר בעלייה של פי 6 במספר העדויות שנאספו בין ספטמבר 2021 לספטמבר 2023.

כמו כן, הניתוח מצביע על כך שבעבר, הסחיטה המינית ברשת הייתה נקודתית ושימשה לרווח אישי של התוקף, אך כעת הסקסטורשיין נהפך לתעשייה של ממש. כך, חברת אקטיבפנס ניתחה 300 תיקי סחיטה בקרב קטינים שהתבצעו בעשור האחרון בארצות הברית - בעוד שבכלל התיקים בשנת 2015 הסחיטה לא התבצעה ממניע כספי, בשנת 2023 לעומת זאת,60 אחוז מהמקרים נבעו ממניעים כלכליים.

חוקרי אקטיבפנס מצאו שבפורומים שונים בדארקנט, משתמשים מעלים תמונות אינטימיות שלא בהסכמה (NCII - Non-Consensual Intimate Images) של נערות ונשים המיוצרות על ידי AI ג'נרטיבי. התוקפים ככל הנראה עושים שימוש בבוטים ובאתרים שיוצרים תמונות עירום במהירות ובזול לשם כך, ולא בשירותי ה-AI הגדולים והמוכרים, שכן באלה קיימות חסימות המונעות יצירה של תמונות מהסוג המדובר. שירותים אלה פועלים בעיקר על פי מודל מנוי, המאפשר למשתמשים לשלם תשלום חודשי או דמי שימוש עבור כל תמונה שנוצרת על ידי הדגם. בנוסף, המפעילים של השירותים המפוקפקים הללו מציעים למשתמשים אסימונים בחינם לייצר יותר תמונות חושפניות אם הם מקדמים את השירות.

"עם התפתחות ה-GenAI, יכולתם של משתמשים בעלי כוונות זדוניות לפעול ברשת הפכה לגבוהה ומסוכנת מתמיד", אומר ד״ר אבי יגר, ראש תחום בטיחות ילדים ברשת בחברת אקטיבפנס, ממחברי הדוח. "אם נסתכל על סחיטה מינית ברשת, אנו מזהים שתופעה זו צוברת תאוצה; אם בעבר היה צורך להערים על הקורבן שישלח תמונה חושפנית, היום ניתן לייצר תמונות חושפניות מתמונות תמימות שאנשים מעלים לרשתות חברתיות בהיקף הרבה יותר גבוה".

אבי יגר, אקטיבפנס (צילום: גדי סיפרה)
ד"ר אבי יגר מחברת אקטיבפנס | צילום: גדי סיפרה

"בנוסף, ישנה עלייה תלולה בשימוש בפלטפורמות GenAI ליצירת תמונות פורנוגרפיות שלא בהסכמה, של קטינים ובגירים כאחד. הרשת כיום מוצפת בתמונות של מפורסמים שעברו 'נודיפיקיישן' (זיוף של תמונות עירום). מאידך, ישנה תופעה הולכת וגוברת של ילדים שכמעשה קונדס, מייצרים תמונות עירום של חבריהם לכיתה, מבלי שהם מבינים את ההשכלות ארוכות הטווח על הקורבן".