"אחת מהעדיפויות העליונות שלי ב-2018... אני צריך לנסח את זה נכון... אחת החרטות הגדולות שלי בניהול החברה, היא שזיהינו לאט מדי את ההתערבות הרוסית בבחירות". כך אמר מארק צוקרברג בעדות בפני הסנאט בחודש אפריל האחרון.
צוקרברג, שעומד בראש חברת איסוף המידע פייסבוק, העיד בעקבות חשיפה של איסוף מידע מאסיבי במטרה להפיץ ידיעות שקריות, להטות את דעת הקהל בהיקפים של עשרות מיליוני אנשים, ולהשפיע על הבחירות.
חמלבוק
חלפה חצי שנה ופייסבוק הציגה היום את אחד הכלים שלה למלחמה בנסיונות הללו: חדר מלחמה. אז מה מציע אותו חדר המלחמה ואיך הוא יימנע פייק ניוז? מבחינה טכנית אין בו שום חידוש. הוא נראה בתמונה כמו מרחב אופן ספייס שגרתי לחלוטין, עם עמדות עבודה שיש להן שלטים לפי מחלקות, מסכים גדולים שמראים מידע סטטיסטי ומערכת לשיחות וידאו.
כלומר מדובר יותר בעניין לוגיסטי של מחלקת כוח אדם וסידורי ישיבה פנימיים, שהתגלגל לכדי הודעה לעיתונות. או במילותיו של סמיד צ'קרברטי, מנהל מוצרים בחטיבת מעורבות אזרחית בפייסבוק, "המטרה: לאגד את המומחים מכל רחבי החברה במקום אחד, כדי שהם יוכלו לטפל בבעיות שמזוהות באמצעות הטכנולוגיות שלנו בזמן אמת ולהגיב מהר". הבעיות הן אותן בעיות שהיו קודם - פרסומים, פוסטים וספאם שמנסים להשפיע על הקהל או ללחוץ על אנשים להצביע או להמנע מהצבעה.
בחדר המצב ישבו יותר מ-20 איש שהם נציגים של 20,000 עובדי מחלקות מודיעין, הנדסה, מחקר, משפטית וכדומה. למה הם צריכים לשבת באותו חדר, המצולם בתמונה שפייסבוק פירסמה, ולא לתקשר אחד עם השני בפייסבוק מסנג'ר? בחברה טוענים שכך יהיה אפשר להגיב מהר יותר לאיומים שמזוהים במערכת.
ההכרזה של פייסבוק מתפרסמת כחודשיים לאחר עזיבתו של אלכס סטיימוס, מנהל אבטחת המידע בחברה, שפרשות דליפת המידע קרו תחת פיקודו. עד כה לא פורסם מי יחליף אותו.
מחקו פייק ניוז על יום הבחירות
בפייסבוק מתגאים בהצלחה בברזיל, ומספקים דומה לאירוע שאמור להיות שגרתי - מחיקת תוכן בעייתי ושקרי. צ'קרברטי מספר על גורמים שניסו להפיץ ידיעה שלפיה דחו את הבחירות בברזיל, בשביל לשכנע תושבים לא לצאת להצביע. פייסבוק, מספר צ'קרברטי, מחקה את הדיווח תוך שעה ואחר כך מחקה נסיונות נוספים להפיץ אותו. במקרה אחר, הוא מספר, מחקו פוסטים שהפיצו שנאה בתוך שעתיים.
כמה חדשות כזב כאלה חמקו מתחת לידיה של פייסבוק? כמה פוסטים אלימים כן הצליחו להשפיע על תושבי ברזיל? צ'קרברטי לא מספר על כשלונות. מתחקיר שפרסמנו בשנה שעברה עולה כי פייסבוק עדיין לא יעילה בניטור תוכן בעייתי. גם כשתוכן ספציפי מדווח לה - במקרים רבים הוא פשוט לא נמחק.
החברה מבטיחה להשתפר בכל פעם שתחקירים כאלה מתפרסמים, וצ'קרברטי אומר שהבינה המלאכותית השתפרה. מצד שני הוא מודה "הצוותים שלנו הפכו לחכמים יותר, אך גם המפרסמים שרוצים לנצל לרעה את המערכות שלנו".
אבל חפשו היום, למשל, "מוות לערבים" בפייסבוק - ותקבלו שלל פוסטים מסיתים. לא צריך להיות מתוחכם בשביל לכתוב את זה, ולא צריך בינה מלאכותית בשביל לזהות את זה. בימים האחרונים מתפרסמים גם דיווחים שלפיהם פייסבוק לא פועלת מספיק מהר למנוע הפצה של שנאה - גם במקרה של הסתה לרצח עם, שמתרחש במיאנמר.
מזהים את הפייקים ביחד
בשבועות האחרונים, במסגרת תחקירים של next ו-NEXTER איתרנו מספר פרופילים מזויפים גם בפייסבוק וגם בטוויטר. הפרופילים האלה מנסים להשפיע על הבחירות המקומיות שיתקיימו בישראל בסוף החודש, ועל הבחירות הכלליות שיתקיימו במהלך 2019, באמצעות הפצת מידע שקרי על מועמדים לבחירות, פעילים פוליטים ופוליטיקאים מכהנים..
אם ראיתם פרופיל מזוייף שמפיץ ידיעות, או מגיב באופן חשוד בנושאי הבחירות - דווחו לנו ואנחנו נבדוק אותו.