מסמכים פנימיים שדלפו שופכים אור על האופן בו פייסבוק מנחה את אלפי מנהלי התוכן שלה להתמודד עם דברי שנאה והסתה ברשת החברתית. התחקיר של אתר ProPublica, חשף בין היתר מצגת הכוללת שקופית מטרידה המדריכה את מנהלי התוכן "להגן" על גברים לבנים, אבל לא על ילדים שחורים. התמונה הכוללת הנוצרת מהמסמכים שדלפו מעידה על כך שמדיניותה של פייסבוק לרוב תעדיף להגן על אליטות וממשלות, ולאו דווקא על מיעוטים גזעיים או אקטיביסטים "פשוטי העם".

פייסבוק מאמנת ומנחה את מנהלי התוכן שלה למחוק דברי שנאה המכוונים כנגד קטגוריות מוגנות של אנשים, הכוללות מאפיינים שעליהם אין שליטה, כמו גזע, זהות מינית ושיוך דתי. מנגד, דברי שנאה נגד תת קבוצות של אותן קטגוריות מוגנות, כגון "מוסלמים קיצוניים" לדוגמא, לאו דווקא יזכו ליהנות מצנזורה במידה ויופנו קריאות שנאה נגדן, מאחר והם כן יכולים לשלוט בפן הקיצוני שלהם.

?Black Lives Matter

לצורך המחשה, בתחילת החודש קרא חבר הקונגרס האמריקאי קליי היגינס בפייסבוק שלו לטבח במוסלמים קיצוניים. הוא השתמש בביטויים קיצוניים כמו "לצוד אותם", "לזהות אותם" ו"להרוג אותם", וקרא "להרוג את כולם, לטובת כולם". על סמך הקווים המנחים של פייסבוק, מנהלי התוכן החליטו להתעלם באלגנטיות מהקריאה החריפה הזו. מנגד, בחודש מאי האחרון כתבה דידי דלגדו, משוררת ואקטיביסטית ב-Black Lives Matter, ש"כל הלבנים גזענים. אם זו היא לא נקודת הפתיחה שלך, כבר נכשלת". פוסט זה הוסר וחשבון הפייסבוק שלה הושבת למשך שבוע. אגב, המשפט "בואו נצוד ונהרוג ילדים שחורים, לטובת כולם", גם הוא לגיטימי מבחינת פייסבוק, כאמור – כי מדובר בקריאה נגד קבוצה ספציפית, ולא כנגד גזע שלם ("בואו נצוד ונהרוג את כל השחורים").

מסמך נוסף שנחשף מציג שאלת טריוויה למנהלי התוכן, שבה הם נשאלים "על מי אנחנו מגינים?". מתחת לשאלה מוצגות האפשרויות: 1. נהגות; 2. ילדים שחורים; 3. גברים לבנים. התשובה הנכונה, אם תהיתם, היא גברים לבנים. למה? גברים לבנים נחשבים לקבוצה מאחר ושתי התכונות שמאפיינות אותם מוגנות, ואילו נהגות וילדים שחורים, כמו מוסלמים קיצוניים, הם תתי-טגוריות, משום שאחד המאפיינים שלהם אינו מוגן. מבולבלים? זה בסדר, אתם לא לבד.

 

תגובתה של פייסבוק

התחקיר המטריד פורסם אמנם אמש (ד'), אבל נראה כי פייסבוק הקדימה תרופה למכה, מאחר שיום לפני כן פורסם בבלוג הרשמי שלה פוסט עם הכותרת: שאלות קשות: דברי שטנה; מי צריך להחליט מה נחשב לדבר שטנה בקהילה גלובלית מקוונת?". הפוסט נפתח בתהייה למה תפקיד הצנזור לא מתנהל באמצעות בינה מלאכותית, אך פייסבוק מסבירה שהטכנולוגיה כיום רחוקה מלהיות מסוגלת להתמודד עם המורכבות הכרוכה בהערכת דברי שנאה.

לטענת פייסבוק, יש מקרים שבהם ברור שטקסט מסוים הוא דיבור שנאה ויש להסירו מיד, מאחר שהוא כולל הסתה ישירה וקריאה לאלימות נגד תכונות מוגנות, או שהוא משפיל או עושה דה-הומניזציה לאנשים. "אבל לפעמים, אין הסכמה כללית (קונצנזוס) – כי המילים עצמן הן מעורפלות, והכוונה מאחוריהן אינה ידועה או שההקשר סביבן אינו ברור. כמו כן, השפה ממשיכה להתפתח, ומילה שלא נחשבה אתמול להשמצה, עלולה להפוך לאחת כזו".

כדי להתמודד עם האתגרים פייסבוק מגדילה את הצוותים שלה, כאשר במהלך השנה הבאה יתווספו 3,000 מנהלי תוכן ברחבי העולם, בנוסף ל-4,500 שמועסקים כיום. כמו כן, לדבריה, הם ממשיכים ללמוד עוד על הקשרים מקומיים (מה שנחשב למעליב בתרבות אחת הוא לגיטימי בתרבות אחרת) ועל השפה והסלנג המשתנה.

כבר היינו בסיפור הזה

לפני קצת יותר מחודש נחשפו יותר מ-100 ספרי הדרכה, שקופיות ותרשימים על מדיניות הצנזורה של פייסבוק. בין היתר הצביעו הגילויים על כך שהערות הקוראות לאלימות, כמו "שמישהו יירה בטראמפ", יש למחוק באופן מיידי, אבל אין שום בעיה לכתוב "כדי לשבור צוואר של כלבה יש להקפיד להפעיל את כל הלחץ על הגרון שלה" או "תזד&% ותמות", כי אלה אינם איומים מפורשים כלפי אדם ספציפי. אחת השקופיות במצגת כוללת תמונות של דמויות מוכרות בעולם הפוליטי, כמו ברק אובמה או האפיפיור, כדי להבהיר שרק איומים קונקרטיים על אישיות מסוימת אסורים לפרסום.

כפי שניתן להבין, התורה מאחורי הליך הצנזורה של פייסבוק היא מאוד לא עקבית. בסופו של דבר היא נתונה לשיקולם האישי של מנהלי תוכן, כאשר חלקם הגדול הם קבלני משנה שעובדים ברחבי העולם אחרי שעברו הכשרה בת שבועיים. כמו כן, כאן נכנס לסיפור הנושא של הבדלים בין תרבויות והגורם האנושי, מה שמוביל לכך שעקב חוסר תשומת לב או חוסר ידע על מה שנחשב לפוגעני בתרבות מסוימת, תוכן קיצוני וגזעני יכול למצוא דרכו ברשת, ולהוביל להתרסה ופגיעה באוכלוסיות חלשות יותר.

הכתבה פורסמה במקור באתר Geektime

עוד ב-Geektime:
לשאומי יש מקרן שיהפוך את הסלון שלכם לקולנוע
הצמיד הישראלי שיחסוך לכם לקחת ארנק לבילוי לילי