עובד לשעבר בגוגל: "החברה הפרה את מדיניותה כשסייעה לקבלן צה"ל"
בשנת 2025 שינתה גוגל את המדיניות שלה על השימוש ב-AI והסירה את התחייבויותיה שלא ליישם את הטכנולוגיה על נשק או מעקב. אך לפי דיווח של הוושינגטון פוסט, עוד לפני זה ענקית הטק עזרה לקבלן של צה"ל לפענח טוב יותר צילומי וידאו מעזה. בתגובה גוגל טוענת כי השימוש היה מזערי ובהתאם למנוי של החברה

הוושינגטון פוסט מדווח כי גוגל הפרה בשנת 2024 את המדיניות של עצמה, שאסרה על שימוש בבינה מלאכותית לנשק או למעקב, בכך שסייעה לקבלן צבאי ישראלי לנתח צילומי וידאו ממל"טים - כך טוען עובד גוגל לשעבר בתלונת חושף שחיתות פדרלית חסויה שהגיעה לידי העיתון.
על פי הדיווח, משרד הביטחון הישראלי השתמש במודל ה-AI של גוגל, ג'מיני, בתקופה שבה החברה התנערה בפומבי מהקשר עם צה"ל, בעקבות מחאות עובדים על חוזה עם ממשלת ישראל, כך עולה ממסמכים פנימיים הכלולים בתלונה.
ביולי 2024, חטיבת מחשוב הענן של גוגל קיבלה בקשת תמיכה מאדם שהשתמש בכתובת מייל צה"לית, על פי המסמכים שצורפו לתלונה, אשר הוגשה לרשות לניירות ערך בארה"ב (SEC) באוגוסט. השם המופיע בבקשת התמיכה תואם לעובד המופיע ברשימות הציבוריות של חברת הטכנולוגיה הישראלית CloudEx, אשר לפי התלונה ל-SEC היא קבלנית של צה"ל.
הבקשה שנשלחה לגוגל הייתה כביכול לגרום לג'מיני להיות אמין יותר בזיהוי אובייקטים כגון מל"טים, רכבים משוריינים וחיילים בצילומי וידאו אוויריים. צוות ביחידת הענן של גוגל הגיב בהצעות ובביצוע בדיקות פנימיות, כך נכתב במסמכים.
הפרת עקרונות ה-AI
באותה עת, "עקרונות ה-AI" הפומביים של גוגל קבעו כי החברה לא תפרוס טכנולוגיית AI בהקשר לנשק, או למעקב ה"מפר נורמות מקובלות בינלאומיות". "חושף השחיתות" טוען כי השימוש של קבלן צה"לי סתר את שתי המדיניות הללו. התלונה ל-SEC טוענת כי גוגל הפרה את חוקי ניירות הערך משום שעל ידי סתירת המדיניות המוצהרת שלה, שנכללה גם בדיווחים פדרליים, החברה הטעתה משקיעים ורגולטורים.
"רבים מהפרויקטים שלי בגוגל עברו את תהליך סקירת אתיקת ה-AI הפנימי שלהם", אמר העובד לשעבר שהגיש את התלונה בהצהרה לוושנגטון פוסט, שניתנה בתנאי אנונימיות מחשש לנקמה מצד החברה. "התהליך הזה חשוב, וכעובדים מזכירים לנו באופן קבוע כמה חשובים עקרונות ה-AI של החברה. אבל כשזה הגיע לישראל ועזה, ההפך היה הנכון. פניתי ל-SEC כי הרגשתי שהחברה צריכה לתת דין וחשבון על המוסר הכפול הזה".
תגובת גוגל: "שימוש לא משמעותי"
דובר גוגל ערער על טענות העובד ואמר כי החברה לא הפרה את עקרונות ה-AI שלה משום שהשימוש של החשבון בשירותי ה-AI שלה היה קטן מכדי להיות "משמעותי". "ענינו על שאלת שימוש כללית, כפי שהיינו עושים עבור כל לקוח, עם מידע סטנדרטי של מרכז הסיוע (help desk), ולא סיפקנו שום סיוע טכני נוסף", נמסר בהצהרה מטעם הדובר. "הפנייה הגיעה מחשבון עם הוצאה חודשית של פחות מכמה מאות דולרים על מוצרי AI, מה שהופך כל שימוש משמעותי ב-AI לבלתי אפשרי". תיעוד של גוגל עבור שירות ה-"cloud video intelligence" שלה מציין כי מעקב אחר אובייקטים בווידאו הוא בחינם ב-1,000 הדקות הראשונות, ולאחר מכן עולה 15 סנט לדקה.
דובר של ה-SEC סירב להגיב. כל אחד יכול להגיש תלונה לסוכנות, והיא אינה מפרסמת אותן. תלונות אינן מובילות באופן אוטומטי לחקירה. נציגים של צה"ל ו-CloudEx לא הגיבו לבקשות לתגובה.
הרקע: פרויקט נימבוס ומחאות עובדים
בשנת 2024 CloudEx הייתה בין נותני החסות לכנס טכנולוגי שנערך בראשון לציון בשם "IT for IDF", שבו שיבחו קציני צבא ישראלים את חשיבות מחשוב הענן לפעילות הצבא בעזה, בנוסף ל-CloudEx גם בזק, סלקום ודל היו בין נותני החסויות לכנס.
התלונה ל-SEC טוענת כי השימוש בג'מיני המתואר במסמכים הפנימיים קשור לפעילות ישראל בעזה, ללא ציטוט ראיות ספציפיות. גוגל אמרה בעבר כי עבודתה עבור ממשלת ישראל "אינה מכוונת לעומסי עבודה רגישים מאוד, מסווגים או צבאיים הרלוונטיים לנשק או לשירותי מודיעין".
גוגל, שהשתמשה במוטו "Don’t be evil" (אל תהיה רשע) כשיצאה להנפקה ב-2004, עדכנה בפברואר אשתקד את מדיניות ה-AI שלה והסירה את התחייבויותיה שלא ליישם את הטכנולוגיה על נשק או מעקב, באומרה כי היא צריכה להתפתח כדי לעזור לממשלות נבחרות דמוקרטית לעמוד בקצב במאבק העולמי על דומיננטיות ב-AI.
נזכיר כי גוגל נאלצה להתמודד גם גלי מחאות שונים, בעיקר בארה"ב, של עובדים ועובדים לשעבר שניסו להפריע לאירועים של החברה. החברה גם פיטרה כמה עשרות עובדים שהשתתפו בפריצה למשרדים והפגנה פיזית שהפריע ליום העבודה.