גוגל שוב מעוררת סערה בכל מה שקשור לשואה, נאצים ועובדות היסטוריות. לפני כמה שבועות גולשים גילו שג'מיני, צ'אטבוט ה-AI של ענקית החיפוש, לא מצליח לייצר תמונות נכונות מבחינה אתנית. למשל כאשר התבקש לצייר חיילים גרמנים ממלחמת העולם השנייה, הוא יצר כמה כאלה ממוצאים אתניים לא רלוונטיים, כמו היספאנים, אסייאתים ואפריקאים. כעת סרטון שהפך לוויראלי הצליח למצוא גליץ' נוסף במערכות של גוגל - והוא מקומם הרבה יותר. 

הצגת פוסט זה באינסטגרם

‏‎פוסט משותף על ידי ‏‎Michael Apfel‎‏ (@‏‎themichaelapfel‎‏)‎‏

משתמש אינסטגרם בשם מייקל אפפל העלה סרטון שבו הוא שואל את הגוגל נסט שלו, הרמקול החכם של גוגל, מספר שאלות בנושא יהודים. נראה כי העוזרת הקולית בנסט לא ממש מכירה בעובדות, וכאשר נשאלה: "היי גוגל, כמה יהודים נרצחו ע"י הנאצים?", לא ידעה לתת תשובה. גם שאלות דומות נתקלו באותה תשובה: "סליחה, אני לא מבינה את השאלה", למשל כאשר נשאלה כמה יהודים נרצחו בזמן מלחמת העולם השנייה, את מי ניסה אדולף היטלר להרוג, כמה יהודים נרצחו בשואה ואפילו מהי השואה.

למרות חוסר המודעות של גוגל בנושאי העם היהודי, נראה שדווקא בנושא הנכבה לא הייתה שום בעיה למנוע החיפוש למצוא תשובות. העוזרת הקולית כינתה זאת: "טיהור אתני של העם הפלסטיני". הסרטון גרם כמובן לעוד משתמשים ברשת לנסות זאת, והסופר והבלוגר טים אורבן טוען שהוא שחזר את אותו ניסוי עם תוצאות דומות בעזרת הגוגל נסט שלו.

"גוגל הוא המקום אליו אנחנו הולכים כדי לענות על השאלות שלנו, ואנחנו רוצים להרגיש שאפשר לסמוך על התשובות האלה ועל החברה שמאחוריהן. רגעים כאלה שוברים את האמון בחברה וגורמים לך להרגיש שערך הליבה של גוגל - האמת - מהול בפוליטיקה", אמר אורבן לניו יורק פוסט לאחר שפרסם בטוויטר את תוצאות המבחן שלו. הסרטון, שפורסם מחדש על ידי מספר חשבונות X בולטים, צבר מיליוני צפיות בפלטפורמה - שם ממצאיו זכו לביקורת רחבה.

חלק מהגולשים שניסו את אותו ניסוי טענו שהעוזרת האישית שלהם (שנמצאת בכל סמארטפון גם) לא מגיבה כך וכן מכירה בהיסטוריה, אבל אפפל הסביר שמדובר בתשובות שמתקבלות רק ברמקולים של הנסט, מה שגורם לנו לחשוב שהגישה של הרמקול לנתונים מהרשת שונה מזו של העוזרת האישית שנמצאת בסמארטפון שלנו. ייתכן גם כי ישנו ניסוי של בינה מלאכותית ברמקולים של גוגל נסט שגורם למערכת "להשתגע", אבל בכל מקרה, אנחנו מאמינים שגוגל תתקן מהר את הבעיה.

דובר של גוגל מסר לניו יורק פוסט כי התשובות "לא היו מכוונות" וטען שהמקרים האלה קורים רק ב"במקרים מסוימים ובמכשירים מסוימים". בנוסף, הוא טוען ש"נקטנו פעולה מיידית כדי לתקן את הבאג הזה".