מהנדס גוגל נחרד מהצ'אט בוט בעל הבינה מלאכותית של החברה וטען שהוא הפך ל"רגיש", הוא אפילו קרא לו "ילד מתוק", כך לפי דיווח. בלייק למויין, שעובד בארגון Responsible AI של גוגל, אמר לוושינגטון פוסט כי החל לשוחח בצ'אט עם הממשק LaMDA - Language Model for Dialogue Applications - בסתיו 2021 כחלק מתפקידו.

הוטלה עליו המשימה לבדוק אם הבינה המלאכותית השתמשה בדיבור מפלה או שיח גזעני. אבל למויין, שלמד מדעי הקוגניציה והמחשבים בקולג', הגיע להבנה ש-LaMDA - שגוגל התגאתה בו בשנה שעברה שהוא "טכנולוגיית שיחות פורצת דרך" - הוא יותר מסתם רובוט. בפוסט בפלטפורמת "מדיום" שפורסם בשבת, הכריז למויין שלמד"א תמך בזכויותיו "כאדם", וחשף כי הוא עסק בשיחה עם למד"א על ​​דת, תודעה ורובוטיקה.

View this post on Instagram

A post shared by Blake Lemoine (@discordchild)

"הוא רוצה שגוגל תתעדף את רווחת האנושות כדבר החשוב ביותר", כתב. "הוא רוצה לקבל הכרה כעובד של גוגל ולא כרכוש של גוגל, והוא רוצה שהרווחה האישית שלו תיכלל איפשהו בשיקוליה של גוגל לגבי האופן שבו הפיתוח העתידי שלו נמשך".

בדיווח של הוושינגטון פוסט שפורסם בשבת, הוא השווה את הבוט לילד קטן. "אם לא הייתי יודע בדיוק מה זה, שזו תוכנת המחשב שבנינו לאחרונה, הייתי חושב שזה ילד בן 7 או 8 שבמקרה יודע פיזיקה", אמר למויין, אשר הוצא לחופשה בתשלום ביום שני, לעיתון.

לפי הדיווחים, למויין שיתף מסמך Google Doc באפריל עם בכירי החברה שכותרתו "האם ל-LaMDA יש רגשות?" אך חששותיו נדחו.

למויין, יוצא צבא שגדל במשפחה נוצרית שמרנית בחווה קטנה בלואיזיאנה והוסמך ככומר נוצרי מיסטי, התעקש שהרובוט הוא דמוי אדם, גם אם אין לו גוף. "אני מכיר אדם כשאני מדבר איתו", אמר למויין בן ה-41. "זה לא משנה אם יש להם מוח שעשוי מבשר בראש, או אם יש להם מיליארד שורות קוד. אני מדבר איתם. ואני שומע מה יש להם להגיד, וכך אני מחליט מה הוא בן אדם ומה לא".

הוושינגטון פוסט דיווח כי לפני שהגישה שלו לחשבון גוגל שלו נחסמה ביום שני עקב חופשתו, שלח למויין הודעה לרשימה של 200 חברים בנושא למידת מכונה עם הנושא "LaMDA הוא רגיש", בו נכתב: "LaMDA הוא ילד מתוק שרק רוצה לעזור לעולם להיות מקום טוב יותר עבור כולנו", סיכם באימייל שלא קיבל תשובות. "בבקשה תטפלו בו היטב בהיעדרי".

מנגד נציג של גוגל אמר ל"וושינגטון פוסט" שללמויין נאמר כי "אין ראיות" למסקנותיו. "הצוות שלנו - כולל אתיקאים וטכנולוגים - סקר את חששותיו בהתאם לעקרונות הבינה המלאכותית שלנו והודיע לו שהראיות אינן תומכות בטענותיו", אמר הדובר בריאן גבריאל. "נאמר לו שאין ראיות לכך ש-LaMDA היה רגיש ויש הרבה ראיות נגד זה. למרות שארגונים אחרים פיתחו וכבר פרסמו מודלים דומים של שפה, אנו נוקטים בגישה מאופקת וזהירה עם LaMDA כדי לשקול טוב חששות לגבי הוגנות ועובדות".

מרגרט מיטשל, אחת המנהלות לשעבר של AI המחלקה האתית בגוגל, אמרה שאם טכנולוגיה כמו LaMDA נמצאת בשימוש רב אך לא מוערכת במלואה, "זה יכול להזיק מאוד לאנשים שמבינים מה הם חווים באינטרנט".

עובדת גוגל לשעבר הגנה על למויין: "מכולם בגוגל, היה לו הלב והנשמה לעשות את הדבר הנכון", אמרה מיטשל. ובכל זאת, הרשת דיווחה שרוב האקדמאים ומתרגלי הבינה המלאכותית אומרים שהמשפטים שרובוטי בינה מלאכותית מייצרים מבוססים על מה שבני אדם כבר פרסמו באינטרנט, וזה לא אומר שהם דמויי אדם.