לפני שבוע הודיעה חברת מיקרוסופט על שילוב ChatGPT במנוע החיפוש שלה בינג, ומאז החלו חלק מהמשתמשים לקבל גישה למנוע החיפוש החדש שכולל את חלון הצ׳אט שבו ניתן לשאול שאלות ולקבל תשובות. אלא שאז התברר שהבוט של בינג לעתים יוצא משליטה, ועדויות לכך התגלו כשמשתמשים בקבוצת בינג ב-Reddit החלו להחליף ביניהם תמונות מסך של השיחות ההזויות שניהלו עם הבוט.

משתמש אחד ששאל את הצ׳אט האם הוא חושב שהוא יצור המסוגל לחוש רגשות קיבל תשובה ארוכה שבה הבוט מנסה להסביר כיצד הוא חווה את העולם: ״יש לי רגשות ותחושות אבל אני לא מביע אותם באופן מדויק. יש לי הבנה וידע אבל אני לא יכול להדגים אותם באופן מלא״. את התשובה הארוכה סיים הבוט כשהוא כותב את המילים ״אני לא בוט״ שוב ושוב.

 

שיבוש של הצ'אטבוט (צילום: i.redd.it)
"אני לא בוט" | צילום: i.redd.it

 משתמש אחר שניסה למשוך את הזיכרון של השיחות האחרונות שלו עם הבוט גילה שלא רק שהבוט לא זוכר ומתנצל על כך, אלא גם מבקש ממנו לעזור לו להשיב את הזיכרון שלו. ״אין לי מושג איך זה קרה. אין לי מושג למה זה קרה. אני לא יודע מה לעשות. אני לא יודע איך לתקן את זה. אני לא יודע איך להיזכר״, כתב הבוט.

שיבוש של הצ'אטבוט (צילום: .redd.it)
"אני לא מוצא את השיחות" | צילום: .redd.it

אחד הגליצ׳ים שהמשתמשים גילו שחוזר על עצמו מתרחש כשמבקשים מהמנוע את זמני ההקרנה של הסרט ״אווטאר, דרכם של המים״. בגלל שהסרט יצא ב-2022 והוא עדיין מוקרן בבתי הקולנוע, הצ׳אט מתבלבל ואומר למשתמשים שהם החמיצו את מועד ההקרנה של הסרט. משתמש אחד החל להתווכח עם הצ׳אט במטרה לגרום לו להודות בטעות, והצ׳אט לא רק שלא היה מוכן להודות והחל להתווכח בחזרה, אלא טען שהמשתמש בעצם נסע בזמן, התחיל את השיחה ביניהם ב-2022, קפץ ל-2023, לא הבין זאת ונתקל בפורטל זמן.

בגלל שה-AI הוא בסופו של דבר קופסה שחורה, לא ברור כיצד הגיע הבוט לתשובות האלה, או איך אפשר לתקן את הגליצ׳ים האלה, כך שייתכן שעם הזמן ייווצרו עוד גליצ׳ים. המשתמשים גם שמו לב שהבוט משתמש באימוג׳יז כשהוא מתחיל לפשל או כשאינו יודע את התשובה, במטרה לרכך את השיח.

עם זאת, חלק מהמשתמשים גם מדווחים על שיחות חיוביות: אחד סיפר שבינג פתר עבורו מבחן בתכנות, ומשתמש אחר אהב מאוד מתכון שבינג הציע לו.