התייעץ עם ChatGPT - ולקה במחלה פסיכיאטרית נדירה
מאמר שפורסם בכתב עת אמריקאי תיאר מקרה של גבר בן 60 שניסה להפחית את כמות המלח באוכל שלו. הצ'אט המליץ לו להחליף לסם הרגעה שהיה בו שימוש בתחילת המאה הקודמת. בעקבות ה"המלצה", המטופל פינה את עצמו לבית חולים וטען ששכנו עלול להרעיל אותו. לאחר מכן ניסה לברוח, ורק אחרי שהתייצב הרופאים גילו את סיפור הרקע המוזר

גבר לקה במחלה נדירה, לאחר שהתייעץ עם ChatGPT על איך להפסיק לצרוך מלח בארוחות שלו. על פי כתב העת הרפואי האמריקאי, Annals of Internal Medicine, בן ה-60 פיתח "ברומיזם", המכונה גם רעילות ברומיד. המצב נגרם בעקבות נטילה של סם הרגעה שהיה בשימוש בתחילת המאה הקודמת.
המאמר תיאר את הברומיזם כתסמונת שהייתה "מוכרת היטב" בתחילת המאה ה-20, ונחשבה כגורם לכמעט אחד מכל 10 אשפוזים פסיכיאטריים באותה תקופה. בשלב מסוים הגיע המטופל לבית החולים, וטען ששכנו עלול להרעיל אותו. הוא סיפר שיש לו מספר הגבלות תזונתיות, ולמרות שהיה צמא, חשש לשתות את המים שהציעו לו כי חשב שהורעלו.
הוא ניסה להימלט מבית החולים תוך 24 שעות מרגע קבלתו, ולאחר שאושפז, טופל במחלקה הפסיכיאטרית. לאחר שהמטופל התייצב, הוא דיווח על מספר תסמינים נוספים שהצביעו על ברומיזם, כגון אקנה בפנים, תחושת צמא מוגזמת ונדודי שינה.

המטופל סיפר לרופאים כי אחרי שקרא על ההשפעות השליליות של נתרן כלורי, או מלח שולחן, הוא התייעץ עם ה-AI הפופולרי כיצד להסיר כלוריד מהתזונה שלו. הוא החל ליטול נתרן ברומיד במשך תקופה של שלושה חודשים, למרות שקרא כי התחליף נועד למטרות של ניקיון.
מחברי המאמר אמרו כי לא יכלו לראות את השיחה של המטופל עם הצ'אט, ולכן לא יכלו לקבוע בוודאות שזו הסיבה למצב הנדיר. עם זאת, כשהם התייעצו בעצמם עם ה-AI באותה שאלה, התגובה כללה גם ברומיד, אבל לא הייתה אזהרה מתופעות הלוואי.
OpenAI, חברת האם של ChatGPT, הודיעה על שדרוג של הצ'אט בשבוע שעבר לגרסת GPT-5, וטענה שיסייע במיוחד בתחום הבריאות, ויהיה אקטיבי ב"סימון חששות פוטנציאליים". מנגד, בחברה הדגישו כי הצ'אטבוט אינו תחליף לעזרה מקצועית. ההנחיות של הצ'אטבוט קובעות גם כי הוא אינו "מיועד לשימוש באבחון או טיפול בכל מצב בריאותי". המאמר בכתב העת, שפורסם בשבוע שעבר לפני השקת GPT-5, קבע כי נראה כי המטופל השתמש בגרסה מוקדמת יותר של הצ'אט כמו GPT-4 או GPT-3.5.