mako
פרסומת

בלי סודות: סם אלטמן מזהיר את מי שמשתמש ב-ChatGPT בתור פסיכולוג

לפי מנכ"ל OpenAI, סם אלטמן, אין כיום חיסיון משפטי על שיחות אישיות עם צ'אטבוטים, למרות שמיליונים משתמשים בהם כתחליף למטפל, מאמן אישי או יועץ זוגי. המשמעות היא ש-OpenAI מחויבת למסור תוכן שיחות רגישות במקרה של תביעה, כפי שהיא נדרשת לעשות היום בתביעה של הניו יורק טיימס נגדה, ולפגוע בכך בפרטיות המשתמשים

דנה גוטרזון
פורסם: | עודכן:
סם אלטמן, תיאו וון
סם אלטמן, תיאו וון | צילום: youtube
הקישור הועתק

כדאי שמשתמשי ChatGPT יחשבו פעמיים לפני שהם פונים לאפליקציית הבינה המלאכותית לצורך טיפול רגשי או תמיכה נפשית, השימוש הכי נפוץ בצ'אטבוטים בעולם. לפי מנכ"ל OpenAI, סם אלטמן, תעשיית הבינה המלאכותית עדיין לא פיצחה כיצד להגן על פרטיות המשתמשים בשיחות רגישות כאלה, מכיוון שלא קיימת חובת סודיות רפואית בין "רופא למטופל", כשהרופא הוא בינה מלאכותית.

אלטמן אמר את הדברים בפרק האחרון של הפודקאסט של תיאו וון, This Past Weekend w/ Theo Von, שזכה כבר לחצי מיליון צפיות.

בתגובה לשאלה על יחסי הגומלין בין הבינה המלאכותית למערכת המשפט של ימינו, אמר אלטמן שאחת הבעיות בהיעדר מסגרת משפטית או רגולטורית לבינה מלאכותית היא שאין הגנה משפטית על סודיות השיחות של המשתמשים.

"אנשים מדברים עם ChatGPT על הדברים הכי אישיים בחיים שלהם", אמר אלטמן. "אנשים משתמשים בו, במיוחד צעירים, בתור מטפל או מאמן אישי; מדברים על בעיות בזוגיות ושואלים 'מה לעשות?'. וכרגע, אם אתה מדבר עם מטפל, עורך דין או רופא על הבעיות האלה, יש חסינות משפטית על הדברים שאתה אומר. יש סודיות בין רופא למטופל, סודיות משפטית, וכן הלאה. ואנחנו עדיין לא פתרנו את זה כשמדובר בשיחה עם ChatGPT".

לדבריו של אלטמן, מצב זה עלול להוות סכנה לפרטיות המשתמש במקרה של תביעה משפטית, מכיוון שכיום OpenAI מחויבת על פי חוק למסור את תוכן השיחות.

"אני חושב שזה ממש מעוות. אני חושב שצריכה להיות אותה תפיסה של פרטיות כשאתה מדבר עם בינה מלאכותית, כפי שיש כשאתה מדבר עם מטפל או כל גורם אחר, ואף אחד לא היה צריך לחשוב על זה, אפילו לפני שנה", אמר.

OpenAI מבינה כי היעדר הגנה על פרטיות עלול להוות חסם לאימוץ רחב יותר של הטכנולוגיה שלה. מעבר לכך שבמהלך אימון המערכת היא צורכת כמות אדירה של נתונים מהרשת, כיום גם מבקשים ממנה לספק מידע משיחות המשתמשים בהקשרים משפטיים. OpenAI כבר נאבקת בצו בית משפט בתביעה שלה מול הניו יורק טיימס (שתבע אותה ואת מיקרוסופט בגין שימוש בלתי מורשה בכתבות שלו כדי לאמן את מודלי ה-AI שלהן), המחייב אותה לשמור את השיחות של מאות מיליוני משתמשי ChatGPT ברחבי העולם, למעט לקוחות של ChatGPT Enterprise.

פרסומת

בהצהרה באתר שלה, OpenAI מסרה שהיא מערערת על הצו, אותו כינתה "חריגה מסמכות". לדבריה, אם בית המשפט יוכל לעקוף את מדיניות הפרטיות של החברה עצמה, הדבר עלול להוביל לדרישות נוספות למסירת מידע לצרכים משפטיים או לאכיפת חוק. כיום, חברות טכנולוגיה נקראות לעיתים קרובות להעביר מידע על משתמשים לצורכי חקירה פלילית. בשנים האחרונות גבר החשש סביב הפגיעה בפרטיות משתמשים, במיוחד כאשר חוקים חדשים בארה"ב החלו לצמצם זכויות שבעבר היו מוגנות, כמו זכותה של אישה להפלה.

כאשר בית המשפט העליון האמריקאי ביטל את פסק הדין רו נגד וייד, שהתיר הפלות, החלו משתמשות לעבור לאפליקציות פרטיות יותר למעקב אחר מחזור, או להשתמש ב-Apple Health שמצפינה את הנתונים, כדי שבחלק מהמדינות בארה"ב, שם הפלות הפכו לבלתי חוקיות או מוגבלות מאוד, לא יוכלו לעקוב אחריהן.

אלטמן גם שאל את מנחה הפודקאסט על השימוש האישי שלו ב-ChatGPT, לאחר שוון אמר שהוא לא משתמש בכלי יותר מדי בגלל חששות הקשורים לפרטיות. "אני חושב שזה הגיוני, לרצות ודאות מוחלטת בנוגע לפרטיות לפני שמשתמשים בזה הרבה, כלומר, ודאות משפטית", אמר אלטמן.