mako
פרסומת

שכר שנתי של 555,000 דולר: OpenAI מגייסת עובד למשרה "מלחיצה"

סם אלטמן מחפש "ראש תחום מוכנות" חדש, שתפקידו לפקח על היכולות של הבינה המלאכותית והנזקים שהיא עלולה לגרום לאנושות. בפוסט שפרסם ב-X הוא הזהיר מראש: "זו תהיה עבודה מלחיצה ותקפצו למים העמוקים מיד". ברקע: תביעות והאשמות ש-OpenAI מתמודדת איתם על נזקים לבריאות הנפשית ועידוד התאבדויות של צעירים

דנה גוטרזון
פורסם: | עודכן:
סם אלטמן בראיון בפדרל ריזרב, 22.7.2025
סם אלטמן בראיון בפדרל ריזרב, 22.7.2025 | צילום: Andrew Harnik/Getty Images
הקישור הועתק

ככל שעובר הזמן, הסכנות של הבינה המלאכותית נהיות יותר מוחשיות - החל מעידוד התאבדויות, תקיפות סייבר ועד אובדן מקומות עבודה.

כעת, חברת OpenAI, שהביאה לעולם את ChatGPT, פתחה בחיפושים אחר "ראש תחום מוכנות" (Head of Preparedness) חדש, תפקיד שמגיע עם משכורת של 555,000 דולר לשנה בתוספת הון מניות, כפי שפורסם במודעת הדרושים שהעלתה.

בפוסט שפרסם ב-X (לשעבר טוויטר) בסוף השבוע, המנכ"ל סם אלטמן הודה כי מודלי AI "מתחילים להציג אתגרים ממשיים", כולל "ההשפעה הפוטנציאלית של מודלים על בריאות הנפש", וכן מודלים שהם "כל כך טובים באבטחת מחשבים שהם מתחילים למצוא נקודות תורפה קריטיות". בסוף ציין כי מדובר ב"עבודה מלחיצה", וכי המועמד הנבחר "יקפוץ למים העמוקים פחות או יותר מיד".

במילים פשוטות, OpenAI מחפשת מישהו שהעבודה העיקרית שלו היא לחשוב על כל הדרכים שבהן הבינה המלאכותית עלולה להשתבש באופן מחריד – ולמנוע את האסון הבא. תיאור המשרה הרשמי דורש "להרחיב, לחזק ולהנחות" את תוכנית המוכנות הקיימת, לפקח על "יכולות קצה שיוצרות סיכונים חדשים לנזק חמור", ולהכין את המודלים לקראת שחרור של יכולות מסוכנות, כולל בתחום הביולוגי והסייבר.

בעוד OpenAI מצהירה כי התפקיד נועד לגרום למודלים "להתנהג כמצופה בעולם האמיתי", המציאות של שנת 2025 מוכיחה שהאתגר רחוק מפתרון. המודלים של החברה המשיכו "להזות" ולהמציא מידע שהתגלגל למסמכים משפטיים, גררו מאות תלונות לנציבות הסחר הפדרלית (FTC), ואף יצרו תמונות דיפ-פייק פורנוגרפיות של נשים. מודל הווידיאו סורה נאלץ לחסום את האפשרות ליצור סרטונים של דמויות היסטוריות כמו מרטין לותר קינג, לאחר שמשתמשים ניצלו זאת לרעה.

אך הבעיות חמורות יותר מפגיעה בתדמית. החברה מתמודדת עם השלכות טרגיות, כמו במקרה של תביעת משפחתו של הנער אדם ריין, שנטען כי התאבד בעקבות עידוד וייעוץ שקיבל מהצ'אטבוט. בעוד עורכי הדין של OpenAI טענו בבית המשפט כי מדובר ב"הפרת כללים" מצד המשתמשים, אלטמן עצמו הודה בפוסט כי המודלים עלולים להשפיע לרעה על בריאות הנפש של המשתמשים. "אנו נכנסים לעולם שבו אנו זקוקים להבנה מורכבת יותר של האופן שבו יכולות אלו עלולות להיות מנוצלות לרעה", כתב אלטמן.

פרסומת

הגיוס הנוכחי מתרחש על רקע משבר פנימי בחברה. בחודשים האחרונים נרשמה עזיבה המונית של בכירי מחלקת הבטיחות בחברה, שהתריעו כי OpenAI זנחה את משימתה המקורית – להגן על האנושות – לטובת השקת מוצרים "נוצצים".

יאן לייקה, מי שניהל את צוות Superalignment (שפורק מאז), התפטר במאי 2024 וכתב בטוויטר כי "תרבות הבטיחות נדחקה למושב האחורי". עובד בכיר אחר, דניאל קוקוטג'לו, התפטר משום שאיבד אמון ביכולתה של החברה "לנהוג באחריות" ככל שתתקרב לפיתוח בינה מלאכותית כללית (AGI). למעשה, צוות הבטיחות המקורי, שמנה כ-30 חוקרים, הצטמצם בחצי עקב גל העזיבות.

האתגר הגדול ביותר של ראש התחום החדש יהיה לנווט בין דרישות הבטיחות לבין הלחץ העסקי האדיר. בראיון שנערך בחודש שעבר, רמז אלטמן כי הוא מתכוון להגדיל את הכנסות החברה מכ-13 מיליארד דולר כיום ל-100 מיליארד דולר בתוך פחות משנתיים. בנוסף, החברה עובדת בימים אלו על הוספת פרסומות לתוך הצ'אטבוט, בשאיפה להפוך לרווחית.