מתוך הסרט "שליחות קטלנית" (צילום: noon)
השוואה בלתי נמנעת. שוורצנגר ב"שליחות קטלנית" | צילום: noon
"ייתכן שאנחנו עומדים בפני נקודה של פתיחת 'תיבת פנדורה' עם הטכנולוגיה שייצרנו, שאם נפספס אותה, עלולה להיות הרת אסון". משפט זה אולי נשמע כאילו יצא מתסריט מדע בדיוני של תסריטאי בעל דמיון מפותח, אבל שורות אלה לקוחות דווקא ממאמר שכתבו אחד ממייסדי סקייפ, יאן טאלין ופרופ' לפילוסופיה באוניברסיטת קמבריידג', יו פרייס. "החשש הוא שעל ידי יצירת מכונות בעלות אינטליגנציה מלאכותית אנו מסתכנים באבדן שליטה על כדור הארץ, לידי יצורים אינטליגנטים שפשוט יהיו אדישים אלינו ואל מה שאנחנו מחשיבים כבעלי ערך", כותבים השלושה במאמר ארוך ומאיים. הם דווקא לא מתכוונים להפחיד אף אחד, להיפך. הם רק רוצים לספר לקוראים על הסיבות שהניעו אותם להקים לצד האסטרונום המלכותי של בריטניה, לורד מרטין ריס, את המרכז לחקר סיכונים קיומיים באוניברסיטת קיימברידג', שעתיד להיפתח בשנה הקרובה.

"התחזיות האלה הרסניות מכדי שנתעלם מהן"

עזבו אתכם מחזיונות מטרידים של מרד רובוטים נוסח שוורצנגר, לא ממשהו כזה הם חוששים. הפחד שלהם אוניברסלי יותר, ממשי יותר, ולכן גם מטריד הרבה יותר. "למכונות אולטרה אינטליגנטיות יכולות להיות השלכות חמורות מאוד", הם מסבירים, "אין לנו סיבה לחשוב שהם יהיו עוינים, כיוון שעוינות היא רגש אנושי. הם פשוט יכולים להיות אדישים אלינו, ובמקרה כזה יהיה להם אכפת מאתנו כמו שלנו אכפת מהחרקים על השמשה הקדמית".

לרובנו נשמעים הדברים האלה כמו מדע בדיוני רחוק שאינו דורש תשומת לב, אבל יותר ויותר גורמים בעולם מתחילים לקחת את הנושאים האלה ברצינות. בנובמבר 2012 הודיעה אוניברסיטת קיימבריג' היוקרתית על פתיחתו של המרכז לחקר סיכונים קיומיים. בזאת, הצטרף הקמפוס הוותיק לשורה של מוסדות אקדמיים ברחבי העולם שכבר בחרו להקדים ולטפל באיום הטכנולוגיה על האנושות: באוקספורד כבר פועל המוסד לעתיד האנושות, ובעמק הסיליקון שבקליפורניה פעילה זו השנה השלישית אוניברסיטת הסינגולריות, ששמה לעצמה למטרה לפתח, בעזרת מיטב המוחות, פתרונות חדשניים לאתגרים הגדולים העומדים בפני העולם. האוניברסיטה, בייסודן ובממומן המשותף של נאס"א, גוגל וגופים נוספים, מציעה מסלולי לימוד ותכניות פיתוח בקשת של תחומים – מביוטכנולוגיה ומדעי החלל ועד עתידנות, משפטים ויזמות עסקית.

גם במרכז בקיימברידג' מבטיחים סגל של חוקרים מובילים מעולמות שונים. כשהם מדברים על "סיכונים קיומיים", מתכוונים מייסדי המרכז החדש בעיקר ליום בו יצליחו המחשבים להשתלט על ההתפתחות הטכנולוגית עצמה; הם חוששים מהמצאת המכונה שתתעלה על האדם ביכולת שלה לתכנת מכונות. במניפסטים שמפרסמים שלושת היזמים-שותפים פרייס, ריס וטאלין, הם לא נמנעים מטון היסטרי: "זו יכולה להיות ההמצאה האחרונה שלנו", הם כותבים. "גם אם התחזיות שגויות והסיכויים שתתגשמנה קטנים, הרי שהן קטלניות והתוצאות שלהן תהיינה הרסניות מכדי שנוכל להתעלם מהן".

גם בחודש שעבר, במהלך "כנס טכנולוגיית דמוית האדם" שהתקיים באטלנטה, ג'ורג'יה, והתמקד בעיצוב ויישום רובוטים דמויי אדם, עלו שאלות אתיות דומות. הרצאה שקיים מומחה לרובוטיקה מהמכון הטכנולוגי של ג'ורגיה, פרופ' רונלד ארקין, עסקה בשאלה: "איך לא לבנות את הטרמינייטור?". 

היום בו המחשבים יהיו חכמים מאיתנו

יאבטח היישובים? (צילום: חדשות 2)
גם בצה"ל. רובוט צה"לי | צילום: חדשות 2
התיאוריה עצמה אינה חדשה. כבר לפני שני עשורים פרסם ורנור וינג'י, מתמטיקאי וסופר מדע בדיוני, את המאמר "הסינגולריות הטכנולוגית הממשמשת ובאה", בו טבע את המושג המאיים "סינגולריות", שבמילים פשוטות מתייחס לעידן בו ישיגו המחשבים את האדם מבחינה אינטלקטואלית. מאז זוכה התיאוריה לתגובות מעורבות בחוגי המדע והפילוסופיה בעולם: חלקן מבטלות אותה בהינף יד בטענה שמדובר ב"מדע בדיוני", אך יש גם כאלה שכבר מדברים על אמצע המאה הנוכחית כמועד בו תפתח תיבת הפנדורה.

אבל בניגוד לתחומים הנדסיים מבוססים, מסביר גיא יונה, עורך אתר הרובוטיקה הישראלי, בהם הסכנות ברורות – בתחום מתפתח כמו רובוטיקה הבעיה היא שאיננו יודעים עדיין מה תהיינה הסכנות, ולכן קשה מאוד להיערך להתמודדות עמן. "בראשית ימי הרכב לא ידעו שיש צורך בחגורות בטיחות – ורק כשהמכונית הפכה למוצר צריכה המוני זוהתה הסכנה, בעקבותיה פותחה חגורת הבטיחות ובהמשך הפכה למחויבת בחוק. כיום לא תוכלי לקנות רכב ללא חגורת בטיחות, אך תוכלי גם תוכלי לקנות רובוט ללא שום אמצעי בטיחות", הוא מסביר.

אז מה באמת יכול להיות מסוכן כל כך ברובוט? בעוד אינספור תסריטי אימה צובעים את העתיד בצבעים של פיח, יריות לייזר וישויות שמתגשמות מתוך כדורי כספית, תרחישים מסוכנים בתחום יכולים להיות גם הרבה פחות פוטוגניים. העובדה שהרובוטים של מחר ישולבו יותר ויותר בסביבה אנושית, מסבירים המומחים, עשויה להעלות את החיכוך בינם לביננו ולעורר סכנות יומיומיות. אחת הדוגמאות לשילוב רובוטים שכאלה בקרבנו, הוא הרכב ללא נהג של גוגל שכבר בימים אלה נוסע לבד בכבישים של כמה מדינות בארה"ב ומעלה שאלות אתיות מורכבות: האם תבחר המכונית לסטות מהנתיב שלה כדי שלא לדרוס קשישה הצועדת על הכביש, וכתוצאה מהסטייה תפגע באוטובוס מלא בתלמידים? איך מתכנתים רובוט כך שיפעל בצורה מוסרית? לאנשי הרובוטיקה אין עדיין תשובות.

גם שימושים רובוטיים בצבא מעוררים בציבור פחדים ודילמות. למומחים ברור שבצבאות העתיד תהיה נוכחות גוברת של מכונות אינטליגנטיות שיהפכו את שדה הקרב למתוחכם יותר ויוכלו למנוע את כניסתם של חיילים אליו. בארצות הברית הכריזו כי עד 2025 שליש מהמערכות הקרקעיות של הצבא תהיינה רובוטיות, ועד שנת 2030 מתכננים לשלב בחיל האוויר האמריקני רובוטים דמויי-ציפור, שיעופפו באופן עצמאי למחצה ויצאו למשימות ארוכות מעבר לים. משרד ההגנה האמריקאי מודע לסיכונים, והוא מתעתד לכונן מערכת להבטחת התנהגות אתית ברובוטים בשדות קרב אוטונומיים. איך היא תבנה ואילו כללים היא תכלול? מוקדם לומר.

"בשדה הקרב העתידי הרובוטים יחליפו את החיילים", קובע ד"ר יהודה אלמליח, ראש  החוג למדעי המחשב במכללה למנהל ומנכ"ל חברת הרובוטיקיה קוגניטיב. "היום רוב הרובוטים בצבא נשלטים מרחוק, והם טיפשים לגמרי. המזל"ט טס ומתביית על מטרה באופן אוטונומי, אבל אני עדיין רוצה שעל הכפתור האדום ילחץ האדם. עם השנים אנחנו מתקדמים לאינטליגנציה גבוה יותר, לומדים את תהליכי הסקת המסקנות של האדם ומטמיעים אותם לתוך הרובוט, ובעוד שלושים שנה הוא כבר יירה באופן עצמאי".

ד"ר אלמליח, שבעברו הצבאי שירות ביחידה צה"לית מיוחדת, לא מבוהל מהתרחיש הזה. "גם היום כשכוח מתקדם, לפעמים, בשטח אויב, הוא מקבל הוראה שכל אדם שאינו מזוהה כחלק מהכוח – יש לירות בו. משימה כזו יכול לבצע גם רובוט. לפני שתאושר מערכת כזו, תיבדק היטב מערכת קבלת ההחלטות של הרובוט, ונצטרך לאשר שהוא מבין את הסיטואציה".  

מה עושים היום כדי להבטיח את המחר?

אילו כלים מעשיים המבטיחים שהרובוטים של העתיד יטיבו איתנו יש לנו כבר היום? הגורמים השונים מציעים מספר פתרונות פרקטיים. האג'נדה של המכון לסינגולריות למשל, תומכת בשאיפה ליצירתה של בינה מלאכותית ידידותית (FAI), כזו שתהיה לה יותר השפעה טובה מרעה על האנושות. לוק מולהאוזר, המנהל בפועל של המכון, חושב שהדרך להבטיח את העתיד היא על ידי שינוי סדר העדיפויות והעדפת מחקר בטיחות בבינה המלאכותית על פני מחקר יכולות ופיתוח טכנולוגיות בבינה המלאכותית.

לא רק במערב עוסקים בתרחישים המדוברים. בקוריאה הדרומית לא מסתפקים בכותרות מלאות פאתוס כמו של האנגלים, ופונים לתכל'ס. כבר ב-2007 החל משרד המסחר, התעשיה והאנרגיה המקומי לקדם שם קוד אתי לרובוטים, שקבע סטנדרטים מוסריים לתכנות ולשימוש בהם.

המתכנת יאן טאלין, ממקימי סקייפ, מתייחס גם הוא לרעיון החקיקה, ובהרצאה פומבית שלו אומר כי לדעתו הדרך להבטיח את עתיד האנושות היא בהגבלת האינטליגנציה המלאכותית לתחומים צרים, כך שהיא תחסר את היכולת להחליף את בני האדם בפיתוח של טכנולוגיות. איך עושים את זה? לדעתו, על ידי הקמת ואכיפת "פרוטוקול בטיחות מעשית" למפתחי בינה מלאכותית.

למרות שהיא נשמעת כמו עניין מהפכני ועתידני, חקיקה רובוטית אינה נושא חדש. סופר המדע הבדיוני אייזיק אסימוב ניסח בסיפור קצר לפני כיובל את שלושת חוקי הרובוטים, המצוטטים עד היום: רובוט לא יפגע בבן אדם, יציית לפקודותיו של אדם ויגן על קיומו. אלא שהחוקים שהמציא, טוענים המומחים, רחוקים מלהיות ישימים בתכנות היגיון פנימי של מכונה - ומופשטים מדי להיגיון של רובוט.

"רובוט אתי": יש דבר כזה?

רובוט במוזיאון המדע של לונדון  (צילום: אימג'בנק/GettyImages, getty images)
רובוט מוסרי? רובוט דמוי אדם בתערוכה שהוצגה במוזיאון המדע של לונדון | צילום: אימג'בנק/GettyImages, getty images
הדרך ליצור רובוטים בטיחותיים היא להבין מה הופך רובוט ל"רובוט מוסרי". זוכרים את דילמת המכונית, שצריכה לבחור בין פגיעה בקשישה לפגיעה באוטובוס התלמידים? מיטב הפילוסופים, המהנדסים והמתכנתים עוסקים היום בסוגיה כיצד להגדיר למכונה את הבחירה הנכונה בתוך קונפליקט אתי כדוגמת זה. פתרון אחד יכול להשתמש בכלים של הפילוסופיה הניסויית, שבוחנת מה רוב האוכלוסייה הייתה מחשיבה לנכון. אפשרות נוספת היא ליצור מצב בו הרובוט לוקח בחשבון, כביכול, את המשמעויות המשפטיות של המעשה שלו: בהינתן מידע זה, תעדיף המכונית באופן ברור לפגוע בקשישה ולא באוטובוס. תיאוריה שלישית, מנגד, קובעת כי "הדבר הנכון לעשות" נגזר מהפעולה שתסב את ההנאה המרבית והסבל המינימלי לכלל המעורבים, אבל היא מסכנת את זכויות וטובת הפרט מול סיפוק רצון והנאת הכלל. חוקרים יפניים הציעו רעיון מקורי אחר: שהרובוט יחפש ברשת תוצאות שנחשבות אתיות למקרי עבר, יבצע להן ניתוח סטטיסטי ויגבש לעצמו דרך פעולה לגבי אירוע חדש.

כל הגישות האלה מדגימות כיווני מחשבה המתאמצים לפתח את הדרך לתכנת כללים אתיים מנחים למוח של מכונה. בכל מקרה, יהיו המכונות חייבות "דין וחשבון" על הבחירות שלהן – המומחים סבורים שבכל רובוט חייבת להיות מותקנת מעין "קופסא שחורה" שתתעד את תהליך קבלת ההחלטות שלו, כך שאפשר יהיה, לאחר מעשה, להבין את הכשל – ולתקן אותו בתוכנה, למניעתו בעתיד.

"בסופו של דבר, אנחנו כותבים להם את השכל ומחליטים מה הם יעשו", מסכם ד"ר אלמליח. "נכון שאנחנו מלמדים אותם ללמוד לבד, ונכון שגם את נמשוך להם את הכבל מהחשמל, הרובוטים של העתיד ידעו להטעין את עצמם גם בלעדינו. אבל התשובה, בסופו של דבר, טמונה בנו – ובכמה אוטונומיה נאפשר להם".

גם לטעמו של פרופסור צבי שילר, יו"ר האיגוד הישראלי לרובוטיקה, הפחד הציבורי מפני השתלטות רובוטית על המציאות האנושית הוא חסר שחר. "אין מה לפחד מהם. לרובוט אין כריזמה, כך שהוא לא יכול לסחוף אחריו רובוטים אחרים. להבדיל מהאדם, שמחליט החלטות בלתי צפויות מהבטן, הרובוט צפוי ואין לו אינטואיציה. אלה הן שתי תכונות שאני לא חושב שאפשר להנחיל למכונה, אינטיליגנטית ככל שתהיה. בזה, עדיין, מותר האדם מן הרובוט".