בעוד המירוץ להתעצמות הבינה המלאכותית נראה כבלתי ניתן לעצירה, באירופה עשו היום ניסיון משמעותי לרסן את ה-AI. היום (ד') אושרה בפרלמנט האירופי חקיקת רגולציית ה-AI, שהכנתה נמשכה קרוב לשנה.

החקיקה נועדה להבטיח שהחברות מפתחות בינה מלאכותית אחראית, שאינה פוגעת בבני אדם ובזכויותיהם, ולמנוע פיתוח של יכולות AI שמסכנות את האנושות, כפי שמנכ"ל OpenAI, סם אלטמן, חזר והתריע בשבועות האחרונים.

על פי החקיקה החדשה, כל מערכת שכוללת בינה מלאכותית תסווג לפי מידת הסכנה שגלומה בה: החל מסיכון מזערי ועד סיכון בלתי מתקבל על הדעת (unacceptable risk).

במקרים שבהם יש סיכון גבוה יותר, החברות יהיו חייבות בשקיפות גבוהה ואף בבחינה של הקוד של המערכת. חברה שתפר את החוק תסתכן בקנס בגובה של עד 30 מיליון אירו או 6% מההכנסות השנתיות של החברה. כעת צריכות כל 27 מדינות האיחוד לחוקק חוקים מקומיים שייתנו תוקף לרגולציה החדשה, תהליך שצפוי להימשך מספר שנים.

"סיכון בלתי מתקבל על הדעת"

המחוקק האירופי מוטרד בין השאר מפגיעה בזכויות יסודיות של האזרחים. לכן, מתוקף החקיקה החדשה החדש ייאסרו לחלוטין מערכות שמעניקות "ניקוד חברתי" על התנהגות נאותה כמו זו שפועלת בסין, וייאסרו מערכות שמנצלות ילדים או מבוגרים, שמשפיעות בצורה נסתרת או גלויה על ההתנהגות.

כמו כן ייאסרו מערכות אכיפה שצוברות נתונים כדי להעריך מי עלול לבצע פשע. בנוסף ייאסר שימוש במערכות לזיהוי פנים או זיהוי ביומטרי במרחב הציבורי, בדומה למערכת שמשטרת ישראל מבקשת להפעיל בישראל.

בהתאם לדרישה של מפלגות הימין בפרלמנט האירופי, נוספה ברגע האחרון הסתייגות לפיה ניתן יהיה להשתמש בזיהוי פנים במקרים יוצאי דופן כמו ילדים נעדרים, זיהוי פושעים שמעורבים במעשי פשיעה קשים וטרור.

איך להתייחס ל-ChatGPT?

אחד הנושאים שהסעיר את הפרלמנט האירופי היה איך להתייחס לצ'אטבוטים מבוססי בינה מלאכותית כמו ChatGPT. ההחלטה הנוכחית היא להגדיר אותם כמערכות עם סיכון גבוה, מה שיחייב פיקוח מחמיר. כזכור אלטמן הביע הסתייגות מהכוונה הזו עד כדי איום כי לא יאפשר ל-ChatGPT לפעול באירופה. ייתכן שהאזהרות של אלטמן AI שלא ניתן יהיה לרסן אותה האיצו את ההחלטה האירופאית לאמץ גישה מחמירה.

מערכות AI בתחומי התעסוקה או החינוך, שעלולה להיות להן השפעה משמעותית על חיי בני האדם, יידרשו לפיקוח על דרך פעולתן והשימוש בתובנות שלהן. מערכות AI בתחומים כמו גיימינג או סינון ספאם ייהנו מגישה מקלה – רגולציה עצמית או היעדר רגולציה כלל. מנגד, חברות בתחומי ה-AI היצירתית יידרשו לציין את מידת הפגיעה האפשרית בזכויות יוצרים במהלך אימון ה-AI.

ארגוני זכויות אדם דרשו התערבות מחמירה ופיקוח מקרוב על כל חשש לפעילות פוגענית. לוביסטים וחברות טכנולוגיה התריעו שהחמרה יתרה תבריח את חברות ה-AI האירופאיות והזרות מאירופה

הוויכוח על מידת ההתערבות הרצויה בפיתוח AI נמשך לכל אורך דיוני הפרלמנט האירופי. מצד אחד ארגוני זכויות אדם דרשו התערבות מחמירה ופיקוח מקרוב על כל חשש לפעילות פוגענית. מהצד האחר לוביסטים וחברות טכנולוגיה התריעו שהחמרה יתרה תבריח את חברות ה-AI האירופאיות והזרות מאירופה. כעת אומרים גורמים עסקיים, כי ייתכן וחברות הטכנולוגיה יעדיפו פיצול המוצרים לגירסאות שתואמות לאירופה וגירסאות לשאר העולם.