"בינה מלאכותית הייתה מעורבת בקביעת הקצבה שלך": המהפכה בשירותי הממשלה
מסמך הנחיות שמופץ ליחידות הממשלה מפרט לראשונה כללי שימוש במערכות בינה מלאכותית בקבלת החלטות שמשפיעות על חיי האזרחים • המסמך שגובש במערך הדיגיטל מגבש כללים אחידים, מחלק אחריות לקבלת ההחלטות ומציב סטנדרטים חדשים של שקיפות • הבעיה: הוא לא מחייב אלא מהווה המלצה בלבד


הבינה המלאכותית חודרת למערכות המדינה: מסמך רשמי שמפרסם היום (ראשון) מערך הדיגיטל הלאומי מגדיר לראשונה כיצד אמורים משרדי הממשלה להשתמש בכלי בינה מלאכותית (AI) - כולל במקרים שבהם המחשב מסייע לקבל החלטות שמשפיעות ישירות על חיי האזרח. כך אנחנו מפרסמים ב-N12. מדובר בצעד ראשון מסוגו בישראל, על רקע הטמעה גוברת של כלי AI בשירות הציבורי, החל ממענה לפניות באתרי ממשלה, ועד למערכות שמשפיעות על קבלת החלטות בתחומים כמו מקרקעין ורווחה.
עד כה, כל משרד ממשלתי פעל לפי שיקול דעתו בהטמעת שימוש בכלי AI. לא היו כללים אחידים שקבעו אילו מערכות AI מותר להפעיל, מי אחראי אם הן טועות והאם בכלל חייבים לספר לאזרח שמחשב היה מעורב בהחלטה שנפלה עליו. המסמך החדש מיועד להסדיר את המציאות הזו ולהציע כללים ברורים שעובדי המדינה יוכלו לעבוד לפיהם.
מירב פרץ-בילינסקי, סמנכ"לית דאטה ו-AI במערך הדיגיטל הלאומי, מציינת כי למעשה הבעיה בהפעלת כלי AI בשירותי המדינה הייתה בכלל הפוכה. לדבריה, פקידים רבים נמנעים מלהשתמש בכלל בכלי AI מתוך חשש לטעות. "מתייחסים לזה בחרדת קודש, לפעמים ברמה שמשתקת אותם", היא אומרת.
המסמך החדש נועד לתת מענה לשתי הבעיות בבת אחת: לעודד שימוש, אבל בתוך מסגרת ברורה. תוכן המסמך מבוסס על טיוטה שפורסמה להערות הציבור ביוני אשתקד, ולאחר עיבודים מופץ היום לראשונה בגרסתו הסופית לגופי הממשלה.
"אי אפשר למנוע 100% מהבעיות"
החששות שהמסמך מנסה להתמודד איתם הם מוחשיים. בינה מלאכותית עלולה לייצר מידע שגוי שנראה אמין לחלוטין, להפלות אוכלוסיות מסוימות מבלי שאיש שם לב, ולחשוף מידע אישי שהאזרח מסר לרשות ממשלתית אחת לגורמים אחרים. סדריק צבע, מוביל מדיניות AI במערך, מדגיש שגם בלי כשל דרמטי, מספיקות תקלות קטנות כדי לשחוק את אמון הציבור.
כדוגמה לסיכונים כאלו מציין צבע מקרה שאירע בקוריאה הדרומית, שבו המדינה נאלצה להקפיא פרויקט של ספרי לימוד מבוסס AI בהיקף של קרוב למיליארד דולר, בשל בעיות שלא טופלו מראש. צבע הוסיף כי גם במקרי קצה פשוטים יחסית של הפעלת צ'אטבוט שיחה באתר ממשלתי "אי אפשר למנוע 100% מהבעיות", אך ציין כי לפני הפצה של כלים כאלו במערך מריצים אלפי סימולציות כדי לצמצם תקלות.

לפי מערך הדיגיטל, יש גם דוגמאות שימוש מקומיות שכבר מראות את הפוטנציאל. כך, רשם העמותות כבר משתמש ב-AI כדי לסרוק את המידע על כל העמותות המנוהלות בישראל ולהציף לבדיקה אנושית את מי שמסומנות כחשודות - משימה שבלי הטכנולוגיה הייתה בלתי אפשרית. גם ברשות מקרקעי ישראל הטמיעו שימוש בכלי AI כדי לקצר ולפשט את הליך השמאות של קרקעות.
מה המסמך קובע בפועל?
- כל מערכת AI ממשלתית תסווג לפי רמת סיכון ותוטל עליה רמת הפיקוח הנדרשת.
- מערכות שמשפיעות ישירות על האזרח - כמו אישור קצבאות או היתרים - יחייבו אישור מנכ"ל, פיקוח שוטף ובדיקה אנושית בסוף כל שרשרת החלטה.
- כל מערכות ה-AI הממשלתיות יפורסמו ברשימה ציבורית, ופקידים לא יוכלו להזין מידע אישי של אזרחים לכלי AI חיצוניים כמו ChatGPT.

פרץ-בילינסקי מוסיפה שמערכות AI שכבר פועלות היום יצטרכו להיבחן מחדש לפי הכללים החדשים, כך שיעמדו במבחני השקיפות ויכולות הערעור המוגדרים בהם.
"לא רוצים לסמן שיש פה איזו רגולציה מתהווה"
כאן נכנסת השאלה שהמסמך החדש של מערך הדיגיטל מותיר פתוחה: כל ההנחיות נותרות בשלב זה ברמת המלצה בלבד. פרץ-בילינסקי מסבירה שזו בחירה מכוונת. לדבריה, רגולציה מחייבת עלולה להרתיע את יחידות המדינה מלאמץ AI כלל, ובכך דווקא להגביר את הסיכון. "אנחנו לא רוצים לסמן למשק שיש פה איזו רגולציה שהולכת להתהוות", אמרה.
גם בנושא השקיפות כלפי האזרח, צבע מודה שכרגע אין סטנדרט מחייב, רק המלצה ליידע את האזרח כש-AI מעורב בהחלטות שנוגעות אליו. פרץ-בילינסקי הוסיפה שייתכן שבעתיד הלא רחוק המדריך יהפוך למחייב - אבל בינתיים, כל משרד יחליט בעצמו עד כמה הוא מיישם אותו.
עד אז, אם AI ממשלתי יחליט משהו שמשפיע עליכם - סיכוי לא מבוטל שלא תדעו על זה.
