N12
פרסומת

הסכנה בשיפוט על בסיס בינה מלאכותית: צעד נוסף לעבר אבדן אמון הציבור במערכת בתי המשפט

האם שופט יכול להכריע בתיק שהוא עצמו לא מכיר את העובדות שבו מכלי ראשון אלא רק דרך סיכום של כלי בינה מלאכותית?

עו"ד שמוליק קסוטו
ועו"ד שחר קפושה
Duns 100במימון Duns 100
פורסם:
עו"ד שמוליק קסוטו, שותף מייסד, ועו"ד שחר קפושה, שותף, משרד קסוטו
צילום: יח"צ
הקישור הועתק

לפי פרסומים מהחודשים האחרונים, מערכת בתי המשפט מתכוונת להטמיע כלי בינה מלאכותית חדש עבור השופטים והרשמים. מדובר על פי הפרסומים במערכת בסגנון ChatGPT שתסייע בעבודת השפיטה. הכוונה המוצהרת בהטמעת מערכת זו היא, בין היתר, לייעל את העבודה ולהפחית עומס על מערכת המשפט. אבל שאלה עקרונית חייבת להישאל: האם שופט יכול להכריע בתיק שהוא עצמו לא מכיר את העובדות שבו מכלי ראשון אלא רק דרך סיכום של כלי בינה מלאכותית?

על ההתמודדות עם כלי בינה מלאכותית במערכת המשפט מעבר לים 

באיחוד האירופי כבר הובהר במסגרת ההסדרה הכוללת של שימוש בכלי בינה מלאכותית הידועה כ-AI Act, שכלי בינה מלאכותית המסייעים בהליכי משפט יסווגו כמערכות עתירות סיכון (High Risk). ולכן כל שימוש בכלי AI לצורך ניתוח עובדות, פרשנות משפטית או סיוע בהכרעה מחייב עמידה בדרישות ציות ורגולציה מוגברות. ובכלל זה, בין היתר: שקיפות לגבי אופן פעולת הכלי והנתונים עליהם הוא התבסס, חובת פיקוח אנושי משמעותי כדי למנוע הסתמכות עיוורת, ותיעוד מלא שמאפשר ביקורת חיצונית. 

הרציונל להסדר זה שבאיחוד האירופאי ברור - אין מקום לכך שהחלטה שיפוטית תתבסס על ״קופסה שחורה״ טכנולוגית. הסדרה זו נועדה להבטיח שהשופט לא יסתפק בקריאת סיכום אוטומטי, אלא ישתמש בכלי שניתן לו רק כתמיכה תוך שהוא שומר על שליטה מלאה בהליך, וכמובן שהאחריות הסופית על ההכרעה נשארת בידיו, מבלי שהוא מעביר אפילו קמצוץ מאחריות זו למכונה מתוחכמת ככל שתהא. 

בנוסף, יש חובה לבצע הערכת השפעה על זכויות יסוד לפני פריסת מערכת כזו, כדי להבטיח שהשימוש לא יפגע בזכות להליך הוגן. 

הנה, באירופה ההבנה היא פשוטה: כלי AI יכולים לייעל ולסייע - אך אסור שיחליפו את היכרות השופט עם העובדות או יכתיבו את מסקנותיו, ולא ניתן לאמץ אותם ללא שקיפות וללא הסדרה מחייבת, מדויקת ומקיפה הקובעת את המותר והאסור בכל הנוגע לשימוש בכלים שכאלה ואת אופן השימוש בהם. 

ההתלהבות בישראל מהכלי החדש - והחשש ממנו

כאמור, לפי הפרסומים האחרונים עולה כי בעתיד הלא רחוק גם השופטים בישראל יתחילו להיעזר בכלי בינה מלאכותית שיסכם, ימיין ויארגן עבורם את התיקים המשפטיים שבהם הם דנים, כולל כתבי הטענות והראיות בתיק. הפיילוט הראשוני כבר זוכה לשבחים - ״חוסך זמן״, ״מסדר את החומר״, ״מאפשר ניתוח יסודי יותר״. אבל לצד ההתלהבות מסתתרת סכנה עמוקה שנדמה שמקבלי ההחלטות במערכת המשפט טרם נתנו עליה את הדעת. בפרט, העובדה שהשופט עלול להסתמך באופן עיוור כמעט על הסיכום שמייצרת המכונה במקום להכיר בעצמו את החומר העובדתי. בכך עלול להיווצר מצב שבו ההכרעה נכתבת לא מתוך היכרות ישירה עם הראיות והטענות, אלא מתוך גרסה מתווכת ומצונזרת של האלגוריתם שהשופט אפילו לא יודע מה הדגשים שקבע מפתח האלגוריתם.

בנוסף לחששות שעלו בנוגע לשימוש בכלי בינה מלאכותית במלאכת השיפוט כגון בהיבטי הפרטיות והגנת מידע, וכן בהיבטים של הטייה ואפליה באלגוריתם שלא אוּמן על מאגרי מידע שמתאימים למשימה שניתנה לו, נבקש להתייחס לשני היבטים פרקטיים בשימוש בכלי שכזה של בינה מלאכותית בחיי ההליך המשפטי - בשלב ההכנה לדיון ובשלב כתיבת פסק הדין.

פרסומת

שלב ההכנה לדיון הוא קריטי. זה הזמן שבו השופט אמור לעבור על כתבי הטענות. זה השלב שבו השופט אמור לזהות את נקודות המחלוקת. זה השלב שבו השופט אמור להפעיל את ניסיונו כדי לחדד שאלות, ולהציע פתרונות מוקדמים. זה השלב שבו השופט אמור להכווין את התיק לפשרה או למסלול יעיל יותר לפתרון המחלוקת. נזכיר בהקשר זה שרק לפני ארבע שנים בוצעה רביזיה שלמה בתקנות סדר הדין האזרחי המהוות את הבסיס לניהול ההליך המשפטי, שהעניקו לשופטים סמכויות לקבלת החלטות בשלב המקדמי כדי לייעל את הטיפול בתיקים - כלומר בידי השופט כבר מצויים כלים שנועדו לסייע בייעול ניהול ההליך.

אבל אם בשלב המקדמי השופט יסתמך על סיכום אוטומטי של טענות הצדדים שנעשה על ידי אלגוריתם, הוא מאבד את היתרון הייחודי שלו: היכולת להבין היכן שורש הסכסוך והניואנסים המבדילים סכסוך זה מסכסוכים אחרים גם אם דומים במהותם; את היכולת להבין איפה יש סיכוי להסכמה ואיפה לא; ואיך נכון לנהל את ההליך מבחינה פרוצדורלית.

במקומו, האלגוריתם עלול להיות זה שיקבע את סדר היום הדיוני במקום השופט, והסמכויות הרחבות שהתקנות החדשות העניקו לבית המשפט יופעלו חלילה באופן שרירותי ובלתי מבוקר על פי התפיסה של מי שתכנת את האלגוריתם ומה שאותו מפתח חשב לנכון, על הסכנות הטמונות בכך להטיות ואפליה, ותוך אבדן הייחודיות המקצועית של השופט שרק בזכותה הוא אוחז בתפקיד.

באשר לשלב כתיבת פסק הדין, כאן חשוב להכיר בכך שבמציאות הישראלית שבה המערכת עמוסה בתיקים ו"כולם תובעים את כולם", חלק גדול מהתיקים מסתיימים בסופו של יום בפשרה עוד לפני שמיעת ראיות מלאה. כפועל יוצא ממציאות זו, הניסיון מלמד, שלעתים השופט לא נכנס לעומק החומר העובדתי בתיק במלואו עד כשהוא נדרש לנסח את פסק דין באותם תיקים שכן מגיעים להכרעה לאחר שמיעת הראיות.

פרסומת

אולם, אם גם בשלב הזה יסתמך השופט על חומר המוגש לו בצורה מסוננת ומעובדת על ידי מערכת בינה מלאכותית, עולה חשש ממשי שהשופט לעולם לא יכיר באמת את העובדות של התיק. כך שבסופו של דבר ההכרעה המשפטית כולה תהיה מבוססת על גרסת הבינה המלאכותית לעובדות בתיק ולא על התרשמות בלתי אמצעית של השופט, מהעדים, מהראיות ומכתבי הטענות של הצדדים. מדובר בסכנה ממשית ובחשש לאבדן מוחלט של התפקיד הרם שלשמו מונו השופטים מלכתחילה.

יש לזכור כי תפקידו של שופט אינו טכני. הוא אינו ״מפעיל חוקים״ כאוטומט. קודם כל עליו לברור את העובדות על פי התרשמותו האישית והישירה: מי דובר אמת, מה הראיות המרכזיות, מה השתמע מהעדות. על השופט להכיר ולהבין מי הם העומדים בפניו, ולהבין את ההבדלים ביכולת הביטוי של העדים ומשמעותה, בשים לב למאפיינים אנושיים כגון שפת גוף, אינטונציה, ואופן הצגת הדברים. כך למשל בעל השכלה גבוהה עשוי להיות בעל יכולת ביטוי בעל פה טובה יותר מאדם בעל השכלה תיכונית, ולכן מערכת בינה מלאכותית שמשימתה היא לסכם פרוטוקולים של דיונים, עשויה לתתן לעדותו קדימות ועדיפות. אלא שיכולת ביטוי בעל פה גבוהה לא בהכרח מעידה על מהימנותו של הדובר. סמכותו של השופט להכריע בתיק ולקבוע מי דובר אמת, נגזרת מכך שהוא נחשף ישירות באופן בלתי אמצעי לחומר הראיות, שומע בעצמו את הצדדים ואת העדים, ורואה בעצמו את התמונה המלאה בתיק.

אולם, אם חלק מהותי זה מההיכרות של חומר הראיות והעדויות נמסר לידי השופט בצורה מתווכת על ידי מערכת בינה מלאכותית - גם אם היא מתקדמת ביותר - היסוד שעליו נשענת ההכרעה השיפוטית כולה מתרוקן מתוכן. כך ההכרעה השיפוטית עשויה להפוך לעניין טכני שבו קיימת עדיפות מובנית לנסיבות שלא אמורה להיות להן השפעה, למשל לעדות של אנשים משכבות מסוימות בחברה או לראיות שנבנו ועוצבו בצורה שמערכת בינה מלאכותית תיתן להן משקל עודף.

 אמון הציבור במערכת המשפט

מתדיין שמגיע לבית המשפט מצפה שהשופט עצמו יקרא את טענותיו, יכיר את המסמכים, ויתרשם באופן אישי מהעובדות, זה הבסיס לאמון הציבור במערכת המשפט. הידיעה שהשופט קיבל ״תקציר״ אוטומטי מבינה מלאכותית עלולה לערער את תחושת הצדק הבסיסית, ובצדק.

פרסומת

בינה מלאכותית יכולה להיות כלי עזר חשוב. היא יכולה לסייע בארגון החומר, להאיר נקודות רלוונטיות, ואולי אף לשפר את איכות הפסיקה אם היא תאפשר לשופטים להתפנות לחשיבה מעמיקה יותר. אבל יש כאן קו דק: מכיוון שהמערכת מכוונת כיום את השופטים ליעילות, הדבר עשוי לבוא (בעידן הבינה המלאכותית) על חשבון ההיכרות האישית עם העובדות והטענות. ואם כך אז אין המדובר בצעד קדימה אלא בצעד אחורה, שעלול להביא דווקא לאבדן של אמון הציבור במערכת בתי המשפט.

מערכת המשפט לא יכולה להרשות לעצמה לוותר על העיקרון הבסיסי לפיו שופט חייב להכיר את העובדות במלואן בעצמו. הכרעה שיפוטית היא פעולה אנושית מובהקת, שמבוססת על היכרות בלתי אמצעית עם הצדדים, הטענות והראיות. לכן שימוש בבינה מלאכותית בהליך השפיטה באופן פזיז ובלתי מבוקר עשוי להביא לחיסכון קצר טווח שיעלה באובדן המקצועיות, וחמור מכך באובדן האמון של הציבור במערכת בתי המשפט.

הצעד הראשון וההכרחי כדי לא להגיע למקום הזה, הוא בקביעת כללים מחייבים, ברורים ושקופים (להבדיל ממסמכי מדיניות או עקרונות כלליים שכבר צצו במחוזותינו), בנוגע להטמעה ולשימוש בכלי בינה מלאכותית מערכת המשפט כגון זה שהמערכת מתכוונת לאמץ. כל זאת עוד לפני הטמעתם, וכמובן במהלך השימוש בהם, לרבות חשיפת הכלים הללו לציבור שיוכל לבחון אותם, גילוי נאות בפסק הדין על השימוש בהם, התאמת זכויות דיוניות למערכת שמבססת קבלת החלטות על כלי בינה מלאכותית (כגון זכות לערעור כאשר קיימת טעות עובדתית בהכרעה או בסיכום שביצעה הבינה המלאכותית), ועוד.  

מאת עו"ד שמוליק קסוטו ועו"ד שחר קפושה ממשרד קסוטו ושות'

***
כתבה שיווקית בחסות משרד עו"ד קסוטו ושות'. הכתבה נערכה על ידי מערכת Duns 100