בינה וקוץ בה: עד כמה באמת אפשר להתבסס רק על AI?
מסמך משפטי שהוכן ב-AI והפנה לפסקי דין לא קיימים הוא דוגמה אחת מני רבות לנזק ששימוש לא מבוקר בבינה מלאכותית עשוי לעשות. איך בכל זאת להפיק ממנה את המיטב ולמה חשוב לשמור על שיקול אנושי?

בינה מלאכותית הפכה בשנתיים האחרונות למעין 'עובד מן המניין' כמעט בכל חברה או ארגון. כלי AI הם כבר חלק אינטגרלי מסביבת עבודה ואם לשפוט לפי התחזיות, זו רק ההתחלה. גם אם הבינה המלאכותית לא תתפוס לעת עתה את מקום העבודה שלנו, הרי שהצורך בשליטה וניהול של כלים כאלו צפוי להיות קריטי במיוחד בכל תחום.
אלא שבאותה נשימה, ועם כל הכבוד, נראה שלעולם לא נוכל להתבסס אך ורק על בינה מלאכותית. לאחרונה פורסם מקרה שבו עורך דין הפנה לפסקי דין שלא היו קיימים במסמך שהגיש לבית המשפט - וזאת לאחר שעשה שימוש בכלי AI. מקרה זה מעלה את השאלה לגבי היכולת להתבסס על בינה מלאכותית, איך לשלב אותה באופן נכון ואיך לאזן את זה יחד עם חשיבה וראייה אנושית.
"אנחנו בעיצומה של מהפכה טכנולוגית משמעותית", אומר ד"ר ועו"ד אייל ברוק, שותף וראש תחום בינה מלאכותית במשרד עוה"ד ש.הורוביץ. "בינה מלאכותית יכולה להוות כלי רב-עוצמה עבור עורכי דין ואנשי מקצוע משפטיים, ולייעל במובנים רבים את עבודת ערוך הדין, אבל השימוש בה דורש זהירות ובחינה מקצועית. תחומים שמתאימים לשימוש בבינה מלאכותית כוללים כיום בעיקר מחקר ואיסוף מידע, שבהם יכולה הטכנולוגיה לסייע, לקרוא הררים של חומר ולשלוף את המסמך הרלבנטי, סיכום מקורות משפטיים ופסיקה, חיפוש תקדימים ומקרי מבחן רלוונטיים, תרגום מסמכים משפטיים ומיפוי חקיקה. כמו כן בינה מלאכותית יעילה במשימות כתיבה ועריכה כמו הכנת טיוטות ראשוניות, תוכנות לניתוח חוזים וסעיפים בעייתיים, תוך הצעת תיקונים בהתאם ועוד. יש לציין שבינה מלאכותית כבר שימשה בעולם לצורך גם ניסוח חקיקה".

לדבריו, "קיימים תחומים שבהם יש להימנע משימוש בבינה מלאכותית, או לפחות לגשת אליהם בזהירות יתרה. אסור להסתמך על בינה מלאכותית למתן ייעוץ משפטי ישיר, כולל חוות דעת משפטיות סופיות, החלטות אסטרטגיות בתיקים או פרשנות חוקים מורכבת ללא בדיקה אנושית מעמיקה. העיקרון המנחה צריך להיות שבינה מלאכותית תשמש כעוזר מקצועי ולא כמחליף לשיקול דעתו המקצועי של עורך הדין, כאשר כל תוצר של AI צריך לעבור בדיקה ואימות אנושיים.
גם ה-AI סובל מהזיות
ברוק אף מעלה מספר סיכון משמעותי של 'הזיות AI' שחשוב במיוחד בהקשר המשפטי. הבינה המלאכותית עלולה לייצר תופעה הידועה כ'הזיות', כלומר תגובות הנחזות להיות סמכותיות וענייניות, אבל שאינן נכונות עובדתית ולעיתים מומצאות לחלוטין. לאחרונה ניתנו מספר הולך וגדל של פסקי דין, בעולם וגם בישראל, בהם התייחס בית המשפט לכך שעורכי דין הגישו לבית המשפט הפניות לפסקי דין אשר הומצאו לחלוטין על ידי הבינה המלאכותית, ועורכי הדין חויבו בהוצאות. סיכונים נוספים שיש לשימוש ב-AI כוללים פגיעה בפרטיות ובסודיות עורך דין-לקוח, הטיה ואפליה במערכות בינה מלאכותית, בעיות אחריות מקצועית וביטוח, כאשר בהקשר זה יש לציין כי לשכת עורכי הדין פרסמה בשנת 2024 גילוי דעת מקדים לעניין שימוש בבינה מלאכותית בעבודת עורכי דין. כמו כן, קיימים סיכונים רגולטוריים ואתיים עקב התפתחות מתמדת ומהירה של החוקים והתקנות בתחום".
"הזיות AI" רחוקות מלהיות נחלתו הבלעדית של עולם המשפט. יוסי הרשקו, סמנכ"ל הטכנולוגיות הגלובלי של קבוצת המידע העסקי הבינלאומית דן אנד ברדסטריט מציין כי "מערכות AI גנרטיביות אינן 'מחפשות את האמת' במובן האנושי. במקום זאת, הן מחפשות את התשובה ההגיונית ביותר מבחינה סטטיסטית, בהתבסס על דפוסים שנלמדו ממיליארדי מסמכים וטקסטים. המשמעות היא פשוטה: אם המודל 'חושב' שנתון מסוים נשמע סביר על בסיס נתוני האימון שלו, הוא ייצר אותו בביטחון מלא, גם אם הוא אינו קיים במציאות. חשוב להגיד שהמודל לא תוכנן לרמות או להמציא. למעשה, אין לו מנגנון שיפוט פנימי המזהיר אותו כי התוכן שיצר אינו נכון, השילוב הזה של ניסוח מבריק עם ביטחון עצמי מופרז ללא אחריות, ללא הצלבה וללא מקורות הוא שהופך את התופעה למסוכנת כל כך".

ד"ר טל אספיר, דירקטור ומנהל מעבדת ה-AI בפירמת BDO, אף מוסיף כי לצד "ההזיות" של כלי הבינה המלאכותית מתווספים "גם סיכונים של פגיעה בפרטיות ואבטחת מידע, שעשויה לכלול חשיפת מידע אישי, סודי או שימוש לא מבוקר ודליפת נתונים. לצד אלו עשויים להיות מקרים של הטיות ואפליה בהחלטות, באופן שלא מייצג את המציאות בפועל או להדרה של קבוצות אוכלוסייה מסוימות. מלבד אלו, עשויים לצוץ מקרים של העדר שקיפות (Black Box) שהוא חוסר יכולת להסביר את החלטות הבינה המלאכותית, ציות חלקי או העדר ציות לרגולציה שעשוי להוביל גם לנזק משפטי, וכן תלות במערכת ושחיקה של חשיבה ביקורתית".
"ה-AI נותן מענה, האדם מבין את המשמעות"
כדי לתת מענה לבעיות הללו ולהשתמש ב-AI באופן שמעניק ערך, מסביר הרשקו כי יש לאמץ קו מנחה שלפיו ה-AI יודע לתת מענה או לייצר תוכן - אבל רק האדם מבין את המשמעות. "הקשר העסקי, סדרי עדיפויות, שיקולים אסטרטגיים - כל אלה לא יכולים לבוא מהמודל. הם חייבים לבוא מהאדם שמוביל את התהליך. אני לא רואה בבינה מלאכותית איום, אלא מנגנון שמחזיר לנו תמונה כנה של תהליכים, הרגלים ונקודות תורפה בארגון. כאשר מיישמים אותה בצורה אחראית, עם הגדרות ברורות, בקרות מקצועיות, והבנה עמוקה של המגבלות היא יכולה לשרת מטרות עסקיות ואסטרטגיות באופן יעיל ובטוח".
לדבריו, כדי להתמודד עם האתגר הזה מומלץ להטמיע מדיניות שימוש ברורה הקובעת הנחיות לגבי סוג המידע שניתן להזין למערכות, להגביל שימוש במידע רגיש ולדרוש אימות נתונים. כמו כן חשוב להכשיר את העובדים לזהות מגבלות AI, לרבות 'ההזיות' ואף להבהיר כי המשתמש הוא האחראי הבלעדי לתוכן הנוצר. כמו כן חשוב להציב גבולות ואף לקבוע מנגנוני בקרה אנושיים וקפדנים שיאשרו כל תוצר ותוצר. ככלל, גם מומלץ להשתמש במודלים מאובטחים ופרטיים ככל האפשר. מודלים כאלו מאפשרים לרוב שליטה גבוהה יותר על הנתונים, התבססות על פתרונות מקומיים (on-premise) או מודלים פרטיים מספקים אמינים שאינם שומרים או משתמשים במידע שהוזן לאימון המודל"

אספיר מציין כי "הניסיון הישראלי מלמד על מספר עקרונות מנחים להטמעה מוצלחת של בינה מלאכותית הכולל תיאום ציפיות והגדרה ברורה של מטרות ההטמעה, זיהוי בעיה עסקית ברורה ומדידה בטרם בחירת הפתרון הטכנולוגי עצמו וכן הכנה של הארגון לשינוי שיהיה כרוך בתהליך ההטמעה. צעד זה כולל את זמינות ואיכות הנתונים לביצוע הפרויקט, בשלות ומוכנות הארגון מבחינה טכנולוגית אך גם מבחינת רמת המודעות של ההנהלה והעובדים".
ברוק אף ממליץ להתחיל בפרויקטים ופיילוטים קטנים ופחות קריטיים, כאשר בהקשר של משרדי עורכי דין המשימה עשויה להיות הכנת טיוטות למכתבים שגרתיים. "חשוב להתייחס לכך כאל טיוטה ראשונית, אך האחריות לאמת את המקורות והטענות מוטלת על עורך הדין. חשוב ליצור פרוטוקולים ברורים להסרת מידע מזהה לפני השימוש ב-AI, ולוודא מהימנות תוצרים תוך השוואה עם מקורות עצמאיים. קיימים ומפותחים כיום כלים יעודיים אשר נועדו לשימוש בעולם המשפט, והללו אמורים לתת מענה מותאם לביצוע מחקר משפטי. מומלץ גם להגדיר תהליכי עדכון תקופתיים של המדיניות, בהתאם להתפתחויות הטכנולוגיות והרגולטוריות. הגישה הנכונה היא של זהירות מושכלת - ניצול היתרונות של הטכנולוגיה תוך שמירה קפדנית על הסטנדרטים המקצועיים והאתיים, כאשר המטרה היא לשפר את היעילות ואיכות השירות ולא להחליף את שיקול הדעת המקצועי והאנושי".