זהירות: חמישה דברים שאסור לכם בחיים לשתף עם ה-AI
התחושה שכלי בינה מלאכותית הם מרחב אישי היא מטעה: כל פיסת מידע המופנית לצ'אט עלולה להישמר, לעבור ניתוח ולשמש לאימון מודלים עתידיים. עודד ואנונו, ראש תחום מחקר חולשות מוצר בצ'ק פוינט, מסביר איזה מידע אסור לשתף עם הצ'אטבוטים ולמה, ושרון קספר, מנהל תחום מודעות סייבר בבנק הפועלים, מזהיר מפני בעיות האבטחה שעלולות להתגלות באפליקציות שנבנות עם קלוד קוד

כולנו התרגלנו כבר להתייעץ עם הבינה המלאכותית כמעט בכל צעד שאנחנו עושים - אם זה עצות לגידול הילדים, ניסוח מכתב תלונה לחברה, בקשת מתכונים על סמך המצרכים במקרר או פענוח בדיקות רפואיות. אבל המומחים מזהירים: כמו שאתם נזהרים כשאתם מעלים תמונה שלכם לרשתות החברתיות כי אין לדעת לאן היא תתגלגל, כך גם עם הצ'אבוטים.
"התחושה שכלי בינה מלאכותית הם 'מרחב פרטי' מטעה", מסביר ל-mako עודד ואנונו, ראש תחום מחקר חולשות מוצר בצ'ק פוינט. "בפועל, כל מידע שמוזן אליהם עלול להישמר, להיות מנותח ואף לשמש להפקת תשובות למשתמשים אחרים. לכן חשוב להבין לא רק מה נוח לשתף – אלא מה אסור".
ואנונו מפרט חמישה סוגי מידע מרכזיים שיש להימנע מהזנתם למערכות AI:
1. מידע מזהה אישי (PII)
פרטים כמו שם מלא, כתובת מגורים, מספר טלפון או מזהים ממשלתיים הם אבני יסוד לזיהוי דיגיטלי. "כאשר מידע כזה מוזן למערכות, הוא עשוי להשתלב בהקשרים רחבים יותר", אומר ואנונו. "תוקפים יכולים לנצל פיסות מידע כאלה כדי להרכיב פרופיל מלא, לבצע התחזות או ליזום מתקפות פישינג ממוקדות. השילוב בין פרטים תמימים לכאורה יוצר סיכון משמעותי".
2. מידע ארגוני רגיש או קנייני
השימוש ב-AI לניסוח מיילים, כתיבת קוד או ניתוח מסמכים מוביל עובדים לשתף מצגות, חוזים ואסטרטגיה עסקית. ואנונו מזהיר: "ברגע שמידע כזה מוזן לכלי חיצוני, הארגון מאבד שליטה עליו. מעבר לפגיעה תחרותית, קיים סיכון משפטי ורגולטורי, במיוחד בארגונים המחויבים לסודיות מחמירה".
3. מידע רפואי אישי
אבחנות, תוצאות בדיקות או היסטוריה רפואית הם נתונים שלא ניתן "להחזיר" לאחר שנחשפו. "מעבר לפגיעה בפרטיות, יש סיכון לשימוש עתידי במידע בהקשרים של ביטוח, תעסוקה או פרופילינג", מציין ואנונו.
4. סיסמאות ומפתחות הצפנה (API Keys)
מפתחים נוטים להדביק קטעי קוד לצורך פתרון בעיות, אך בתוכם עלולים להסתתר מפתחות גישה. "זו אחת הדליפות המסוכנות ביותר, שכן היא מאפשרת גישה ישירה למערכות ענן או מאגרי מידע. חשיפה חד-פעמית מספיקה לגרימת נזק כבד".
5. תמונות והקלטות אודיו
קובצי מדיה כוללים מטא-דאטה כמו מיקום וסוג מכשיר. "שיתוף תמונות, במיוחד של קטינים, עלול לחשוף זהויות ודפוסי התנהגות. בעידן הדיפ-פייק, כל חומר כזה יכול לשמש בסיס למניפולציה או התחזות", אומר ואנונו.

מדוע המידע נשמר ואיך הוא עלול להיחשף?
ואנונו מסביר כי רוב המערכות פועלות במודל של איסוף נתונים לשיפור המודל: השיחות נשמרות לניתוח ביצועים, אימון גרסאות עתידיות, ולעתים אף נבדקות על ידי צוותים אנושיים לצורכי בקרת איכות.
החשיפה אינה תמיד ישירה. היא יכולה להתרחש דרך שילוב מידע בין שאילתות שונות שיוצר הקשרים חדשים, שימוש עקיף במידע בתשובות למשתמשים אחרים, או פרצות אבטחה במאגרי המידע של ספקיות ה-AI. "הסיכון המרכזי הוא איבוד שליטה", מדגיש ואנונו. "הנזק לעתים מצטבר ומתגלה רק כשמאוחר מדי".
מה עושים אם המידע כבר שותף?
ואנונו ממליץ על שלוש פעולות מיידיות:
-
מחיקת ההיסטוריה: צעד ראשון והכרחי, אם כי הוא לא תמיד מבטיח הסרה מוחלטת משרתי החברה.
-
ביטול הרשאת אימון: ברוב הפלטפורמות (ChatGPT, Claude, Gemini) ניתן לבטל בהגדרות את השימוש בשיחות לצורכי אימון המודל.
-
החלפה מיידית של אישורי גישה: "אם הוזנו סיסמאות או מפתחות API, חובה לבצע רוטציה ולשנות אותם מיד. זהו קו ההגנה החשוב ביותר".
המקרה של סוכני AI: זהירות עם Claude Code
בכל הנוגע לסוכני AI אוטונומיים המריצים פקודות ישירות על המחשב, כשהמדובר בהם קלוד קוד של אנת'רופיק, הסיכונים עולים מדרגה. שרון קספר, מנהל מודעות הסייבר בבנק הפועלים, מסביר כי הבעיה טמונה בתכנון המערכת: "היא מייצרת קוד פונקציונלי שמבצע את המשימה, אך מנגנוני אבטחה אינם מוגדרים כברירת מחדל, אלא דורשים בקשה מפורשת של המשתמש".
במילים אחרות, קוד שנוצר על ידי AI עובד, אבל לא מאובטח כברירת מחדל. משתמשים נוטים להעתיק אותו בלי בדיקה, כולל מפתחות גישה וחיבורים לא מאובטחים למסדי נתונים.
התרחישים האפשריים:
-
נזק כלכלי: האקרים הסורקים את הרשת מאתרים מפתחות API שדלפו ומשתמשים בהם על חשבון בעל המפתח, מה שעלול להוביל להפסדים של עשרות אלפי דולרים בשעות.
-
פגיעה בפרטיות: מסדי נתונים שנותרו ללא הגדרות גישה הופכים זמינים לכל גורם חיצוני.
-
נזק מוניטיני ורגולטורי: חשיפת מידע אישי עלולה לגרור התערבות של הרשות להגנת הפרטיות וחובת דיווח בין-לאומית.
איך אפשר להיזהר?
לדברי קספר, ההגנה על המידע ועל הקוד נשענת על שכבות שעובדות יחד, ולא על פתרון בודד. השכבה הראשונה היא הפרדה מלאה בין פרטי הגישה לבין הקוד עצמו.
השכבה השנייה היא עיקרון ההרשאה המינימלית: יש להגביל את מפתחות הגישה עצמם — לקבוע תקרת תקציב לשירותים בתשלום, ולהגדיר שניתן להשתמש בהם רק מכתובות IP מאושרות. כך, גם במקרה של דליפה, הנזק הפוטנציאלי מצומצם משמעותית.
השכבה השלישית היא להפוך את האבטחה לחלק מההנחיה ל-AI מההתחלה ולא רק בסוף. כשמבקשים מקלוד לבנות פיצ'ר חדש, רצוי לבקש ממנו במפורש לעבוד לפי עקרונות אבטחה מקובלים, ולהסביר את ההחלטות שעשה — כך שהמשתמש מבין מה עומד מאחורי הקוד ולא מאמץ אותו באופן עיוור. בסיום התהליך, מומלץ לבקש מקלוד לבצע סקירת אבטחה ייעודית לאיתור חולשות, חשיפת סודות ובעיות בהרשאות.

האם לא לעבוד במחשב האישי/ארגוני?
סוכני AI אוטונומיים כמו קלוד קוד, שונים מצ'אטבוט רגיל בכך שהם מריצים פקודות וקוראים קבצים בעצמם. המשמעות היא שעבודה עם כלים כאלה על מחשב אישי עלולה להוביל לחשיפת מידע פרטי השמור בקבצים שבמחשב, או להרצת קוד זדוני בעת גישה לפרויקטים מקוד פתוח חיצוני. לכן רצוי למנוע מקלוד גישה מלאה למערכת ההפעלה או לדפדפן האישי שלכם.
לדברי קספר, פתרון יעיל הוא עבודה בסביבת Sandbox — סביבת עבודה מבודדת באמצעות מערכת הפעלה וירטואלית או Docker. בתוך הסביבה הזו ניתן לאפשר לקלוד גישה לדפדפן ולחשבון מייל ייעודי שנוצר במיוחד עבור פרויקטים ולמידה, וכך לגדר אותו לאזור ברמת סיכון נמוכה ולמנוע גישה למידע האישי האמיתי שלכם.
כאשר מדובר במחשב בסביבה ארגונית, הסיכונים מתעצמים — מכיוון שלא מדובר רק במידע אישי, אלא בקניין רוחני, במידע של עובדים ולקוחות, ובגישה לרשתות פנימיות של הארגון. הסיכון הגדול ביותר הוא זליגת קוד או סודות מסחריים.