חשש ממתקפות סייבר: משרד הבריאות מורה לקופות ולבתי החולים לצמצם שימוש בכלי AI
הנחיית חירום חדשה שהופצה השבוע לגורמים במערכת הבריאות מורה על צמצום מיידי ומשמעותי של השימוש בכלי בינה מלאכותית כמו ChatGPT וקלוד • הסיבה: עלייה חדה באיומים על רקע המלחמה עם איראן וחשש שגורמים עוינים ינצלו את הטכנולוגיה כדי לחדור למערכות רפואיות רגישות • פרסום ראשון


משרד הבריאות הורה השבוע לארגוני הבריאות בישראל להטיל הגבלות מחמירות על השימוש בכלי בינה מלאכותית גנרטיבית, כך עולה ממסמך רשמי שנשלח על ידי ראובן אליהו, הממונה אבטחת מידע וסייבר במשרד. ההנחיה, שהוגדרה כ"הנחיית חירום", נכנסה לתוקף באופן מיידי ב-3 במרץ 2026.
על פי הערכת מצב עדכנית שנערכה במערכת הבריאות, זוהתה עלייה משמעותית בסיכוני אבטחת מידע הנובעים משימוש בכלי בינה מלאכותית על רקע המלחמה עם איראן. במשרד הבריאות מזהירים כי כלי AI הפכו "וקטור תקיפה מרכזי" המנוצל על ידי גורמים עוינים לביצוע התקפות סייבר מורכבות, הנדסה חברתית ודלף מידע רגיש.
אחד האיומים המרכזיים שצוינו הוא ניסיונות של תוקפים "לפתות" עובדים להוריד כלי עזר מבוססי AI, כגון תוספי דפדפן או אפליקציות, המכילים קוד זדוני שנועד לגנוב הרשאות גישה או להשתלט על תחנות עבודה בתוך רשת הארגון. בנוסף, קיים חשש שתוקפים ישתמשו בבינה מלאכותית כדי לאתר במהירות פרצות אבטחה בקוד ובמערכות הארגוניות.

איסור מוחלט על הזנת מידע רפואי
הנחיות המשרד ברורות וחד-משמעיות: חל איסור מוחלט על הזנת נתונים ארגוניים, מידע רפואי על מטופלים, פרטי כוח אדם או קוד תוכנה לממשקי AI ציבוריים בגרסאותיהם הפתוחות, דוגמת ChatGPT, קלוד וג'ימיני. המטרה היא להגן על שלמות הנתונים ועל רציפות התפקוד של מערכת הבריאות כולה.
עם זאת, במשרד הבריאות מבהירים כי לא מדובר בניתוק מוחלט מהטכנולוגיה. ההגבלות אינן חלות על כלים מאובטחים שאושרו רשמית במסגרת פרויקט הענן הממשלתי "נימבוס", או על פלטפורמות AI ארגוניות שמיועדות לעבודה מאובטחת בכפוף לנהלים הפנימיים.
ההנחיה הנוכחית תעמוד בעינה עד להערכת מצב מחודשת המתוכננת ליום ראשון הקרוב, אז יוחלט האם לעדכן את המגבלות בהתאם להתפתחויות. עובדי מערכת הבריאות הונחו לדווח באופן מיידי למרכז הסייבר של המשרד על כל פעילות חשודה או פנייה חריגה המקושרת לשימוש בכלי AI.
