mako
פרסומת

הישראלים שעובדים עם OpenAI מגייסים 80 מיליון - גם מאסף רפפורט

חברת Irregular הכריזה על גיוס גדול בהובלת קרנות הון סיכון ואנג'לים, בהם אסף רפפורט, מייסד וויז. החברה מחזיקה במעבדת האבטחה היחידה בעולם לבינה מלאכותית מתקדמת ונותנת שירות לכמה משחקניות ה-AI הגדולות בעולם, כמו OpenAI, גוגל ו-Anthropic, כדי להגן על המודלים החשובים מול איומי אבטחה שונים

דיגיטל
mako
פורסם: | עודכן:
דן להב ועומר נבו - Irregular
מימין דן להב, משמאל עומר נבו | צילום: בן חכים
הקישור הועתק

חברת אירגולר (Irregular), מעבדת האבטחה היחידה בעולם לבינה מלאכותית מתקדמת (Frontier AI), הודיעה היום על גיוס של 80 מיליון דולר בהובלת קרנות Sequoia Capital ו-Redpoint Ventures ובהשתתפות ו-Swish Ventures, וכן אנג'לים בולטים בהם מנכ"ל Wiz, אסף רפפורט ומנכ"ל Eon, אופיר ארליך. 

החברה (לשעבר Pattern Labs), שכבר מרוויחה מיליונים, עובדת עם מעבדות ה-AI המובילות בעולם, כמו OpenAI ו-Anthropic כדי להעריך כיצד מודלים מהדור הבא מתנהגים מול איומים בעולם האמיתי, החל מהתחמקות מתוכנות אנטי-וירוס ועד פעולות התקפיות אוטונומיות, ולפתח "את ההגנות הנדרשות שיבטיחו הטמעה בטוחה בקנה מידה רחב" על פי החברה. בנוסף לחברות פרטיות, בין לקוחותיה ישנם גם גופי ממשל כמו ממשלת אנגליה. 

אירגולר, שבה עובדים 25 עובדים, הוקמה על ידי דן להב, המנכ"ל, ועומר נבו, סמנכ"ל הטכנולוגיות, שניהם בעלי ניסיון בתחום ה-AI והסייבר. להב עבד בעבר בסטארטאפ שנרכש על-ידי גוגל. בהמשך, שימש כחוקר בינה מלאכותית ב-IBM. נבו הוא יזם סדרתי ששימש כמנהל פיתוח ב-Google Research, שם הוביל את המאמץ לפיתוח מודלי בינה מלאכותית לזיהוי וחיזוי שריפות יער, והנהיג צוותים שפיתחו מוצרים מבוססי מחקר בקנה מידה רחב. השניים הכירו במסגרת פעילותם בתחום הדיבייט, עומר הוא אלוף העולם בדיבייט ודן מחזיק בדירוג האישי הגבוה בהיסטוריה באליפות העולם. 

בחברה מסבירים שלצד ההתקדמות של טכנולוגיות AI, גם הסיכונים והאתגרים מתגברים ומודלי ה-AI מתעצמים בקצב מסחרר. ככל שהמודלים נטמעים עמוק יותר בליבת קבלת ההחלטות בתחומים קריטיים, המשמעות היא שכל תקלה או פגיעות יכולה להתרחב במהירות ממשבר נקודתי לקריסה מערכתית. בהודעה לעיתונות נכתב: "ככל שהזמן עובר, מערכות ה-AI רק יתחזקו, יתפתחו, ויהפכו לבלתי נפרדות מתפקוד הארגון - ולכן גם רמת הסיכון תלך ותחריף. ללא כלים ייעודיים לבחינת עמידותם של המודלים תחת איומים ולהבנת טווח הסיכונים, ארגונים עלולים למצוא עצמם מנהלים מערכות חיוניות בעיוורון כמעט מוחלט".

איך היא עושה את זה?

אירגולר מפעילה סימולציות מבוקרות שמעמידות מודלי AI מתקדמים במצבי אמת מדומים, ובוחנת את פוטנציאל השימוש לרעה שלהם להתקפות סייבר והחוסן שלהם כאשר הם מותקפים. החברה מעניקה ליוצרי ומפעילי מודלי AI דרך בטוחה לגלות בשלב מוקדם של הפיתוח נקודות תורפה ולבנות את מנגנוני ההגנה הנדרשים.

הבדיקות כוללות ניתוח התנהגויות כמו עקיפת מערכות אנטי-וירוס, מיפוי והבנה של סביבת המערכת, ושימוש לרעה ביכולותיה. בעזרת הסקה חסויה (confidential inference) ואימות מבוסס חומרה, החברה מאפשרת למעבדות ה-AI המובילות בעולם להעריך סיכוני סייבר ולהבטיח הטמעה בטוחה, עוד לפני השקה רחבה לציבור והטמעה בארגונים.

פרסומת

הערכותיה של אירגולר מצוטטות בכרטיסי המערכת (System Cards) של OpenAI עבור המודלים GPT-4 ,o3 ,o4 mini ו-GPT-5 וגם בממשלת אנגליה ו-Anthropic משתמשות במסגרת SOLVE (מערכת הדירוג שפיתחה החברה), כאשר Anthropic מיישמת אותה כדי לבדוק סיכוני סייבר במודל Claude 4; וחוקרי Google DeepMind השתמשו בפלטפורמת ההערכה של אירגולר וציינו את שיתוף הפעולה עם החברה במאמר על הערכת יכולות ההתקפה המתהוות של בינה מלאכותית. בנוסף, החברה הייתה שותפה לכתיבת מאמר משותף עם Anthropic שסקר גישה לשימוש בטכנולוגיות הסקה חסויה כדי לשפר את אבטחת משקולות המודל ופרטיות נתוני המשתמשים, וכן מאמר משותף עם מכון RAND בנושא גניבת מודלים ושימוש לרעה, שסייע לעצב את הדיונים במדיניות האיחוד האירופי לגבי אבטחת AI.

דן להב, מנכ"ל ומייסד-שותף של אירגולר מסר: "מעבדות כמו Anthropic ,OpenAI ו-Google DeepMind פועלות להפוך את הבינה המלאכותית לעוצמתית ובטוחה, ואירגולר היא הכוח המשלים שעובד איתן כדי להבטיח את אבטחתה וחסינותה מפני איומים. החברה לקחה על עצמה משימה שאפתנית - להבטיח שהעתיד של הבינה המלאכותית יהיה בטוח לא פחות משהוא עוצמתי. הגיוס הנוכחי ממקם את אירגולר בעמדה חזקה לקראת השלב הבא בהתפתחותה, ויאפשר לנו להאיץ את פיתוח הכלים והמנגנונים הנדרשים כדי לוודא שהבינה המלאכותית המתקדמת ביותר תוכל להיפרס בעולם האמיתי באופן מבוקר, אמין ובטוח".

שון מגוויר, שותף בקרן Sequoia: “הבעיות הקריטיות ביותר באבטחת AI הן אלו שעדיין לא נחשפנו אליהן. מה שבולט בצוות של אירגולר הוא היכולת שלהם לחשוב קדימה, הם עובדים עם המודלים המתקדמים ביותר שנבנים היום, ומניחים את התשתית להפיכת הבינה המלאכותית לבטוחה לשימוש בשנים הקרובות".