אישה שלא הוציאה מילה מהפה במהלך 18 שנים לאחר שבץ מוחי שהפך אותה למשותקת, החזירה לעצמה את היכולת לדבר באמצעות בינה מלאכותית.

ההליך פורץ הדרך התבצע באמצעות 253 אלקטרודות, שהושתלו במוחה של אן ג'ונסון, בת 48, וחוברו למחשבים דרך חיבור יציאה קטן שהוצמד לראשה.

האלקטרודות, המכסות את אזור המוח בו מעובד הדיבור, מיירטות את אותות המוח של האישה ושולחות אותם למחשבים, אשר בתורם מייצרים אווטאר של אישה עם שיער חום, המייצג את ג'ונסון.

האווטארית שעל המסך - שג'ונסון בחרה בעצמה - מסוגלת לבטא בדיבור את מחשבותיה, כאשר הקול שלה מתבסס על הקלטה בת 15 דקות שהוקלטה לפני שנים בנאום הרמת כוסית בחתונתה של ג'ונסון.

דמות האווטארית מסוגלת למצמץ ולהשתמש בהבעות פנים כמו חיוכים, תנועות שפתיים וגבות מורמות, מה שגורם לה להיראות אמיתית יותר.

"אנחנו רק מנסים להחזיר אנשים למי שהם היו", אמר לניו יורק טיימס ד"ר אדוארד צ'אנג, מנהל היחידה לניתוחים נוירולוגים באוניברסיטת קליפורניה, סן פרנסיסקו.

ג'ונסון, מורה למתמטיקה בתיכון שהייתה גם מאמנת כדורסל וכדורעף בססקצ'ואן, קנדה, הייתה נשואה במשך שנתיים וילדה שני ילדים כששבץ מוחי גרם לה לשיתוק, כשהייתה בת 30.

"לא להיות מסוגלת לחבק ולנשק את הילדים שלי כאב כל כך, אבל זאת הייתה המציאות שלי", אמרה ג'ונסון. "המסמר האמיתי בארון הקבורה היה כשנאמר לי שלא אוכל להביא ילדים נוספים".

לאחר שנים של שיקום, הבעות הפנים שבו אליה בהדרגה, אבל ג'ונסון נותרה ללא יכולת דיבור, והיה צורך להאכיל אותה בצינור, עד שטיפול בבליעה אפשר לה לאכול מזון קצוץ דק או רך.

אן ג'ונסון (צילום: USCF, facebook)
אן ג'ונסון | צילום: USCF, facebook

החוקרים מאוניברסיטת קליפורניה בסן פרנסיסקו (UCSF) יחד עם עמיתים מאוניברסיטת קליפורניה בברקלי, אמרו שזו הפעם הראשונות שדיבור או הבעות פנים מסונתזים מאותות מוח.

כדי לאמן את מערכת הבינה המלאכותית, ג'ונסון נאלצה "לחזור" בשקט בראשה על ביטויים שונים מאוצר מילים של 1,024 מילים שוב ושוב, עד שהמחשב זיהה את דפוס הפעילות המוחית הקשורה לכל צליל.

אן ג'ונסון בחתונתה (צילום: USCF, facebook)
אן ג'ונסון בחתונתה | צילום: USCF, facebook

במקום מילים שלמות, תוכנית הבינה המלאכותית למדה לזהות פונמות, יחידות הגייה היוצרות מילים מדוברות. "שלום" באנגלית, למשל, מכיל ארבע פונמות: "HH", "AH", "L" ו-"OW".

על ידי זיהוי 39 פונמות, תוכנית הבינה המלאכותית יכולה לפענח את אותות המוח של ג'ונסון למילים שלמות בקצב של כ-80 מילים בדקה - בערך מחצית מהקצב של דיאלוג רגיל בין אנשים.

הצוות עובד כעת על גרסה אלחוטית, מה שאומר שהמשתמש לא יצטרך להיות מחובר פיזית למחשבים באמצעות חוטים או כבלים. צ'אנג עבד על ממשק המוח-מחשב במשך יותר מעשור ומקווה שהחדשנות של הצוות תוביל למערכת המאפשרת ליצור דיבור מאותות מוח בעתיד הקרוב.

"המטרה שלנו היא לשחזר דרך מלאה של תקשורת, שהיא באמת הדרך הטבעית ביותר עבורנו לדבר עם אחרים", אמר צ'אנג ל-SWNS. "ההתקדמות הזו מקרבת אותנו הרבה יותר לפתרון אמיתי עבור מטופלים".