כבר היום, ממשקי מחשב־מוח עוזרים לשלוט בהתקפים אפילפטיים ולהקטין גידולים אצל חולי פרקינסון. הגל הבא יתמודד עם יישומים אפילו יותר מורכבים, כמו שחזור דיבור ושליטה במצב הרוח.
אדי צ'אנג, חוקר מערכת העצבים וחלוץ בתחום ממשק מחשב־מוח במכון ווייל למחקר עצבי באוניברסיטת קליפורניה, סן פרנסיסקו, הוא מהאנשים העומדים בקדמת העבודה הזו. ביולי 2021, הוביל מחקר פורץ דרך, שמומן בחלקו על ידי פייסבוק, ותרגם את אותות המוח של אדם משותק למלים על גבי מסך.
● חוקר המוח שרוצה לשחרר אותנו מהתמכרויות
כמות המחקר בממשקי מחשב־מוח, או BCI, גדלה באופן עקבי בשנים האחרונות, על פי נתונים הזמינים במאגר המידע הפדרלי Pubmed. ב־2021, נערכו כמעט 600 מחקרים, בהשוואה לכ־340 מחקרים ב־2016. מה שמניע חלק מהפעילות הזו היא זמינות של מחשבים חזקים יותר, שיפורים באינטליגנציה מלאכותית, והמשך ההקטנה של מכשירים שניתן להשתיל במוח. משקיעים, יזמים כמו אילון מאסק וענקיות טק כמו מטא נכנסים למרוץ, במקביל לכך שפיתוחי חומרה ותוכנה הופכים את פירוש האותות הנשלחים מהמוח לפחות מסובך ממה שהיה פעם.
השקעות פדרליות במחקר עצבי שיחקו תפקיד גם הן בעלייה בפעילות בתחום הזה.
צ'אנג אומר שהמטרה היא לפענח את פעילות המוח הנמצאת בבסיס התנהגויות אנושיות מורכבות כמו דיבור או רגשות, בניסיון לפתח טיפולים שיוכלו לעזור לאנשים שלא יכולים לדבר או שסובלים מבעיות נוירו־פסיכיאטריות כמו דיכאון וחרדות.
ההבטחה הזו מגיעה גם עם סכנה מסוימת לצידה, כמו הפוטנציאל לשחיקה נוספת של הפרטיות, בגלל ש־BCI נותן גישה ישירה למוח ולתהליכים שנמצאים בבסיס המחשבות.
צ'אנג דיבר עם הוול סטריט ג'ורנל על הכיוון אליו השדה הזה הולך, על עבודתו לשחזור דיבור ולשיפור מצב הרוח, ועל השאלה האם העולמות הניסיוניים של BCI ושימוש בחומרים פסיכדליים ישתלבו יום אחד.
למה דיבור?
דיבור הוא מאוד מיוחד. זה רק אחד מתוך כמה התנהגויות ייחודיות ומגדירות שיש לנו בתור מין. וזה היה די מלהיב לנסות להבין איך המוח האנושי מעבד התנהגות כל כך ייחודית.
מה עושה את זה קשה?
אחד האתגרים הגדולים הוא לנסות לפענח אותות חשמליים. המוח משתמש באותות חשמליים כשפת התקשורת שלו. לשפה הזו יש היגיון משלה, קוד משלה. והאתגרים האמיתיים הם להבין איך הקוד הזה עובד.
האם טכנולוגיה הפכה את האתגר הזה לקל יותר?
האותות אותם אנו מפרשים - הם לא דומים כלל למה שאנו מנסים לקודד, למלים. הם נראים כמו קשקושים על מסך. והתבניות כל כך מורכבות. הרבה מהעבודה שלנו כעת משתמשת בהתקדמויות באינטליגנציה מלאכותית ולמידת מכונה בגלל שאלה דרכים מאוד מאוד מהירות לזהות דפוסים. אז זה דומה לדברים בהם משתמשים בשביל סירי או אלקסה.
איך אתה רואה את העתיד של הטכנולוגיה הזו?
לפני עשר או 15 שנים, מצב התחום הזה היה בערך ברמה של לנסות לקודד הברות. מה שבאמת היה מדהים בחמש השנים האחרונות זה כמה התקדמות נעשתה לא רק במעבר לפירוש צלילים נפרדים אלא בניסיון לקודד מלים. וזה עדיין נמצא מאוד מאוד בחיתולים. הפרויקט הראשון שפרסמנו בתחום הזה בשנה שעברה התמקד באוצר מילים של 50 מילים. כעת אנו עושים מאמצים בשני כיוונים. אחד הוא להגדיל את אוצר המילים מעל 50 מילים תוך שמירה על דיוק רב.
הדבר השני שאנו מנסים לעשות הוא לעבור מלנסות לומר מילה ושמילה תופיע על המסך לסינתזה של מילים שאפשר לשמוע. אז המטרה היא שמישהו שהוא משותק לא רק יוכל לחשוב על מילה והיא תופיע על מסך כדי שיוכל לכתוב, אלא ממש לסנתז את הצלילים האלה. וזה הופך להיות מאוד מאוד קשה ואתגר גדול בגלל המורכבות של הבעת מילים בצורה קולית על פני אוצר מילים גדול מאוד. לגבי מספר קטן של מילים, זה בהחלט ניתן לביצוע כבר היום.
תחום נוסף שאנחנו מאוד נלהבים ממנו הוא לא רק לשמוע מילים אלא ממש לשלוט באווטאר של הפנים שלא רק מדבר אלא עושה את אותן תנועות שהיית רואה כשאתה מדבר עם מישהו באופן אישי. הסיבה שאנחנו חושבים שזה חשוב היא שזה יעזור לתהליך הלמידה כשמישהו משותק בעצם ירגיש כאילו ממשק המחשב־מוח הוא חלק מהדרך בה הוא מדבר בגלל שהתחושה תהיה יותר טבעית.
במה זה שונה מהפיכת טקסט על מסך למילים שאפשר לשמוע?
סינתוז דיבור מבחינתנו אינו רק המילים עצמן אלא הניואנס של יצירת העושר של הקול, כולל אינטונציה וקצב, בזמן אמת. לדוגמה. "סאלי הלכה לחנות". כדי לשנות את זה מקביעת עובדה לשאלה, כל מה שעשיתי הוא להגביה מעט את קולי במילה האחרונה. אלה אותן מילים, אבל השינוי הזה משנה את המשמעות. אז אנחנו מנסים להצליח לתפוס גם את העניין הזה".
איך גורמים למחשב להבין בני אדם דו־לשוניים
אתה עובד גם על מערכות שיכולות לעבוד בכמה שפות. האם אתה יכול להרחיב על זה?
חלק ממה שאנחנו מנסים לעשות הוא לפתח טכנולוגיה שבה המטופל יוכל לקבוע מתי עוברים משפה לשפה. כך שהסבירות שמילה אחת תבוא לאחר מילה אחרת באנגלית מאוד שונה מהסדר בו מילים אלה יופיעו בספרדית. כשאדם עובר בין שתי השפות, אנו בודקים דרכים בהן המכונה יכולה לזהות זאת ואז להמשיך תקשורת בכמה שפות. אני נלהב מזה בגלל שזה צעד נוסף שיעשה את הטכנולוגיה יותר שמישה ויותר מעשית לאנשים ויאפשר להם לבטא את עצמם באמת.
האם זה הופך את זה למורכב יותר?
זה הרבה, הרבה יותר מורכב כי אתה לא רוצה שיבלבלו בין השתיים. זה לא כאילו שיש חלק במוח שלך שהוא דובר ספרדית וחלק אחר שמעבד אנגלית. אנשים דו־לשוניים, זה מגיע אצלם מאותו מקום. ולגרום למחשב להבין את זה, זה מסובך.
האם יש סימנים מסוימים שמבחינת המכונה רומזים לה שאדם מנסה לדבר בשפה מסוימת ולא בשנייה?
אז זו שאלה מרתקת ואין לי עדיין התשובה לזה. אנחנו נוגעים בתחום שכרגע נמצא בלב המחקר.
איך אתם משתמשים ב־BCI כדי לעזור למטופלים עם בעיות של בריאות הנפש?
אנחנו מאוד מעוניינים להבין מה קורה כשמישהו מעבד רגשות באופן נורמלי, ואיך האותות נראים אצל אנשים שסובלים מדיכאון ואין רגולציה נורמלית של מצב הרוח שלהם. התקווה שלנו היא שעל ידי הבנת דפוסי האותות החשמליים האלה נוכל להשתמש בהם כסמנים ביולוגיים, כדרכים להבין מתי ואיזה חלקים מהמוח עובדים כשמישהו חווה אפיזודה דיכאונית. ואז הדבר השני, שהוא הרבה יותר חשוב, הוא להשתמש במידע הזה כדי להתערב ולעשות רגולציה של חלק מהאזורים האלה כדי לגרום לאנשים להרגיש יותר נורמליים, כלומר שהם לא סובלים מדיכאון משתק.
האם אתה צופה עולם בו הפרויקטים שלך על שפה ועל מצב רוח מתנגשים?
לא חיברתי בין שני הפרויקטים האלה אבל אני כן חושב שיש פוטנציאל. אנחנו מדברם על אזורים שונים במוח ובעצם אלגוריתמים שונים שיהיו נחוצים כדי להבין ולקודד אותם. אבל בהרבה מהחומרה יש חפיפה. אני חושב שבעשור הקרוב, יהיו הרבה יותר טיפולים רפואיים מבוססי מכשירים, ושנוכל לעשות אינטראקציה עם המוח ולעשות אינטגרציה בין הקלטות עצביות מאזורים שונים במוח.
גם שימוש רפואי בסמי הזיה הוא תחום חדש מרתק בטיפולים ניסיוניים בבריאות הנפש. האם אתה חושב שעשויה להיות חפיפה בין התחום הזה לתחום שלך?
יש לי הרגשה שהעולמות האלה אכן ישתלבו. הם מאוד משלימים. שימוש בפסיכדליים הוא בבסיסו גישה כימית. אנחנו חוקרים את האות המשלים, שהוא אות חשמלי. המוח משתמש בשניהם במידה גדולה, והם קשורים באופן ישיר. כשאנו מתחילים להבין את השינויים באותות שקורות אצלנו כשאנו צורכים חומרים כמו סמים פסיכדליים או תרופות פסיכיאטריות באופן כללי, אני חושב שיש שם המון פוטנציאל.
האם היית משתיל ממשק מחשב־מוח בעצמך, לא ככלי טיפולי, אלא לשיפור?
אני באופן אישי לא. יש כל כך הרבה דברים שהייתי רוצה להיות טוב יותר בהם. אבל אני גם מאוד מכבד את מי שאני כמו שאני כרגע.
האם זה בגלל עניין הפרטיות? על מה ההיסוס?
חלק מההיסוס הוא הסיכונים. אנחנו מדברים על ניתוח מוח. הדבר השני הוא שאנחנו עדיין נמצאים מאוד בשלב הלמידה. אנחנו מאוד רחוקים מסוג של תסריט שבו אני יכול לחשוב שמישהו יעשה את זה כדי להשתפר. יש גם עניין של אתיקה. נכון לעכשיו, אני לא תומך בזה עד שלא תהיה לנו מסגרת רגולטורית אתית הרבה יותר טובה סביב כל הנושא הזה.
הריאיון קוצר ונערך.
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.