כשג'יימס קמרון ביים ב-1984 את הסרט הראשון בסדרת "שליחות קטלנית", העתיד האפוקליפטי שתואר בו נראה רחוק מדי בשביל להתעמק במידת האפשריות שלו ובדרך שתוביל אליו. לפי התסריט, כבר ב-1997 - 13 שנים בלבד לאחר כתיבת התסריט - מגיעה רשת המחשבים סקיינט למודעות עצמית, מחליטה שהסכנה החמורה ביותר לעצם קיומה נובעת מבני האדם, ויוזמת מלחמת עולם גרעינית כדי לחסל אותם. מכיוון שלא כל בני האדם מתו וחלק מאלו ששרדו את התופת נלחמים נגדה ונגד המכונות שלה, רשת המחשבים מחליטה לשלוח לעבר רובוט דמוי אדם שירצח את אמו של מנהיג המרד ויסתום את הגולל על סיכוייו של המין האנושי להמשיך ולשרוד. ההתפתחות הזו בעלילה מתרחשת ב-2029 - כלומר בסוף העשור שאליו אנו נכנסים כעת.
כש"שליחות קטלנית" נוצר לפני 35 שנים, העולם הדיגיטלי אפילו לא החל להתעצב. לא רק שמעטים הבינו ב-1984 שמשהו גדול עומד בפתח, אלא שמעטים אף יותר העלו בדעתם עד כמה מהיר יהיה השינוי, ועד כמה הוא יהיה מקיף ומטלטל. באופן לא מפתיע, הבודדים שנתנו אז את דעתם על דמותו האפשרית של העתיד הדיגיטלי שלנו, כרכו סביבו לא רק תקוות גדולות אלא גם פחדים גדולים.
בשנים שחלפו מאז, העולם השתנה לבלי הכר. לא רק שכל היבט בחיינו הפך להיות ממוחשב, אלא שגם הבינה המלאכותית מקיפה אותנו מכל עבר. מחשבים יודעים כיום להלחין להיטים, ללמוד את ההרגלים שלנו ולנחש מה נרצה לרכוש. לנהל את מערכות הרמזורים שלנו, להסיע מכוניות ולהטיס מטוסים. למצוא קשרים והקשרים ולחלץ תובנות מבסיסי נתונים עצומים. לספק שירותים ללקוחות ומה לא, אבל האדם בשלו: כשמדברים על בינה מלאכותית, הוא עדיין מוטרד מרובוטים שייתרו אותו - מנטלית או פיזית.
סרט הטראש Automation שיצא לאחרונה לשוק לקח את הרעיון שלב אחד הלאה. גיבור הסרט הוא "אוטו" - רובוט דמוי אדם (טוב, הוא יותר דומה לרובוקופ) שחי חיים מלאי תכלית במפעל רכב. הוא יודע לבצע עבודות מגוונות - מהרמת משאות כבדים ועד ניקוי רצפת אולם הייצור - והוא נחשב לעובד מושלם: מנומס, חרוץ ואהוד על עמיתיו האנושיים. אלא שדינו של הדו-קיום האוטופי הזה לקרוס בסופו של דבר, ויום אחד אוטו מגלה לחרדתו שהוא עומד להיות מוחלף על-ידי רובוטים מודרניים יותר. באופן אירוני, התסכול העמוק שהוא חווה גורם לו להגיב בצורה אנושית מאי פעם ולהתנהג כמו חיה. איך בדיוק זה בא לידי ביטוי? הוא מוותר על הניסיון לרדת לשורש הבעיה ואולי לרדוף אחר המהנדסים ששינו את מציאות חייו (בכל זאת, לא מדובר פה בסוגה עילית כמו בלייד ראנר), ובוחר בפתרון האמריקאי המטורלל והמקובל במצבים שכאלה: יציאה למסע טבח במקום העבודה. ללמדכם, שגם כשחוקי הז'אנר קצת נמתחים, בני האדם תמיד אוכלים אותה.
בעוד שאף מדען רציני לא חושב שרובוטים מתוסכלים עשויים לצאת למסע הרג בעתיד הנראה לעין, קיים בקהילה המחקרית קונצנזוס חזק שאחרי שנים של הבשלה איטית, נראה שהעשור הקרוב יהיה העשור של הבינה המלאכותית. הזינוק הגדול קדימה מתרחש בגלל שילוב של גורמים: הניסיון שהצטבר והוביל לפיתוח שיטות חדשות; יכולת מחשוב שרק התעצמה עם המעבר לענן ומבול של רעיונות למערכות שהבינה המלאכותית יכולה להשתלב בהן ולמקסם את התועלות שבהן, גרמו להזרמת כסף גדול לתחום ולהאצת תהליכי הפיתוח.
לקראת הכניסה לעשור השלישי של המאה ה-21, שוחחנו עם שלושה חוקרי בינה מלאכותית שהעזו להתנבא לגבי המגמות העיקריות שנראה בתחום בעשר השנים הקרובות והתריעו שאנו עומדים בפתחה של מהפכה משנה סדרי עולם. לצד פריצות דרך שישפרו את חייהם של בני האדם כמעט בכל תחומי החיים, המדענים מתריעים כבר כעת כי עליית הבינה המלאכותית תביא לאובדן מסיבי של מקומות עבודה אנושיים, להסתמכות יתר על קבלת החלטות ממוכנת ולהיווצרותו של פער דיגיטלי חדש. הניסיון שנצבר ממהפכות טכנולוגיות משמעותיות קודמות, הם טוענים, מחייב להיערך למציאות החדשה בצורה רצינית בהרבה מכפי שרובנו סבורים כיום.
מה זה כלב ומה זה לא כלב
פרופ' יצחק בן ישראל שעומד בראש מרכז הסייבר באוניברסיטת תל אביב והוביל את כנס הבינה המלאכותית שנערך בה לפני שבועיים, שמח לתת היסטוריה מקוצרת של התחום. "תראה, המונח בינה מלאכותית די עמום, אז כשאני מדבר על זה, אני בדרך כלל מתכוון לרעיון שבמקום לכתוב אלגוריתם שמורה למחשב איך לעשות משהו, אני אתן לו ללמוד כמו שאני ואתה לומדים. שנינו יודעים לזהות פרצופים, אבל אף אחד מאיתנו לא בדיוק יודע להסביר איך הוא עושה את זה. אין לנו כללים כמו מדידת המרחק בין העיניים אלא אני פשוט יודע שאם אני רואה פרצוף, אז או שזה הפרצוף שלך או שזה לא, ואחרי כמה פעמים שאנחנו פוגשים זה את זה, אנחנו יודעים להגיד 'היי, אני מכיר אותך!'. מישהו עלה על הרעיון הזה והחליט להקים רשת נוירונים שתחקה את מה שקורה לנו במוח. במקום שתגיד למחשב מה לעשות, תיתן לו ללמוד מהניסיון.
"כבני אדם, אנחנו לומדים מהתבוננות. כשהיית קטן, אמא שלך הייתה מצביעה על כלב נניח ואמרה לך 'זה כלב', ואז הראתה לך כלב אחר וגם אמרה עליו 'זה כלב', ואז הצביעה על חיה אחרת שלכאורה יש לה גם ארבע רגליים וזנב ופרווה, אבל אמרה לך שזה חתול, ועל משהו אחר שזה לא כלב ולא חתול אלא שזה סבא, ואתה למדת מה זה כלב ומה זה לא כלב. בשביל שמכונה תצליח לעשות דברים כאלו, צריכים לתת לה לעבור על מאגרי מידע גדולים שבהם מוגדר לה מהו כלב ומה הוא לא, וכך ללמוד. המטרה בסופו של דבר היא שהמכונות יידעו לעשות את מה שאני ואתה יודעים לעשות.
פרופסור יצחק בן ישראל/ צילום: איל יצהר
"הרעיונות האלו התחילו לצוץ עוד בשנות ה-50, אבל לא ניתן היה לבצע אותם עד לפני חמש שנים כי כוח המחשוב לא הספיק. מחשבי העל מתחילים להתקרב היום ליכולת החישוב של המוח האנושי מבחינת מספר הנויורונים שהם יורים בשנייה, אבל למחשב בכל זאת יש יתרון. למה? כי המחשב לוקח את כל יכולת העיבוד שלו ומכוון אותה לאותו חישוב, בעוד שהמוח שלנו לא יכול לעשות את זה. בזמן שהוא מחשב, הוא גם צריך לפקח על פעולת הלב, לדאוג שאף אחד לא יתקיף אותי, להאזין לאוזניים ולהעביר את המידע מהעיניים וכיו"ב".
בן ישראל סבור שבעשור הקרוב נראה את הבינה המלאכותית נכנסת לכל תחום בחיינו. "הנה דוגמה מפתיעה. יש תוכנות שיודעות לסרוק טקסטים - מוקלדים, לא בכתב יד - ולדעת על-פי כל מיני פרמטרים אם מי שכתב אותם היה גבר או אישה. איך היא עושה את זה? מתברר שנשים וגברים משתמשים בתדירות אחרת במילים מסוימות. אחרי שהמכונה לומדת את הדפוסים האלו, היא יכולה לדעת במשהו כמו 95% מי כתב את הקטע. יש אצלנו פרופ' דתי באוניברסיטה שלקח את התוכנה הזאת ובדק באמצעותה את ספר ישעיהו שיש לגביו מסורת ביהדות שהוא בעצם נכתב על-ידי שני אנשים. התשובה שהוא קיבל הייתה שישעיהו באמת נכתב על-ידי שני אנשים שונים ועכשיו הוא לא יודע מה לעשות כי הוא גם הזין לתוכה את ספר ירמיהו והמחשב אומר שהוא נכתב על-ידי ארבעה אנשים שונים.
"למה אני מספר לך את כל הסיפור הזה? כי אם הייתי אומר לך שהתפתחות הבינה המלאכותית תביא לפיתוח אפליקציות לחקר המקרא, היית מסתכל עליי בעין עקומה. אבל מכיוון שאנו בונים מכונות עם יכולות חישוב שלקראת סוף העשור כבר יהיו די קרובות ליכולות של בני אדם, אז בדיוק כמו שבני אדם עוסקים במתמטיקה, בפיזיקה וגם בחקר המקרא, אז גם המחשבים יעשו את הדברים הללו. זה פשוט יקרה בכל מקום ובכל תחום. כמו שאתה או אני או ניוטון או איינשטיין הם מכונות שלא בנויות מטרנזיסטורים וסיליקון אלא מחומר ביולוגי שמתנהג על-פי חוקי הפיזיקה ולא באופן אקראי יודעים לשאול שאלות, גם המכונות שאנחנו קוראים להם מחשבים יידעו לעשות את זה. אם אתה מכונה ששואלת שאלות, אין סיבה שלא יהיו מכונות אחרות שעושות את זה".
בן ישראל אומר שאין ספק שעליית הבינה המלאכותית תשנה בצורה ניכרת את שוק העבודה, אבל רואה בכך הזדמנות ולא רק מקור לחששות. "כשהייתי ילד, כל חנות שלישית הייתה סנדלרייה. השבוע הלכתי באבן גבירול ופתאום ראיתי סנדלרייה ועמדתי מולה כולי משתאה כי כבר שלושים שנה לא ראיתי סנדלרייה. כבר לא צריך את זה בגלל שהנעליים לא מתבלות כמו פעם. מה שקרה עם השכלול של אמצעי הייצור זה שמצד אחד מקצועות כמו סנדלרים נהיו לא נחוצים, ומצד שני מקצועות אחרים נוצרו. אז עם עליית הבינה המלאכותית, השאלה היא לא אם יתבטלו מקצועות מסוימים - בטוח שיתבטלו - אלא מה יהיה המאזן שייווצר. ב-200 השנים האחרונות מקצועות נעלמו ואחרים הופיעו, ובסופו של דבר החיים של כולם השתפרו. אני חושב שזה יקרה גם בהקשר של הבינה המלאכותית".
שינוי טקטוני בעולם העבודה
"כיום, כשמדברים על בינה מלאכותית, עושים את זה מתוך קונטקסט צר", אומר איתי יוגב, דירקטור בינה מלאכותית באינטל. "אתה מצמצם מראש את מרחב הלמידה של המכונה כדי להקל עליה ומחפה על דברים שהיא לא יודעת לעשות בהרבה ידע מפורש. אנחנו מכנים את זה Narrow A.I או בינה מלאכותית צרה - ואנחנו מתקדמים יפה. למשל, אנחנו בדרך ליצור מכונה שיודעת לעשות פעולה כמו נהיגה באופן לא רע. החלום, לעומת זאת, הוא להגיע ל-General Purpose A.I, בינה מלאכותית כללית - כלומר מכונה שאתה מלמד אותה לעשות דבר אחד, אבל היא תדע לעשות את מה שאנחנו יודעים לעשות - להעתיק ידע מתחום לתחום. כיום חוקרים את התחום הזה ויש לו פוטנציאל לחולל פריצת דרך אמיתית".
איתי יוגב/ צילום: פרטי
יוגב מסרב לתת לוחות זמנים לתהליך הזה, אבל אומר שכבר בעשור הקרוב הוא צופה שנרגיש את הבינה המלאכותית נכנסת חזק לעולם העבודה. "כשאני אומר עבודה, אני מתכוון גם לנהגי משאיות או לנהגי מוניות, אבל גם לעורכי דין, מהנדסים ועיתונאים", הוא מסביר. "בשנים האחרונות ראינו את הבינה המלאכותית נכנסת חזק לתחום הצרכנות. כמעט כל הצריכה שלנו בעולם האלקטרוני מבוססת על בינה מלאכותית: מהאתר שאתה רואה כשאתה גולש, דרך חדרי המלון שמציעים לך כשאתה מחפש חופשה. כיום, כשאתה יוצא למרחב הפיזי, זה פחות קורה, אבל מה שנראה בשנים הקרובות זה שהטכנולוגיה הזאת תצא מהמרחב הווירטואלי ותעבור לשוק העבודה. אין ספק בכלל שעולם העבודה ייראה אחרת לגמרי בעוד עשר שנים. יהיו דברים שייעלמו ממנו ויהיו דברים חדשים שיופיעו כמו שילוב של אדם ושל מכונה שעובדים ביחד".
יוגב אומר שקשה להעריך מתי בדיוק תיווצר מסה קריטית של מכוניות אוטונומיות שנשלטות על-ידי בינה מלאכותית, אולם מזהיר כי "צריך להיות ברור לגמרי לכולם שמצב כזה יהיה בבחינת שינוי טקטוני. מה יעשו כל האנשים שמתפרנסים היום מנהיגה? אף אחד לא יודע בדיוק. אותו הדבר נכון גם בתחום שלך. כבר היום מייצרים הרבה תוכן בלי להשתמש באנשים. כשאני מסתכל שנה-שנתיים קדימה, אני שואל את עצמי מה יהיה התפקיד של עיתונאי, ובעיניי התפקיד שלו יהיה פחות לייצר תוכן ולאסוף תוכן כי הדברים הללו יבוצעו בצורה אוטומטית לגמרי, אלא לתת נקודת מבט. אותו הדבר נכון גם לגבי הכנה של חוזים או ניהול תיקים.
"רוב העבודה הטריוויאלית תיעשה על-ידי אלגוריתמים והתפקיד של אנשים ייהפך להיות בקרה על הפעולה של המכונות והתעסקות בדברים שאנחנו עדיין לא רואים אצל מכונות כמו יצירתיות, אמפתיה וקבלת החלטות שאנחנו מעדיפים שבני אדם יקבלו ולא מכונות. באינטל למשל אנחנו חושבים שעבודה של אנשים ומכונות ביחד עדיפה מעבודה של מכונה לבד, ואם אתה שואל אותי באילו תחומים הכי הייתי רוצה לראות את החזון הזה מתממש, אז התשובה היא שברפואה ובחינוך. יש למשל מחקר משנות ה-80 שמראה שילדים שאתה נותן להם מורה פרטי לאורך זמן מגיעים למצב שהם נמצאים בשני האחוזים העליונים של ההישגים בכיתות שלהם. תחשוב שהיינו יכולים לתת לכל ילד מורה פרטי דיגיטלי כשבמקביל אתה שומר על המסגרת החברתית ועל הערכים".
אז מה האתגרים שמונעים מאיתנו לממש את חזון הבינה המלאכותית שאנו מכירים מהספרים ומהסרטים - כלומר שמכונות ומחשבים יוכלו לעשות כל מה שבני אדם יכולים לעשות? ברמת החומרה, מצטברים בשנים האחרונות עוד ועוד דיווחים על התקדמויות מרשימות של חוקרי המחשוב הקוונטי שמנסים לפרוץ את מה שיוגב מכנה "גבולות ה-0 וה-1" ולהגביר את כוח המחשוב בצורה מהותית. עם זאת, גם קיומו של כוח מחשוב עילאי הוא רק חלק מהפתרון.
"האתגר הראשון הוא מה שאני מכנה היגיון פשוט", אומר יוגב. "יש למשל דברים שבני אדם מבינים תוך שנייה. שנסיבות השתנו, שלדברים פתאום יש קונטקסט אחר. מכונות ממש לא מבינות את זה והן דורשות המון אימון על מנת שהן יוכלו לקבל החלטות. אם למשל יש לך רצפה קשה ואז אתה שופך עליה שמן, כל ילד יבין מיד שהוא צריך לשנות את הדרך שבה הוא הולך עליה כדי שלא להחליק, אבל אם אתה רובוט, תצטרך להתאמן ספציפית לתרחיש הזה. אם למשל תשפוך מים חמים לתוך צנצנת, כל ילד בן שלוש יבין מהקונטקסט ומהמראה של האדים שלא כדאי לו לגעת במים. למכונה שלא אומנה לנסיבות המסוימות הללו ייקח הרבה זמן ללמוד איך להתנהג במקרה כזה של קונטקסט שלא נצפה מראש".
יוגב אומר שעל אף ההבנה ההולכת והמעמיקה בתחום, ועל אף שכוח החישוב גבוה לאין שיעור מאשר בעבר, יש כמה סיבות לכך שתחום הבינה המלאכותית עדיין לא ביצע את קפיצת המדרגה הגדולה שלו. "יש כמה בעיות בכמה מישורים, אבל אחת מהן נוגעת למודל הלמידה של המכונות שכיום מבוססת על היסטוריה, ולכן היכולת של המכונה להסיק מסקנות נחותה ממש בסדרי גודל לעומת היכולת של בני אדם. הדבר השני זה שבעוד שמכונות לומדות רק ממידע שנועד ללמד אותן לעשות משהו מסוים, בני אדם כל הזמן לומדים מכל החושים שלהם. הדבר השלישי הוא שבעוד שיכולת העיבוד של מחשבים כיום היא לכאורה בלתי מוגבלת, בגלל שני הסעיפים האחרים אי אפשר להשתמש בה עד הסוף.
"בתחום הראייה הממוחשבת למשל, הייתה לפני כמה שנים פריצת דרך וכיום מכונות יודעות לעשות עבודה מעולה כשהן מתבקשות לזהות אובייקטים או להבדיל ביניהם, אבל בעולם השפה, אנחנו עדיין לא שם. כשאתה מגיע לרבדים העליונים של השימוש בשפה - אירוניה, ציניות, משחקי מילים או אנלוגיות - המחשב בבעיה.
"אנשים למשל מבינים מטאפורות בקלות, אבל המחשבים ממש לא שם עדיין. האם זה ישתנה בעשור הקרוב? תראה, הרבה מאוד כסף, גם של ממשלות וגם של חברות מסחריות, מושקע בתחום ויש גישה חדשה בעיבוד של שפה שמתיימרת להביא לתוצאות הרבה יותר טובות, אז אולי כן, אבל יש עוד אזור שעד כה התקשה לפרוץ ואני מאוד מאמין בו. קוראים לזה Reinforced Learning או למידה מתוך אישוש, והתחום הזה בעיניי מהותי לעתיד. אם למשל ילד ייגע פעם אחת במים רותחים, הוא ילמד להיזהר מהם, נכון? אז המנגנון הזה מחקה את המנגנון האנושי - לפעמים מתנסים כדי ללמוד ולפעמים מנצלים את הידע שנצבר עד כה. כדי ללמד רובוט ללכת, מלמדים אותו דרך צפייה בסרטונים שמאפשרים לו להשתפר, ואותו הדבר נכון גם כשנותנים למחשב לשחק שח, אבל כרגע מתקשים להוציא את התחום הזה מעולם המשחקים לעולם האמיתי. למה? כי במשחק יש מספר סופי של אפשרויות בעוד שבחיים האמיתיים מספר התרחישים האפשריים הוא אינסופי או לפחות גדול בהרבה. המתמטיקה שעובדת טוב במשחק הופכת לבלתי אפשרית בעולם האמיתי. אבל אני מאמין שהתחום הזה של למידה מתוך אישוש הוא כזה שפריצת דרך בו יכולה ממש לשנות את המשחק".
וכשתתרחש פריצת דרך כזאת, אנחנו צריכים להיזהר?
"לדעתי, החזון שבו המכונות משתלטות על בני האדם לא רלוונטי לזמן הקרוב. יותר ממה שאני מודאג מעליית המכונות, אני מודאג מירידת האדם. אני מפחד שתהיה השתעבדות יתר למכונה. ככל שנסתמך עליה יותר, אתה תוציא את האדם מהמשוואה וכך תיתן לה כוח גדול מדי. נצטרך להתייחס יותר בביקורתיות לשאלה מה ניתן למכונות להחליט. אני פחות מוטרד מאופטימיזציה של בינה מלאכותית בעולם הצרכני כדי להביא אנשים לרכוש מוצרים או מכך שבשוק העבודה נשלב בינה מלאכותית כדי להשתכלל, אבל אני בהחלט מוטרד משילוב של בינה מלאכותית בתחום האזרחי והביטחוני.
"כל אזרח צריך לשאול את עצמו אלו החלטות הוא היה רוצה שמכונה תקבל ולאלו החלטות צריך בן אדם. צריך להיות דיון ציבורי עמוק לגבי סוג הרגולציה שיש להעביר ועדיף שזה יקרה שעה אחת קודם. תחשוב למשל על מצב שבו מישהו מציע להכניס את כל הנתונים הקיימים למחשב ושהאלגוריתם יחליט כיצד ייראה סל התרופות. יהיו הרי אנשים שיגידו לך שהמחשב לא מוטה לשום צד ולא חשוף ללחצים, אבל מישהו הרי יזין לתוכו את הנתונים ומישהו יגדיר את הפונקציות ואת המטרה. אלו שאלות מוסריות. היית רוצה שמחשב יקבל החלטות כאלו?".
שינויים בהרגלי הנסיעה
פרופ' עירד בן-גל שעומד בראש המעבדה ליישומי בינה מלאכותית ואנליטיקה עסקית באוניברסיטת תל אביב וגם יזם את התוכנית "חיים דיגיטליים 2030" בשיתוף עם אוניברסיטת סטנפורד, אומר שאחת ההתפתחויות המרכזיות שנראה בשנים הקרובות בתחום הבינה המלאכותית תהיה עליית מה שמכונה "המודל הגרעיני" שמתמקד בלמידה ובניתוח של ישות בודדת.
"תחשוב למשל על אפליקציה שלומדת ועוקבת אחר האופן שבו אתה נוהג - עקיפות, סיבובי הגה, מהירות, מספר עצירות וחוזק עצירות - ואז יכולה להציע תוכנית ביטוחית שמתאימה לך ברמה של פרופיל הסיכון בנסיעה הבודדת, הגרעינית", מתאר בן-גל. "הפרמיה בעצם תגיב לשינויים בהרגלי הנהיגה שלך מנסיעה אחת לשנייה. פעם ביטוח אישי חושב לפי סוג המכונית, הגיל שלך וכמה שנות ניסיון יש לך. היום אפשר לחשב תוכניות כאלו גם לפי מידע שקיים על סוגי הכבישים שאתה עובר בהם. אם למשל אתה נוסע דרך כביש מסוכן ועובר דרך צומת שהיו בו הרבה תאונות דרכים, הנתונים הללו ישתקללו למודל הסיכון הביטוחי האישי. המודל יאפשר גם לזהות שהסיכון עולה בנסיעה מסוימת שבה אופן הנהיגה השתנה - אולי כתוצאה מכך שהנהג שתה אלכוהול. אפליקציות אחרות שנשענות על מודל גרעיני כזה כבר צצות בתחום הגנת הסייבר ונשענות על מדדים ביומטריים אישיים שהמערכת לומדת לזהות ככאלו ששייכים לך בלבד. תחשוב למשל שמערכת כזאת יכולה לזהות שאתה מזיז את העכבר או מקליד בצורה אחרת מכפי שאתה בדרך כלל עושה את זה, וככה מספקת אינדיקציה לכך שאולי השתלטו לך על המחשב".
פרופסור עירד בן גל/ צילום: איל יצהר
תחום אחר שבן-גל מדבר עליו ככזה שצפוי להיות משמעותי בעשור הקרוב מכונה XAI (קיצור של Explainable AI, או בינה מלאכותית שניתנת להסבר). "זו מגמה מאוד חזקה היום, שכל החברות הגדולות מתעניינות בה. אם פעם היית לוקח מודל של עץ החלטה והיית ממש רואה בעיניים איך כל פרמטר משוקלל ומשפיע על התוצאה הסופית, אז במודלים של הרשתות העמוקות שקיימות היום מאוד קשה להבין מה משפיע על התוצאה, ולכן יש מאמץ מאוד גדול לבנות מודלים שמתלבשים על המודלים הקיימים, והם מנסים לחקות אותם בצורה שתאפשר לקבל מהם תובנות ניתנות להסבר. תחשוב למשל על אפליקציה רפואית שמנתחת תמונות MRI ויודעת להצביע על חולה מסוים שברמת מובהקות של 83% יש לו סוג מסוים של סרטן ריאה, אבל עכשיו המודלים החדשים יידעו גם להסביר מדוע אפליקציית ה-AI הגיעה למסקנה הזאת. בעיבוד תמונה יש מודלים של XAI שממש צובעים את הפיקסלים בתמונה שגרמו לאפליקציה לתת את ההמלצה שקיבלת - ואז לדוגמה יוכלו להציג לך את האזור בצילום הריאה שהוא זה שעל סמך המראה שלו קיבלה המערכת את ההמלצה הספציפית שלה.
"תובנה שכזו לא רק מעלה את האמון בין המשתמש האנושי לאפליקציית הבינה המלאכותית אלא מאפשרת משוב חוזר מהמומחה האנושי למערכת. לדוגמה, ב-2016 נתנו למודלים מורכבים כאלה לסווג תמונות של כלבים ושל זאבים, וכלב האסקי סיבירי סווג על-ידי המערכת בטעות כזאב. החוקרים לא ידעו מדוע המערכת טעתה בסיווג ורק כשהם הפעילו את המודלים של ה-XAI וביקשו מהמערכת שנותנת את התובנות להצביע איזה פיקסלים בתמונה היו אלו שבגללם היא סיווגה את הכלב כזאב, התברר שהרבה מהם היו בכלל שייכים לרקע המושלג של התמונה. למה זה קרה? כי בבסיס הנתונים שלפיה המערכת למדה לסווג תמונות, הזאבים הופיעו כמעט תמיד עם רקע מושלג והמערכת החליטה על סמך הרקע המושלג הנפוץ שזה פיצ'ר שכנראה אופייני לחיה 'זאב'. לכן, ברגע שאין לך אפשרות להסביר את המודל, אתה לא יודע מדוע המערכת טעתה, ואז אתה לא יכול לתקן את הטעויות שלה".
בן-גל אומר שהמודלים של XAI ייכנסו לאפליקציות רפואיות ועסקיות רבות ויאפשרו אינטראקציה הרבה יותר טובה בין מומחים אנושיים למערכות הבינה המלאכותית. "אנשים יבינו מדוע המערכת קיבלה את ההחלטה שלה ויוכלו לתת לה פידבק. במקרה של הזאב, המומחה יאמר למערכת שרקע מושלג הוא לא תכונה שמתארת זאב. יש מערכות אחרות לדוגמה שמחליטות אם אדם זכאי או לא זכאי לקבל הלוואה או משכנתא. מערכות כאלו מנתחות במהירות את האינפורמציה על המועמד ומשוות אותו לסיטואציות של הלוואות בעבר ומקבלות החלטה, אבל אם לבנקאי הייתה מערכת שמסבירה לו מדוע ההחלטה התקבלה, יכול מאוד להיות שהוא יבין שההמלצה הייתה מוטה ומפלה לרעה בגלל סיבה שלא גלויה לעין.
"באמזון למשל ראינו כבר מערכות שהפלו לרעה גיוס נשים ובשדות תעופה ראינו מערכות שהפלו לרעה אנשים כהי עור. בעקבות מקרים כאלו עברו תקנות GDPR שנקבע בהן שהיכולת להסביר את הסיבה והאופן שבו ההחלטה התקבלה חייבת להיות חלק מהמערכת ה-AI. אם למשל תרצה לדעת מדוע לא קיבלת משכנתא או מדוע בדקו את המזוודה שלך פעמיים בשדה, לא יוכלו להגיד לך ‘כי הקופסה השחורה החליטה כך' אלא יצטרכו להסביר לך למה".
טרנד חם נוסף שבן-גל מעריך שיהפוך להיות משמעותי יותר הוא זה שעליו מבוססת כלכלת השיתוף. "תחשוב על מערכת כמו אובר שמאפשרת לך לנצל בצורה יעילה מוצר כמו מכונית שרוב הזמן היא מושבתת. אני חושב שנראה הרבה יותר מערכות כאלו שנשענות בסופו של דבר על ענן וביג דאטה. ידעת למשל שבסביבות 50% מהאוכל המוכן בארה"ב נזרק לפח? ככל שהמערכות לומדות טוב יותר מה הצריכה שלך ושל סביבתך, הן יוכלו לחלק את המזון העודף בבניין או בשכונה שלך ועל-ידי כך לצמצם את הבזבוז. אז אולי לא נעביר אוכל מהמקרר שלך למקרר של השכן, אבל יהיה מעין מחסן שכונתי שתוכל לתת או לקחת ממנו מזון כי אתה צורך כרגע יותר והשכן צורך פחות".
בן-גל אומר כי מערכות שמשקללות פרמטרים אתיים ומוסריים יהפכו להיות נפוצות על מנת לתמוך במערכות הבינה המלאכותית שיעבדו סביבנו ללא הפסק. "חוקרים ב-MIT הציגו סרטונים של נהיגה אוטונומית למיליוני בני אדם בכל העולם והציגו להם סיטואציות של קבלת החלטות בנהיגה כדי להבין אם קיים קנה מידה של אתיקה אנושית משותפת. הם הגיעו למסקנה שבני אדם בעולם המערבי פועלים בסיטואציה מסוימת על-פי אמת מידה אחת, שבמדינות אסיה אנשים פועלים אחרת באותו מצב, ושגם לבני אדם באמריקה הלטינית ובמדינות כמו ספרד ופורטוגל יש מערכת קבלת החלטות אופיינית להם".
המשמעות היא שבעתיד, מכוניות אוטונומיות יותאמו גם מבחינה אתית ומוסרית למדינות שבהן הן יסיעו אנשים, כלומר יהיה צורך לכתוב עבורן קוד ספציפי שיביא את ההעדפות הללו בחשבון כדי שיוכלו לחקות בצורה הטובה ביותר את מערכת קבלת ההחלטות של הנהגים האנושיים הפועלים בהן. כך למשל, החוקרים מצאו כי למרות ההבדלים השונים בגישות האתיות והמוסריות בחלקי העולם השונים, היו כמה עקרונות שחיברו בין המשתתפים בניסוי.
בדילמה שבין הצלת חיי אדם להצלת בעל חיים היה קונצנזוס לטובת האדם; בדילמה שבין פגיעה בלתי נמנעת במספר קטן של אנשים לפגיעה במספר רב שלהם, הנשאלים הסכימו שהמכונית אכן צריכה לפגוע בקבוצה הקטנה יותר על מנת להציל את הקבוצה הגדולה. מסקנה אחרת שעלתה מהניסוי הייתה שבעוד שבשתיים מהקבוצות אנשים אמרו כי עדיף שהמכונית תפגע בבני אדם מבוגרים יותר ותעדיף להציל ילד על פני מבוגר או תינוק על פני ילד, באסיה הנסיינים ראו את הדברים אחרת ושקלו את ערך חיי האדם בצורה שוויונית יותר מבחינת הגיל.
על אף שבן-גל רואה במכונית האוטונומית אפליקציה שמכילה בתוכה את כל הטרנדים החמים של העשור הקרוב (גרעיניות, כלכלת שיתוף, שימוש ברשתות עמוקות, XAI, וכמובן שגם פוטנציאל כלכלי גבוה), הוא סבור שייקח זמן עד שמכוניות כאלו יופיעו בהמוניהן על הכבישים. "אני חושב שנראה הרבה יותר כלי רכב חצי אוטונומיים - נניח אוטובוסים - שליד ההגה יהיה נהג שיוכל לקחת את ההגה לידיים ברגע של סכנה. נראה שימוש בכלי רכב אוטונומיים בקווים קבועים, כמו למשל משאיות שנוסעות בלילה בנתיבים מאוד ארוכים ובאזורים שיש בהן נראות גבוהה ועומס נמוך. מערכות כאלו נראה כבר תוך חמש שנים, אבל אם אתה שואל אותי אם נראה עד אז ערים שמוצפות במכוניות אוטונומיות ושהנהגים בעצם ייעלמו בהן מהכבישים, אז זה ייקח לדעתי יותר זמן. תוך עשר שנים נוכל לראות בערים מאוד מתקדמות שכונות ואזורים שיש בהן יותר מכוניות אוטונומיות, אבל לא באופן בלעדי".
בן-גל מוסיף שהוא לא חושש מאפשרות של אפוקליפסה שבה המכונות נלחמות בבני האדם, אבל מוטרד מאוד מהאפשרות שהפערים בין בני האדם שיודעים לעבוד עם מערכות בינה מלאכותית ולנצל אותן לבין אלו שלא יודעים לעבוד איתן יילכו ויתרחבו. "זו בעיניי הסכנה האמיתית והמוחשית במהפכת הבינה מלאכותית. בכל פעם שהאנושות התקדמה, נוצרו או התרחבו פערים בין בני אדם או מדינות שידעו לאמץ את השינויים לבין אלו שלא ידעו ונשארו מאחור. אם לא תהיה בתחום הזה רגולציה ברורה שתסדיר את השימוש החברתי בידע כפי שיש בכל תחום תשתיתי אחר, הפערים שייווצרו יהיו גדולים מאוד ואוכלוסיות שלמות תסבולנה מהמהפכה הזאת אם דרך אובדן תעסוקה ואם דרך ירידה בהכנסות".