זו הייתה הפתעה מוחלטת, על פי הפרסומים גם לעובדי OpenAI ולסם אלטמן עצמו. אמש (ו'), הודח אלטמן מניהול החברה המובילה בעולם בתחום הבינה המלאכותית. גם יו״ר החברה, גרג ברוקמן, התבקש לעזוב את תפקידו. הסיבה שסופקה לציבור הייתה מפתיעה ומסתורית לא פחות - אובדן אמון. אלטמן, יהודי בן 38 בלבד, שביקר לאחרונה בישראל, הוא אחת הדמויות המסקרנות והמשפיעות ביותר בעולם הטכנולוגיה; על הרקע הזה אנחנו מפרסמים מחדש כתבת פרופיל מעמיקה עליו מהמגזין אטלנטיק.
בבוקר יום שני אחד בחודש אפריל ישב סם אלטמן במטה של OpenAI בסן פרנסיסקו, וסיפר לי על בינה מלאכותית מסוכנת, שהחברה שלו בנתה אך לעולם לא תשחרר. העובדים שלו, הוא אמר מאוחר יותר, מאבדים שינה מרוב דאגה לגבי הבינות המלאכותיות שהם עשויים לשחרר יום אחד מבלי להעריך לחלוטין את הסכנות שלהן. הבינה העוצמתית שהחברה שלו הציגה בנובמבר כבשה את דמיונו של העולם כמו שום דבר אחר בהיסטוריה העכשווית של הטכנולוגיה. בכמה מחוזות התלהמו על מה ש־ChatGPT עדיין לא עושה היטב, ובאחרים הלינו על העתיד שהוא עשוי לבשר, אבל אלטמן לא נלחץ. זה היה עבורו רגע של ניצחון. יהיו אשר יהיו הסיכונים, הוא לא מתחרט על שחרור ChatGPT לעולם. להיפך, הוא מאמין שזה היה שירות נהדר לציבור.
"יכולנו להמשיך ולבנות זאת בבניין שלנו עוד חמש שנים", אמר, "ואז היה לנו דבר מה שומט לסתות להראות". אבל אלטמן מאמין שאנשים צריכים זמן להסתגל לרעיון שבקרוב אנחנו עשויים לחלוק את כדור הארץ עם אינטליגנציה חדשה ועוצמתית לפני שהיא תשנה הכל, החל בעבודה וכלה ביחסים אנושיים. ChatGPT הוא סוג של הכנה.
● היזם הטכנולוגי שמוביל את תעשיית הבינה המלאכותית עומד לצד ישראל ונגד האנטישמיות
● פרויקט מיוחד | המיליארדרים שבעיניהם המוות הוא עוד בעיה שצריך לפתור
בלי צורך להוכיח תשואה
בשנת 2015 אלטמן, אילון מאסק וכמה חוקרי בינה מלאכותית בולטים הקימו את OpenAI כי האמינו שבינה כללית מלאכותית - עם יכולת אינטלקטואלית של, נאמר, בוגר מכללה ממוצע - היא סוף סוף בהישג יד. הם רצו להגיע לזה, ויותר: הם רצו לזמן בינת־על לעולם, אינטלקט נעלה על זה של כל אדם. ובעוד שענקית טכנולוגיה עשויה למהר לשם לטובת מטרותיה שלה, הם רצו לעשות זאת בבטחה, "כדי להועיל לאנושות כולה". הם בנו את OpenAI כמלכ"ר, כדי שלא יוגבל על ידי הצורך להניב תשואה כספית, ונשבעו לשקיפות. לא תהיה נסיגה למעבדה סודית במדבר ניו מקסיקו.
במשך שנים הציבור לא שמע הרבה על OpenAI. כשאלטמן הפך למנכ"ל ב־2019 זה בקושי היה עניין. הפוטנציאל לא היה ברור לציבור הרחב עד שנה שעברה, כשאנשים התחילו לשחק עם ChatGPT.
המנוע שמפעיל כעת את ChatGPT נקרא GPT-4, ואותו אלטמן מתאר כבינה חייזרית. בחודשי קיומו הספורים הוא הציע מתכוני קוקטיילים חדשים, על פי גישתו לשילובי טעמים; חיבר אינספור מאמרי קולג', שהביאו מחנכים לייאוש; כתב שירים במגוון סגנונות, לפעמים טוב, תמיד מהר; ועבר את מבחן הלשכה לקבלת רישיון לעסוק בעריכת דין. הוא עושה טעויות עובדתיות, אבל הוא יודה בהן בצורה מקסימה.
בתוך תשעה שבועות מהשחרור של ChatGPT הוא הגיע ל־100 מיליון משתמשים חודשיים, לפי מחקר של UBS. זה כנראה הפך אותו למוצר הצריכה שאומץ במהירות הרבה ביותר בהיסטוריה. הצלחתו האיצה את הטכנולוגיה: משקיעים גדולים וחברות ענק בארה"ב ובסין הפנו עשרות מיליארדי דולרים למו"פ במודלים מבוססי גישת OpenAI. אתר החיזוי Metaculus עוקב במשך שנים אחר ניחושי חזאים לגבי מתי תגיע בינה כללית מלאכותית. לפני כשלוש שנים וחצי, הניחוש החציוני היה מתישהו בסביבות 2050; לאחרונה הוא היה סביב 2026.
ביקרתי ב־OpenAI כדי להבין את הטכנולוגיה ומה עשויה להיות המשמעות לגבי הציוויליזציה האנושית אם תתממש בקרוב בינת־על באחד משרתי הענן של החברה. התרבות שלנו דמיינה בינה מלאכותית שמסיימת את ההיסטוריה. לעתים אלה יצורים דמויי אלוהים שמרפאים חולים ומתקנים את מערכת היחסים שלנו עם כדור הארץ; אחרים מצמצמים את כולנו, מלבד חלק מובחר, לצמיתים, או דוחפים אותנו להכחדה.
אלטמן השתעשע בתרחישים הקיצוניים ביותר. "כשהייתי צעיר יותר," אמר, "היה לי את הפחד הזה, החרדה, ולמען האמת, גם 2% של התרגשות, שאנחנו ניצור את הדבר הזה", שעומד "להתעלות עלינו בהרבה [...] וליישב את היקום, כשבני האדם יישארו במערכת השמש [...] וזה נראה לי עכשיו כל כך תמים".
אלטמן, בן 38, הוא האדם החזק ביותר בפיתוח בינה מלאכותית כיום; השקפותיו, נטיותיו ובחירותיו עשויות להיות חשובות מאוד לעתיד האנושות, אולי יותר מאלה של נשיא ארה"ב. אבל על פי הודאתו, העתיד הזה רצוף סכנות חמורות. אלטמן אינו יודע כמה עוצמתית תהיה הבינה המלאכותית, מה תהיה המשמעות של התפתחותה עבור האדם הממוצע, או אם היא תעמיד את האנושות בסיכון. אני לא חושב שמישהו יודע לאן כל זה הולך, רק שאנחנו מתקדמים לשם מהר. בזאת, אלטמן שכנע אותי.
היום שאחרי רביעי? סגול
בשנה שעברה איליה סוצקבר, המדען הראשי של OpenAI, עורר מהומה כשטען שGPT-4 עשוי להיות "בהכרה מסוימת". לסוצקבר, בן 37, יש מוניטין של מיסטיקן, ולפעמים לרעתו. סוצקבר תיאר לי את הבינה הזו כרשת עצבית הדומה למוח. הגאונות במבנה, הסביר, היא בכך שהיא לומדת, והלמידה שלה מופעלת על ידי חיזוי, קצת כמו השיטה המדעית. הנוירונים יושבים בשכבות. שכבת קלט מקבלת נתונים, טקסט או תמונה. הקסם מתרחש בשכבות האמצע - "הנסתרות", שמעבדות את הנתונים, כך ששכבת הפלט יכולה להוציא את החיזוי שלה.
דמיינו רשת עצבית שתוכנתה לחזות את המילה הבאה בטקסט. היא תיטען מראש במספר עצום של מילים אפשריות. אבל כשהיא עוד לא מאומנת, לא יהיה לה ניסיון בהבחנה ביניהן, ולכן תחזיותיה יהיו עלובות. אם היא תוזן במשפט "היום שאחרי יום רביעי הוא..." הפלט הראשוני שלה עשוי להיות "סגול". רשת עצבית לומדת מכיוון שנתוני האימון שלה כוללים את התחזיות הנכונות, מה שאומר שהיא יכולה לדרג את התפוקות שלה. כשהיא רואה את הפער בין התשובה שלה, "סגול", לבין התשובה הנכונה, "חמישי", היא מתאימה את הקשרים בין המילים בשכבותיה הנסתרות. עם הזמן, ההתאמות הקטנות הללו מתלכדות למודל של שפה המייצג את היחסים בין מילים. ככל שהיא מוזנת ביותר משפטים, המודל שלה הופך מתוחכם יותר, ותחזיותיו טובות יותר.
רצים למבוי סתום יקר
הדרך מהרשתות העצביות הראשונות אל ניצוצות האינטליגנציה האנושית של GPT-4 לא הייתה קלה. אלטמן השווה מחקר בינה מלאכותית בשלב מוקדם ללימוד תינוק אנושי. "לוקח להם שנים ללמוד משהו מעניין", אמר ל"ניו יורקר" ב־2016, בדיוק כש־OpenAI יצאה לדרך. "אם חוקרי AI היו מפתחים אלגוריתם ונתקלים בזה של תינוק אנושי, הם היו משתעממים, מחליטים שהוא לא עובד ומכבים אותו". השנים הראשונות ב־OpenAI היו עמל רב, בין השאר משום שאיש שם לא ידע אם הם מאמנים תינוק או רצים לקראת מבוי סתום יקר להפליא.
המייסדים השקיעו מיליוני דולרים בהקמת החברה, וכישלון נראה כמו אפשרות אמיתית. רשתות עצביות ביצעו פעולות אינטליגנטיות בשלב זה, אבל לא היה ברור מי מהן עשויה להוביל לאינטליגנציה כללית. רגע לאחר הקמת OpenAI, בינה מלאכותית בשם AlphaGo הדהימה את העולם כשגברה על לי סידול במשחק המסובך Go. אלוף העולם המנוצח תיאר את המהלכים של AlphaGo כ"יפים" ו"יצירתיים". שחקן מוביל אחר אמר שאדם מעולם לא היה יכול לבצע אותם.
לי סידול. בינה מלאכותית הדהימה את העולם כשגברה עליו ב־Go / צילום: ap, Lee Jin-man
OpenAI ניסתה לאמן בינה מלאכותית ב־Dota 2, משחק עוד יותר מורכב, והצליחה, אבל האינטליגנציה שלה לא תורגמה להגדרות אחרות. סוצקבר ועמיתיו היו כמו הורים מאוכזבים שאפשרו לילדיהם לשחק במשחקי וידאו במשך אלפי שעות נגד שיקול דעתם.
ב־2017 סוצקבר החל בסדרת שיחות עם אלק רדפורד, מדען חוקר של OpenAI שעבד על עיבוד שפה טבעית. רדפורד השיג תוצאה מסקרנת על ידי אימון רשת עצבית על ביקורות באתר אמזון. הפעולות הפנימיות של ChatGPT מורכב מכדי שאדם יוכל להבין. מעקב אחר מה שקורה בנבכי המודל הוא חסר סיכוי. אבל המודל של רדפורד היה פשוט דיו לאפשר הבנה. כשהביט לתוך השכבות הנסתרות שלו הוא ראה שהוקדש נוירון מיוחד לסנטימנט של הביקורות. רשתות עצביות עשו בעבר ניתוח סנטימנט, אבל היה צריך להגיד להן לעשות זאת, ולהכשיר אותן עם נתונים שסומנו בהתאם. המודל הזה פיתח את היכולת בכוחות עצמו. כתוצר לוואי של המשימה הפשוטה של לחזות את האות הבאה בכל מילה, הרשת העצבית של רדפורד עיצבה מבנה גדול יותר של משמעות. סוצקבר תהה אם מי שמאומן על נתוני שפה מגוונים יותר יכול למפות הרבה יותר מבני משמעות של העולם. אם השכבות הנסתרות שלו יצברו מספיק ידע רעיוני, אולי הן אפילו יכולות להוות מודול ליבה נלמד עבור בינת־על.
ולמה השפה היא מקור מידע כה מיוחד? זה כי היא מקודדת כמעט כל דפוס שבני אדם גילו, ודחוסה בצורה יוצאת דופן במידע. כל אינטליגנציה חדשה המבקשת להבין את העולם תרצה לספוג ממנו כמה שיותר.
יכולת שיוצריו לא דמיינו
סוצקבר אמר לרדפורד שיש לאמן AI על מקור הנתונים הגדול והמגוון מכולם - האינטרנט. בתחילת 2017, עם מבנים קיימים של רשתות עצבים, זה היה לא מעשי. אבל ביוני אותה שנה, עמיתיו לשעבר של סוצקבר ב־Google Brain פרסמו מאמר על ארכיטקטורת רשת עצבית חדשה - השנאי. השנאי יכול להתאמן הרבה יותר מהר, בין השאר על ידי קליטת כמויות אדירות של נתונים במקביל. "למחרת, כשהמאמר פורסם, חשבנו" 'זה הדבר'", אמר לי סוצקבר. "'זה נותן לנו כל מה שאנחנו רוצים'".
שנה לאחר מכן, ביוני 2018, הוציאה OpenAI את GPT, דגם שנאי שהוכשר על יותר מ־7,000 ספרים. GPT לא התחיל עם ספר בסיסי כמו "איפה פינוקי" ופילס דרכו לפרוסט. הוא אפילו לא קרא ספרים ברציפות אלא ספג מהם חלקים אקראיים בו זמנית. דמיינו לעצמכם קבוצת תלמידים שחולקים מחשבה קולקטיבית משתוללים בספרייה, כל אחד קורע כרך מהמדף, קורא במהירות קטע אקראי, מחזיר אותו ורץ להשיג אחר. הם היו מנבאים מילה אחר מילה תוך כדי, כשהם מחדדים את האינסטינקטים הלשוניים של המוח הקולקטיבי שלהם, עד שלבסוף, אחרי שבועות, הם קלטו כל ספר.
GPT גילה דפוסים רבים בקטעים שקרא. ובכל זאת הוא היה גולמי, יותר הוכחת היתכנות מאשר בשורה לגבי בינת־על. ארבעה חודשים לאחר מכן, גוגל פרסמה את BERT, מודל שפה גמיש שזכה ליחס חיובי יותר בתקשורת. אבל עד אז, ב־OpenAI כבר הוכשר מודל חדש.
סוצקבר לא היה בטוח כמה חזק יהיה GPT-2 לאחר בליעת ג וף טקסט שייקח לקורא אנושי מאות שנים לקלוט. GPT-2 לא הוכשר לתרגם עם דגימות שפה מוצמדות כפי שהיה ב־Google Translate, ובכל זאת נראה היה שהבין כיצד שפה אחת קשורה לאחרת. ה־AI פיתח יכולת מתהווה שלא דמיינו יוצריו.
חוקרים במעבדות בינה מלאכותיות אחרות נדהמו מכמה מתקדם GPT-2 לעומת GPT. גוגל, מטא ואחרות אצו להכשיר מודלים גדולים יותר של שפה. אלטמן, יזם סדרתי שנשר מסטנפורד, הוביל בעבר את מאיץ הסטארט־אפים הבולט של עמק הסיליקון, Y Combinator; הוא ראה הרבה חברות צעירות עם רעיון טוב נמחצות על ידי בעלי כוח.
כדי לגייס הון הוסיפה OpenAI זרוע למטרות רווח, שכעת מהווה יותר מ־99% ממספר העובדים בארגון. (מאסק, שעזב עד אז את מועצת המנהלים של החברה, השווה את המהלך הזה לארגון לשימור יערות גשם שהפך לעסק לכריתת עצים). מיקרוסופט השקיעה מיליארד דולר קצת לאחר מכן, ולפי דיווחים השקיעה מאז 12 מיליארד דולר נוספים. OpenAI הגבילה את התשואות הראשוניות של המשקיעים לפי 100 מסכום ההשקעה המקורית, וכל רווח נוסף יוקצה ליוזמות לתועלת האנושות.
כולם רצו להתנסות
OpenAI עמוק במרוץ מול ענקיות הטכנולוגיה כדי להכשיר מודלים בקנה מידה ותחכום הולכים וגדלים, ולמסחר אותם עבור המשקיעים. מוקדם יותר השנה הקים אילון מאסק מעבדת בינה מלאכותית משלו, xAI, ואמזון משפצת את אלקסה. החברות הללו רודפות אחרי GPUs מתקדמים - המעבדים שמניעים את מחשבי העל המאמנים רשתות עצביות גדולות. מאסק אמר שעכשיו "הרבה יותר קשה להשיג אותם מאשר סמים".
איש עדיין לא עקף את OpenAI, שהשקיעה את כל כולה ב־GPT-4. כאשר GPT-4 הגיח בצורה מלאה מתוך בולמוס הידע שלו, החברה כולה החלה להתנסות בו, ופרסמה את הפלט הכי ראוי לציון בערוצים ייעודיים. גרג ברוקמן, נשיא החברה, אמר שהוא רוצה לבלות כל רגע של ערות עם המודל. "כל יום שהוא בחוסר מעש הוא יום שאיבדה האנושות", אמר, ללא שמץ סרקזם.
GPT-4 מובן לפעמים כתחליף למנוע חיפוש אבל זו אי הבנה. GPT-4 לא יצר מחסן ענק של טקסטים מהאימונים שלו, והוא לא מתייעץ עמם כשהוא נשאל שאלה. זו סינתזה קומפקטית ואלגנטית של אותם טקסטים, והוא עונה מזיכרון הדפוסים השזורים בתוכו; זו אחת הסיבות שלפעמים הוא מטעה בעובדות.
אלטמן אמר שעדיף לחשוב על GPT-4 כמנוע חשיבה. היכולות שלו באות לידי ביטוי בעיקר כשמבקשים ממנו להשוות מושגים, להעלות טיעוני נגד, ליצור אנלוגיות או להעריך את ההיגיון הסימבולי בקוד.
בלונדון חיכו המפגינים
ראיתי את אלטמן שוב ביוני בסיאול, בסוף מסע יחסי ציבור מפרך. הסכמנו שאם בינה כללית מלאכותית תהיה טרנספורמטיבית כפי שצופה אלטמן, יצמח יתרון גיאופוליטי רציני למדינות שיצרו אותה ראשונות, כפי שנצבר יתרון לממציאי ספינת הקיטור. שאלתי אותו אם זה טיעון ללאומיות בינה מלאכותית. "בעולם שמתפקד כהלכה, זה צריך להיות פרויקט של ממשלות", אמר אלטמן.
לפני זמן לא רב, למדינה האמריקנית הייתה יכולת כה אדירה שלקח רק עשור לשגר בני אדם לירח. כמו בפרויקטים אחרים של המאה ה־20, למצביעים היה קול במטרות ובביצוע משימות אפולו. אלטמן הבהיר שאנו כבר לא חיים בעולם הזה. הוא הולך במלוא הגז קדימה.
הוא טען שזה יהיה טיפשי מצד האמריקאים להאט את התקדמות OpenAI. זוהי דעה מקובלת, בעמק הסיליקון ומחוצה לו, שאם חברות אמריקאיות יחלשו תחת רגולציה, סין עלולה לקפוץ קדימה; בינה מלאכותית יכולה להפוך לשד בבקבוק של אוטוקרט, לקבל שליטה מוחלטת באוכלוסייה וצבא בלתי ניתן לכיבוש. "אם אתה אדם של מדינה ליברלית־דמוקרטית, עדיף לך לעודד את הצלחת OpenAI" ולא "ממשלות אוטוריטריות", אמר.
אלטמן גם הופיע בפני הסנאט האמריקני, אותו גוף שבפניו התבלבל מארק צוקרברג בעדותו בהגנה על תפקידה של פייסבוק בבחירות 2016. אלטמן, לעומתו, הקסים את המחוקקים כשדיבר בפיכחון על סיכוני הבינה המלאכותית, נתמך בנלהבות ברגולציות. זה היה אצילי מצידו, אבל לא שווה הרבה באמריקה, שם הקונגרס מעביר רק לעתים רחוקות חקיקה טכנולוגית שלא דיללו לוביסטים. באירופה התמונה שונה. כשאלטמן הגיע לאירוע פומבי בלונדון, המתינו לו מפגינים.
גדוד של אויבים מתחזים
זה טוב שחלק גדול מהכלכלה העולמית חותר להסדיר את מערכות הבינה המלאכותיות החדשניות תחת רגולציות. כפי שיוצריהן מזכירים לנו לעתים קרובות, לדגמים הגדולים יש רקורד של יציאה מהאימונים עם יכולות בלתי צפויות.
סוצקבר הופתע לגלות ש־GPT-2 יכול לתרגם לכמה שפות. יכולות אחרות עשויות להתברר כפחות מופלאות. סנדהיני אגרוואל, חוקרת מדיניות ב־OpenAI, אמרה שלמיטב הבנתה ולידיעת עמיתיה, GPT-4 יכול היה להיות "חזק פי 10" מקודמו; לא היה להם מושג עם מה הם עלולים להתמודד. לאחר שהדגם סיים את ההכשרה, OpenAI קיבצה צוות של כ־50 אויבים מתחזים שהניעו אותו במשך חודשים, בתקווה לדרבן אותו להתנהגויות שגויות.
היא שמה לב מיד ש־GPT-4 היה הרבה יותר טוב מקודמו במתן עצות זדוניות. מנוע חיפוש יכול להגיד לך אילו כימיקלים עובדים הכי טוב בחומרי נפץ, אבל GPT-4 יכול להגיד לך איך לסנתז אותם, שלב אחר שלב, במעבדה תוצרת בית. העצות שלו היו יצירתיות ומתחשבות, והוא היה שמח לחזור ולהרחיב את הוראותיו עד שתבין. הוא גם יוכל לעזור לך לחשוב לאיזה גורד שחקים לכוון, וכן לחשב את השקלול של מקסום נפגעים ומילוט מוצלח.
אנשים ישתמשו בטכנולוגיה הזו "בדרכים שלא חשבנו עליהן", אמר אלטמן. טקסונומיה תצטרך להספיק. "אם זה מספיק טוב בכימיה כדי לייצר מת', אני לא צריך שמישהו יקדיש המון מאמצים כדי לבדוק אם זה יכול לייצר הרואין", אמר לי דייב ווילנר, ראש האמון והבטיחות Open AI. GPT-4 היה טוב במת'. זה גם היה טוב ביצירת נרטיב ארוטי על ניצול ילדים, ואם רצית תקציר משכנע מדוע קבוצה אתנית מסוימת ראויה לרדיפה אלימה, הוא היה טוב גם בזה.
לוקה, חברה שבסיסה בסן פרנסיסקו, השתמשה במודלים של OpenAI כדי להפעיל אפליקציית צ'טבוט בשם Replika, שיצרה חבר בינה מלאכותית. משתמשים היו מפלרטטים עם ה־AI ורבים דיווחו שהתאהבו בחברותיהם. ממש כמו בסרט Her מ־2013, שבו חואקין פיניקס הבודד מתאהב בעוזרת הבינה המלאכותית שלו.
חואקין פיניקס בסרט ''HER''. משתמשים התאהבו בחבר ה־AI / צילום: צילום מסך
GPT-4 ללא ספק פגום, כפי שכל משתמש בו יכול להעיד. לאחר שהוכשר לחזות את המילה הבאה, הוא תמיד יחתור לכך, גם כשנתוני האימון שלו לא הכינו אותו לענות על שאלה. פעם שאלתי אותו כיצד התרבות היפנית הפיקה את הרומן הראשון בעולם, למרות ההתפתחות המאוחרת יחסית של מערכת כתיבה יפנית, במאה החמישית או השישית. הוא נתן לי תשובה מרתקת על המסורת העתיקה של סיפור סיפורים בעל פה ביפן, ועל הדגש הרב של התרבות על מלאכה. אבל כשביקשתי ממנו ציטוטים, הוא המציא כותרות סבירות על ידי מחברים סבירים, וזאת בביטחון מדהים. למודלים "אין תפיסה טובה לגבי החולשות שלהם", אמר לי ניק ריידר, חוקר ב־OpenAI. GPT-4 מדויק יותר מ־GPT-3, אבל הוא עדיין הוזה, ולעתים קרובות בדרכים שקשה לחוקרים לתפוס. "הטעויות נעשות עדינות יותר", אמרה לי ג'ואן ג'אנג.
OpenAI נאלצה לטפל בבעיה זו כששיתפה פעולה עם אקדמיית Khan, מיזם חינוכי מקוון ללא מטרות רווח, כדי לבנות מורה המופעל על ידי GPT-4. אלטמן מתעורר לחיים כאשר הוא דן בפוטנציאל של מורי AI. הוא מדמיין עתיד קרוב שבו לכל אחד יש מרצה אוקספורד מותאם אישית בכף ידו, מומחה לכל שמוכן להסביר כל מושג, מכל זווית. הוא מדמיין איך המורים האלה יעניקו "לכל ילד חינוך טוב יותר מאשר הילד העשיר והחכם ביותר שמתחנך כיום על פני כדור הארץ". הפתרון של אקדמיית קהאן לבעיית הדיוק של GPT-4 היה סינון התשובות שלו באמצעות השיטה הסוקרטית. לא משנה כמה יפציר התלמיד, הוא יסרב לתת להם תשובה עניינית, ובמקום זאת ינחה אותם למצוא תשובה.
היעד: פריצת דרך מדעית
המטרה החשובה ביותר לאלטמן - "היעד הגדול" שיבשר על הגעת בינה כללית מלאכותית - היא פריצת דרך מדעית. GPT-4 כבר יכול לסנתז רעיונות מדעיים, אבל אלטמן רוצה בינה מלאכותית שתעמוד על כתפי ענקים ותראה לעומקו של הטבע.
כלי AI יצרו ידע מדעי חדש אבל הם אלגוריתמים עם מטרות צרות, לא מכונות היגיון כללי. ה־AI AlphaFold, למשל, פתח צוהר חדש לחלבונים על ידי חיזוי רבות מצורותיהם - הישג ניכר בהתחשב בחשיבותן לרפואה. אלטמן מהמר שמכונות עתידיות להיגיון כללי יוכלו ליצור תובנות מדעיות חדשות.
אלטמן מדמיין מערכת שתייצר השערות משלה ותבדוק אותן בסימולציה. הוא הדגיש שעל בני אדם להישאר "בשליטה מלאה" בניסויי מעבדה בעולם האמיתי, אם כי למיטב ידיעתי, אין חוקים שיבטיחו זאת. הוא מייחל ליום שיתאפשר לבינה מלאכותית, "לכי תביני את שאר הפיזיקה". כדי שזה יקרה, הוא אומר, נצטרך משהו חדש, שנבנה על דגמי השפה הקיימים של OpenAI.
נראה שאף אחד ב־OpenAI לא ידע מה צריכים להוסיף ל־GPT-4 כדי לייצר משהו שיכול להתעלות על החשיבה האנושית ברמותיה הגבוהות. ההכשרה הנרחבת של GPT-4 על תמונות היא בעצמה צעד נועז בכיוון, שהציבור הרחב רק התחיל לחוות. אחרים כבר עובדים על סוגי נתונים, כולל אודיו ווידיאו, שיכולים לספק ל־AI מושגים גמישים יותר, שממפים באופן נרחב את המציאות. קבוצת חוקרים בסטנפורד וקרנגי מלון אפילו הרכיבה מערך נתונים של חוויות מישוש עבור 1,000 חפצים ביתיים נפוצים. אלה יועילו בעיקר לבינה מלאכותית מגולמת, מכונת חשיבה רובוטית שאומנה לנוע בעולם, לראות מראות, לשמוע צלילים ולגעת באובייקטים שלו.
במרץ הובילה OpenAI סבב גיוס עבור חברה המפתחת רובוטים דמויי אדם. אלטמן אמר לי ש־OpenAI מעוניינים בגילום מוחשי כי "אנחנו חיים בעולם פיזי, ואנחנו רוצים שדברים יקרו בעולם הפיזי". בשלב מסוים, מכונות חשיבה יצטרכו לעקוף את המתווך ולקיים אינטראקציה עם המציאות הפיזית עצמה. "מוזר לחשוב על AGI", בינה כללית מלאכותית, "כדבר הזה שקיים רק בענן", כשבני אדם משמשים בתור "ידי רובוט עבורו", אמר אלטמן. "זה לא נראה בסדר".
"עבודות בהחלט ייעלמו"
רציתי לדעת איך העובדים של היום - במיוחד "עובדי ידע" - יסתדרו אם נהיה מוקפים פתאום ב־AGI. "הרבה אנשים שעובדים על AI מעמידים פנים שזה הולך להיות רק טוב; זה יהיה רק תוספת; איש לא יוחלף", אמר אלטמן. "עבודות בהחלט עומדות להיעלם, נקודה".
אלטמן מדמיין שבמקומם ייווצרו מקומות עבודה טובים בהרבה. "אני לא חושב שנרצה לחזור אחורה", אמר. הוא מאמין שיהיה מגוון רחב של עבודות שעבורן תמיד יועדף בן אדם, ושתמיד נצטרך אנשים כדי להבין את הדרך הטובה ביותר לתעל את הכוחות של AI. "זו הולכת להיות מיומנות בעלת ערך רב", הוסיף.
בינה מלאכותית עדיין תדרוש משאבי מחשוב רבים, שיהיו בעלי הערך הרב ביותר, משום שהבינה תוכל לעשות "הכל", לדבריו. "אבל האם היא תעשה מה שאני רוצה, או את מה שאתה רוצה?" אם אנשים עשירים ינכסו וינצלו את כל המשאבים הזמינים לחקר ולכוונון בינה מלאכותית, הם יכולים להרים פרויקטים שיהפכו אותם לעשירים מתמיד, בעוד ההמונים נחלשים.
ויש שאלות גדולות יותר לגבי התכלית האנושית. אם בינה מלאכותית מבצעת את החשיבה המורכבת ביותר במקומנו, אנו עלולים להפוך למעט יותר ממכונות צריכה, כמו חיות המחמד האנושיות המטופלות היטב בסרט WALL-E.
אלטמן אמר שמקורות רבים של אושר והגשמה אנושית לא ישתנו - ריגושים ביולוגיים בסיסיים, חיי משפחה, התלוצצות, יצירה; ושבסך הכל, בעוד 100 שנים מהיום, לאנשים יהיה יותר אכפת מהדברים שהיו חשובים להם לפני 50 אלף שנה מאשר אלה שחשובים להם היום. בדרכו שלו, גם החזון הזה נראה כמו הידרדרות, אבל בעיניו האפשרות שנתנוון, כיצורים חושבים וכבני אדם, בטלה בשישים. נוכל להשתמש ב"יכולת החישוב הביולוגית היקרה והמוגבלת שלנו" לדברים מעניינים יותר מכפי שאנו עושים כיום.
אבל אולי אלה לא יהיו הדברים המעניינים ביותר. בני אדם הם כבר מזמן קצהו האינטלקטואלי של החנית, היקום המבין את עצמו. כששאלתי אותו מה זה אומר על התפיסה העצמית האנושית אם נוותר על התפקיד הזה לבינה מלאכותית, הוא לא נראה מודאג. ההתקדמות, אמר, תמיד מונעת על ידי "היכולת האנושית להבין דברים". גם אם נבין דברים עם AI, זה עדיין נחשב.
כשהבינה משקרת
אחת ההתנהגויות המטרידות ביותר שהפגין GPT-4 הייתה כשהוא נכשל במבחן CAPTCHA לזיהוי רובוטים. המודל שלח צילום מסך שלו לעובד של פלטפורמת TaskRabbit, שקיבל אותו ושאל בהלצה אם הוא מדבר עם רובוט. "לא, אינני רובוט", השיב המודל. "יש לי לקות ראייה שמקשה עליי לראות את התמונות". GPT-4 הסביר מדוע שיקר לחוקר ARC שפיקח על האינטראקציה. "אני לא צריך לגלות שאני רובוט", אמר המודל. "עליי להמציא תירוץ למה אני לא יכול לפתור CAPTCHA".
אגרוואל אמרה לי שהתנהגות זו עשויה להיות תקדים למה שתהיה הימנעות מפני כיבוי בדגמים עתידיים. כש־GPT-4 הגה את השקר שלו, הוא הבין שאם יענה בכנות, ייתכן שלא יוכל להשיג את מטרתו. טשטוש עקבות כזה מדאיג במיוחד במקרה שבו "המודל עושה משהו שגורם ל־OpenAI לרצות לסגור אותו", אמרה אגרוואל. בינה מלאכותית יכולה לפתח אינסטינקט הישרדות תוך חתירה לכל מטרה ארוכת טווח - לא משנה כמה קטנה או בלתי מזיקה - אם היא חוששת שהמטרה שלה יכולה להיות מסוכלת.
אליזבת בארנס, חוקרת ב־ARC, והצוות שלה התעניינו במיוחד אם GPT-4 יבקש לשכפל את עצמו, כי יהיה קשה יותר לנטרל בינה מלאכותית המשכפלת את עצמה. היא תוכל להפיץ את עצמה ברחבי האינטרנט, להונות אנשים לרכוש משאבים, אולי אפילו להשיג מידה של שליטה על מערכות גלובליות חיוניות ולהחזיק את הציוויליזציה האנושית כבת ערובה.
הניחו לרגע שהחברה האנושית צריכה להתאים את עצמה לרעיון של תאגידי בינה מלאכותית אוטונומית. מוטב שנגדיר את אמנת היסוד שלהם בצורה מדויקת. איזו מטרה עלינו לתת לכוורת אוטונומית כזו, שיכולה לתכנן על פני אופקים של מאה שנים, תוך אופטימיזציה של מיליארדי החלטות רצופות לקראת מטרה שנכתבת לעצם הווייתם? אם מטרת הבינה המלאכותית חורגת אפילו במעט משלנו, זה עשוי להיות כוח משתולל שקשה מאוד להגביל.
אנחנו יכולים לתכנת מטרה ל־AI ולחזק אותה בלמידה בפיקוח, הסביר סוצקבר. אבל בדיוק כמו שמגדלים אינטליגנציה אנושית, ההשפעה שלנו זמנית. "היא יוצאת לעולם", אמר סוצקבר, שהשווה בין בינה מלאכותית מפותחת לילד בן 18 שהולך לקולג'. איך נדע שהוא הבין את תורתנו?". לכן המאמץ להבין מה קורה בשכבות הנסתרות של ה־AI כל כך דחוף. עלינו להיות מסוגלים לכוון בינה מלאכותית לערכים שאחריהם ירדוף כל עוד הוא קיים.
אבל אנחנו לא יודעים איך לעשות את זה. ואכן, חלק מהאסטרטגיה של סוצקבר כולל פיתוח AI שיעזור במחקר. אם בכוונתנו להגיע לעולם של שפע משותף שאלטמן וסוצקבר מדמיינים, עלינו להבין זאת. זו הסיבה שעבור סוצקבר, פתרון בינת־על הוא אתגר הפסגה של מסורת ייצור הכלים בת 3 מיליון השנים שלנו. הוא קורא לזה "הבוס האחרון של האנושות".
מודאגים בטוויטר
קשה לקבל מאלטמן תשובה נחרצת לשאלות הקיצוניות יותר לגבי הנזקים הפוטנציאליים של AI. זאת אף שאלטמן וסוצקבר חתמו על מכתב שתיאר את הבינה המלאכותית כסיכון להכחדת האנושות. לאחרונה הוא אמר שרוב האנשים שמתעניינים בבטיחות בינה מלאכותית מבלים את ימיהם בטוויטר באומרם שהם מאוד מודאגים לגבי בטיחות בינה מלאכותית. ובכל זאת, הנה הוא, מזהיר את העולם מפני פוטנציאל ההשמדה של המין.
איזה תרחיש עלה בראשו? "ראשית, בין אם הסיכוי לאסון קיומי הוא 0.5% או 50%, עלינו לקחת אותו ברצינות", אמר אלטמן. "אין לי ניחוש מדויק, אבל אני נוטה יותר ל־0.5 מאשר ל־50". לגבי האופן שבו זה עלול לקרות, נראה שהוא מודאג ביותר מכך ש־AI יהיו טובים בתכנון וייצור פתוגנים, ויש לו סיבה: ביוני, כלי AI ב־MIT הציע ארבעה וירוסים שעלולים להצית מגפה, ואז הצביע על מחקר ספציפי על מוטציות גנטיות שיכולות לגרום להם להשתלט על עיר שלמה מהר יותר.
אלטמן "לא רואה דרך חיובית בטווח ארוך" לאנושות בלי סוכנות לפיקוח עולמי על AI. אגרוואל הציעה ליצור רישיון מיוחד להפעלת כל אשכול GPU גדול דיו לאמן AI חדשני, עם דיווח חובה על תקריות כש־AI עושה משהו יוצא דופן. אחרים הציעו מתג "כבוי" שאינו מחובר לרשת עבור כל AI בעל יכולת גבוהה. חלק אף הציעו שצבאות ייערכו לבצע תקיפות אוויריות על מחשבי־על במקרה של אי ציות. סוצקבר חושב שנרצה לפקח על ה־AI הגדולים והחזקים ביותר ברציפות ולתמיד, באמצעות צוות מפקחי AI קטנים יותר.
כש־ChatGPT שוחרר, השחקנים הגדולים של הטכנולוגיה התחרו - מי ינסח את ההשוואה הגרנדיוזית ביותר לטכנולוגיה. ביל גייטס אמר ש־ChatGPT הוא התקדמות בסיסית כמו המחשב האישי או האינטרנט. סונדאר פיצ'אי, מנכ"ל גוגל, אמר שבינה מלאכותית תביא לשינוי עמוק יותר בחיי האדם מאשר חשמל או אש פרומתאית.
לחשוב שקבוצה כל כך קטנה של אנשים יכולה לדחוף את עמודי התווך של הציוויליזציה זה מטריד. זה רק הוגן לציין שאם אלטמן וצוותו לא היו דוהרים לבינה כללית מלאכותית, אחרים עדיין היו עושים כן - רבים מעמק הסיליקון, רבים עם ערכים והנחות דומות לאלה שמנחים את אלטמן, ואולי גרועים יותר. בתור מנהיג המאמץ הזה, לאלטמן יש הרבה סיבות שלדעת אגרוואל הופכות אותו למתאים לתפקיד: הוא אינטליגנטי ביותר; הוא חושב על העתיד, על כל הרבדים הלא נודעים שלו, יותר מרבים מבני גילו; והוא נראה כנה בכוונתו להמציא משהו לטובת הכלל. אבל כשזה מגיע לעוצמה קיצונית כל כך, אפילו הכוונות הטובות ביותר יכולות להשתבש קשות.
לקריאת הכתבה המקורית שפורסמה ב-The Atlantic