"עשיתי טעות אחת גדולה בחיי", כתב אלברט אינשטיין במכתב מ- 1969 לרונאלד קלארק, מחבר הביוגרפיה שלו, "זה היה כאשר חתמתי על המכתב לנשיא רוזוולט שממליץ על פיתוח פצצת אטום". על אף שאינשטיין לא פיתח את הפצצה באופן ישיר, עבודתו האקדמית והמחקרית איפשרה בסופו של דבר את ייצורה. המכתב עליו הצטער אינשטיין נשלח לאחר שנודע כי הגרמנים מנסים לפתח פצצה בעצמם. אז החל מירוץ חימוש שהסתיים בייצור ושימוש אמריקאי בפצצת אטום, שגרם נזק בסדר גודל שכמותו לא היה עד אז ולא מאז, ושתוצאותיו ניכרות עד היום. המרוץ לאטום, אגב, טרם נפסק.
● הסניף הישראלי של בנק ההייטק שקרס עובר לענקית בינלאומית | בלעדי
● המתחרה הגדולה של אנבידיה פרסמה דוחות מאכזבים. מה צפויות להיות ההשלכות על שוק השבבים? | ניתוח
ג'פרי הינטון, מי שנחשב לחלוץ בפיתוח הבינה המלאכותית, הודיע ביום שני האחרון כי התפטר מענקית הטכנולוגיה גוגל ובראיון שהעניק לניו יורק טיימס אמר כי הוא מתחרט על מפעל חייו. כעת הוא מזהיר מהסכנות הטמונות בהמשך פיתוח הבינה המלאכותית ולא פחות מזה - מהסכנות הטמונות במירוץ האגרסיבי של החברות הגדולות לייצר עוד ועוד מוצרים המושתתים על הטכנולוגיה. אפשר לומר כי הבינה המלאכותית עדיין מצויה בראשית דרכה, אף שבראיון אחרון אמר דביס חסאביס, מנכ"ל דייפמיינד (Deepmind), מעבדת AI בבעלות גוגל, שלדעתו, מה שמכונה AGI, או בינה מלאכותית חזקה - (בינה השווה או מתעלה על בינתו של האדם, מ"ו) נמצאת במרחק נגיעה.
לאחר קרירה של מעל עשור בגוגל ובגיל 75, פרישה איננה אירוע חריג. ועדיין, הינטון מתעקש שעזב מפני שהיה לו חשוב, לדבריו, להתבטא בפומבי נגד הבינה המלאכותית. הוא לא הרגיש בנוח לעשות זאת כל עוד החזיק במשרתו בגוגל והעדיף שלא לצאת כנגד החברה עצמה. באותו ראיון אף הוסיף כי לדעתו גוגל פועלת באחריות רבה בהקשר של פיתוח הבינה המלאכותית.
החשש המיידי: פייק ניוז
הינטון אמר כי אחד החששות המיידים שלו באשר לנזק שייגרם על ידי הבינה המלאכותית היא היכולת שלה להפיץ ולהציף את הרשת במידע שגוי, מה שלדבריו יקשה על האדם הממוצע להבדיל בין אמת לשקר ולהבין מה נכון ומה לא. הינטון גם חושש מההשפעה שתהיה לבינה המלאכותית על שוק העבודה. משרות רבות עלולות להיכחד, ואי הוודאות באשר למספר התחומים והענפים בהם אנשים עלולים לאבד את עבודתם גדולה לאין שיעור.
מעל כל אלה מרחף החשש העתידי מפני סכנה לעתיד האנושות - לבינה המלאכותית קיימת היכולת ללמוד ולחקות התנהגויות בלתי צפויות מתוך כמויות עצומות של נתונים מאינספור מקורות. לדידו של הינטון מדובר בבעיה עצומה: משתמשים פרטיים וחברות לא רק מאפשרים לבינה המלאכותית לייצר קוד אלא גם להריץ אותו באופן עצמאי. עבורו, לא ירחק היום שבו גם כלי נשק אוטונומיים יהפכו למציאות.
הינטון, ככל הנראה, מנסה להציל את מורשתו כחוקר שמבקש לשפר את העולם באמצעות הקידמה. בניגוד לו, היו כאלה שעל אף שהיו מודעים לנזק הטמון בהמצאותיהם בחרו להסתיר זאת. אחד מהם הוא תומס מידג'לי, שזוכה לעיתים קרובות לכינוי "הממציא המזיק בהיסטוריה". מידג'לי, מהנדס מכונות וכימאי, פיתח את תוסף העופרת לבנזין שהתגלה כמזיק ורעיל לבני אדם, וגם אחראי על וריאנט של גז הפריאון המשמש בין היתר במזגנים ובמקררים, שהתגלה כמזהם מאסיבי לסביבה. מידג'לי זכה בפרסים רבים בחייו והמצאותיו היו פופולריות ונמצאו בשימוש נרחב. הוא גם היה מודע לסכנותיה של העופרת, ואף הורעל ממנה בעצמו. אבל הוא בחר להסתיר זאת והיו לכך קרובנות בנפש והשלכות סביבתיות עגומות.
החשש מפני התפתחות מהירה של AI הולך וגובר
הינטון מצטרף לשורה הולכת וגדלה של בכירים בתעשייה ובאקדמיה שמבקרים את האצת פיתוח הבינה המלאכותית. בחודש מרץ, התפרסם מכתב פתוח בחתימתם של אילון מאסק, סטיב ווזניאק ויובל נח הררי, שמזהיר מפני הסכנות הטמונות בבינה המלאכותית לחברה ולאנושות, קורא להשהות את המשך הפיתוח לשישה חודשים לפחות, ולהשתמש בהפסקה זו כדי לפתח ולהטמיע פרוטוקלי בטיחות משותפים לגבי התכנון והפיתוח של הבינה המלאכותית. הפרוטוקולים אמורים להיבדק בקפדנות ולעמוד בפיקוח של צוות מומחים חיצוניים בלתי-תלויים.
במכתב הבהירו השלושה כי אין האמור להפסיק לפתח את הבינה המלאכותית, אלא רק לקחת "צעד אחורה מהמרוץ המסוכן".
הבית הלבן אף הגדיל לעשות והודיע היום (ה') כי זימן שורת מנכ"לים מחברות מובילות ביניהן גוגל, מיקרוסופט, אנטרופיק ו-OpenAI לפגישה בה ידונו בסכנות הטמונות בבינה המאלכותית.
התומך הבולט בבינה המלאכותית: ביל גייטס
אל מול שורת המבקרים, יש גם בכירים בתעשייה שמתבטאים לטובתה. הבולט שבהם הוא ביל גייטס, שבחודש מרץ פרסם בבלוג שלו מאמר תחת הכותרת "The Age of AI has begun", בו מנה את התועלת שטכנולוגיה זאת מסוגלת להביא לעולם בחינוך, בצמצום הפערים ואי השיוויון הגלובלי, בעולם הבריאות ואף אל מול משבר האקלים.
הבינה המלאכותית, טוען גייטס, תוכל להכיר את תחומי העניין של כל תלמיד ואת האופן שבו הוא מעדיף ואוהב ללמוד ולהתאים את עצמה לכך. הדבר ישפר לאין שיעור את הקשב והריכוז של התלמידים ולהפוך את הלמידה למועילה וטובה יותר. הבינה המלאכותית תוכל לאמוד את מידת ההבנה של תלמידים, היא תשים לב מתי הם מאבדים עניין וריכוז ותוכל לאפיין את המוטיבציות שמעודדות את התלמידים השונים להמשיך וללמוד. לפי גייטס, אין ספק שהבינה המלאכותית תסייע באופן מקיף בצמצום הפערים בחינוך, מה שיוביל בהמשך לצמצום פערים כלכליים.
גייטס התייחס גם לטענות כנגד הבינה המלאכותית, בין אם אלה נוגעות להפצת מידע כוזב או מפיקות עובדות שגויות. עבורו מדובר בבעיה שאינה יסודית ושעתידה להיעלם עם המשך הפיתוח. גם הטענה כאילו כוחות רעים עלולים לעשות בה שימוש מסוכן יכולה להפתר עם רגולציה ופיקוח מתאימים. אבל האם יתממש תרחיש האימים שבו יעלו המכונות, יהפכו עצמאיות ויחדלו לפעול לפי הוראות שקיבלו מבני האדם? על כך אומר גייטס: החשש היה קיים עוד טרם הומצאה הבינה המלאכותית. כיום הוא אינו דחוף יותר ממה שהיה לפני מספר שנים.
בינתיים, פיתוחה של הבינה המלאכותית איננו עוצר. יעידו על כך הגרסאות המתקדמות יותר ויותר של ChatGPT ובארד. גם לא נמצאה ולו חברה מסחרית אחת שהסכימה לעכב את תהליכי הפיתוח של הבינה המלאכותית של העתיד בשל שיקולים מוסריים. עם זאת, השאלות והלבטים של הינטון בדבר רגולציה ופיקוח ודאי יהדהדו בישיבות ההנהלה ובועדות הקונגרס שעוד יכונסו בנושא.
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.