המרוץ להובלת השוק בתחום הבינה המלאכותית (AI - Artificial intelligence) ממשיך לצבור תאוצה, מה שמשלהב ויכוח ער בין ענקי ומומחי טכנולוגיה: האם בינה מלאכותית היא הפתרון או סכנה לציוויליזציה? עשרות אלפים, בהם אנשי מפתח בתעשיית הטכנולוגיה ובראשם אילון מאסק, חתמו על מכתב שמפציר להשהות את "המרוץ המסוכן" לפיתוח בינה מלאכותית. מנגד, מפתחים בעולם ה־AI, אתיקאים בולטים בתחום ואפילו מייסד מיקרוסופט ביל גייטס, עבדו קשה בימים האחרונים כדי להגן על עבודתם.
בחודשים האחרונים, פותחו ושווקו לציבור מערכות המבוססות על בינה מלאכותית, אלה מתבססות על קפיצות מדרגה משמעותיות שנעשו בתחום. כך לדוגמה, כשמדברים על Chat-GPT, אותה מערכת שמאפשרת "לשוחח" עם בינה מלאכותית, היא מבוססת על מודלי שפה מתקדמים במיוחד בבינה מלאכותית. המערכות הללו כבשו את העולם במהרה. כך למשל מאז שמודל הבינה המלאכותית השיחתי Chat-GPT שוחרר לציבור בנובמבר 2022, כבר נעשה בו שימוש נרחב במגוון תחומים: ניסוח עצות בנדל"ן, אספקת טיפים לפתיחת עסק, כתיבת שירה וניהול שיחה כמו אנושית. עובדים ברחבי העולם משתמשים בו ובכלים אחרים מתחום הבינה המלאכותית כדי להקל על העבודה היומיומית שלהם.
קפיצת המדרגה המשמעותית והאימוץ המהיר גרמו לאנשי מפתח ומומחים רבים בתעשיית הטכנולוגיה להרים דגל אדום גדול: באחרונה, פורסם מכתב החתום על ידי "מכון עתיד החיים" שקורא להשהות את פיתוחן של מערכות בינה מלאכותית שעלולות להתחרות עם אינטליגנציה אנושית ברמה גבוהה. על המכתב עד כה חתומים כ־24 אלף איש, נוסף למאסק יש בהם מומחים וענקים בתעשייה כמו סטיב ווזניאק (מייסד שותף של אפל) ויהושע בנג'יו (זוכה פרס טיורינג). הם קוראים לכל מעבדות הבינה המלאכותית להשהות למשך חצי שנה את פיתוח מערכות בינה מלאכותית החזקות יותר מ־GPT-4. מאסק אף אמר כי מדובר ב"אחד הסיכונים הגדולים ביותר לעתיד הציוויליזציה".
להחליט על העתיד לפני שהמרוץ יוצא משליטה
מאסק ויתר החותמים על המכתב אומרים כי מערכות בינה מלאכותית חזקות עם יכולות להתחרות בבני אדם בביצוע משימות כלליות, מה שמכונה בינה מלאכותית חזקה, עלולות להוות "סיכונים עמוקים לחברה ולאנושות". לדבריהם, בינה מלאכותית מתקדמת יכולה להוביל לשינוי משמעותי בהיסטוריה של החיים על פני כדור הארץ, "ויש לתכנן אותה ולנהל אותה בזהירות ובמשאבים המתאימים". עם זאת, לדבריהם, "רמה זו של תכנון וניהול לא מתרחשת". בתור דוגמה, הם מספרים כי ישנן "מעבדות בינה מלאכותית שנמצאות במאבק צמוד שיצא מכלל שליטה במרוץ לפתח ולהפיץ מוחות דיגיטליים חזקים יותר ויותר, שאף אחד - אפילו לא היוצרים שלהם - לא מסוגל להבין, לחזות או לשלוט בהם באופן אמין".
החששות דיברו על "המרוץ המסוכן" לפיתוח כלים כמו Chat-GPT של חברת OpenAI או Bing AI של מיקרוסופט וגם Bard של גוגל. החברות מתחרות מי תצליח להביא קפיצת מדרגה משמעותית יותר ולפתח אף יותר את מודלי הבינה המלאכותית שברשותן, מה שעלול להוביל להשלכות שליליות כשמתעלמים מהסכנות: מדיסאינפורמציה נרחבת ועד לוויתור של משרות אנושיות למכונות.
החותמים על המכתב דורשים שלא להותיר את קבלת ההחלטות בשאלות על העתיד, כמו האם לתת למכונות להציף אותנו בפייק ניוז או ההשפעה על עתיד שוק העבודה, בידיהם של מובילים טכנולוגיים שלא נבחרו. במקביל, החותמים טוענים כי מפתחי בינה מלאכותית חייבים לעבוד עם קובעי מדיניות כדי להאיץ את הפיתוח למערכות משילות איתנות בתחומי בינה מלאכותית. הם קוראים להקמת רשויות רגטולטוריות חדשות שמוקדשות לבינה מלאכותית, פיקוח ומעקב אחר מערכות בינה מלאכותית ומאגרים גדולים של יכולת חישובית, נשיאה באחריות לנזקים שנגרמים על ידי בינה מלאכותית, מימון ציבורי נרחב למחקר בטיחות בבינה מלאכותית ומוסדות להתמודדות עם השלכות השיבושים שיגרמו על ידי בינה מלאכותית.
פרופ' דורון פרידמן, ראש המעבדה למציאות מתקדמת באוניברסיטת רייכמן מחדד בשיחה עם גלובס את החששות שעולים מן המכתב המדובר. "יש פה התפתחות של מודלים ענקיים שעושים דברים מדהימים ואנחנו לא בטוחים איך הם עושים את זה, כולל אלו שיוצרים אותם. הדבר מוביל להשלכות ענקיות על כלל התעשייה. ולחשש הזה מצטרפים אנשים שונים עם אינטרסים שונים: ראשית, יש כאלו שרואים טכנולוגיה מאוד דרמטית שמשפיעה על הרבה אנשים וחברות השוק, שכאן אני נמצא בעצמי. שנית, יש אנשים שרוצים לעלות את הערך של המניות שלהם ורוצים לעשות הייפ בנושא - כך זה עובד בעמק הסיליקון. שלישית, יש כאלו שחוששים שבינה מלאכותית תשתלט על העולם ורובוטים יחסלו את האנושות". לדבריו, כל אלו קוראים להאט, לתת זמן לרגולטור להגיב, למחקר ולאקדמיה להבין מה קרה כאן, לפעול באחריות ולהבין לאן ממשיכים.
עם זאת, פרופ' פרידמן טוען כי עצירה לחצי שנה אינה מספיקה. "זה פשוט גימיק, זה לא מספיק זמן. זה לא שבחצי השנה הזו אנחנו נגיע לתובנות מהותיות ונבין את כל הדברים עד סוף. כמו שאמרה מירי רגב על התאגיד, מה שווה הבינה המלאכותית אם אי אפשר לשלוט בה? כיום יש מהנדסים שאומרים שאנחנו לא שולטים עד הסוף. מה שבטוח צריך להכריח יותר שקיפות וליצור קוד אתי או קוד בטיחות על בינה מלאכותית, בדיוק כמו שמוכרים מוצר רפואי. צריך לעשות תהליכים מסודרים בגלל שההשפעה על חיי היום־יום תהיה דרמטית". מה גם, הוא חושב שזה לא ריאלי לעצור, לצד הסינים שלא ישתפו פעולה.
גייטס ישן טוב: "עידן ה־AI התחיל"
אך ישנו צד שני, כאלו שלא מסכימים עם מה במכתב. חלקים נרחבים של תעשיית הטכנולוגיה, כולל אחד ממאורותיה הגדולים, חושבים אחרת. ביל גייטס, מייסד מיקרוסופט ותומך נלהב במיוחד בבינה מלאכותית, התראיין לרויטרס באחרונה וטען כי הוא "לא חושב שבקשה מקבוצה אחת מסוימת לעצור תפתור את האתגרים". הוא אמר בראיון כי התעשייה זקוקה למחקר נוסף: "מה שאנחנו צריכים לעשות זה לזהות את התחומים המורכבים".
גייטס גם הביע ספקות לגבי ההיתכנות של עצירה גלובלית בפיתוח AI וטען שיהיה קשה לאכוף הפסקה בסדר גודל כזה: "אני לא באמת מבין מי לדבריהם יכול לעצור, והאם כל מדינה בעולם תסכים לעצור, ולמה לעצור. אבל יש הרבה דעות שונות בתחום", אמר גייטס בראיון. בחודש שעבר פרסם פוסט בבלוג שלו תחת הכותרת "עידן הבינה המלאכותית התחיל". גייטס כתב שהוא מאמין שיש להשתמש בבינה מלאכותית כדי לסייע ב"הפחתת חוסר השוויון הגרוע ביותר בעולם" ולהתמקד במציאת דרכים לנצל את הפוטנציאל עבור הכלל.
וגייטס לא לבד. חברת אבטחת הבינה המלאכותית Anthropic, שאלפאבית, החברה האם של גוגל, השקיעה בה 400 מיליון דולר, הצהירה בפוסט שפורסם לאחרונה בבלוג כי טכנולוגיות הבינה המלאכותית הנוכחיות "אינן מהוות דאגה מידית". באותו פוסט החברה גם ציינה כי כמות החישובים המשמשים לאימון דגמי הבינה המלאכותית הגדולים ביותר צומחת פי 10 בשנה (זמן הכפלה מהיר פי 7 מחוק מור), והציעה לבנות "מעקות בטיחות" כדי להפחית סיכונים. אין עדיין כל הסכמה בשטח לגבי איך יראו מעקות הבטיחות האלה. דובר מטעם החברה לא אמר אם החברה תתמוך בהשהיה המתבקשת במכתב או לא.
ברחבי העולם רגולטורים מנסים להתייחס לעולם החדש: המעניינת מכולן היא איטליה שכבר הספיקה לאסור זמנית על שימוש ב־Chat-GPT עקב חששות בנושא פרטיות לאחר הפרת בתחום מצד חברת OpenAI. בארה"ב כבר דוחפים לחוקים חדשים בתחום לצד חוקי פרטיות שדורשים מחברות לחשוף כיצד מוצרי ה־AI שלהן פועלים. מנכ"ל OpenAI, סם אלטמן, סבור שמסגרת רגולטורית גלובלית עם משילות ותיאום דמוקרטיים בין חברות יכולה לתת מענה לחששות לגבי AI.
גם בישראל פורסם לאחרונה מסמך מדיניות בנושא, המציג גישה לאסדרה רגולטורית מפורטת ומותאמת לתחומים שונים. משרד הבריאות פרסם טיוטת מסמך עקרונות, ומשרד המשפטים פרסם מסמך מטעם הרשות להגנת הפרטיות בקשר לשימוש בתכנים מוגנים לצורך למידת מכונה.
מאסק קורא לעצור, אך מפתח בעצמו
ד"ר גל יעבץ מהמחלקה למדעי המידע באוניברסיטת בר אילן הסביר לגלובס כי לדעתו המכתב הוא קריאה צינית בלבד: "הרכבת הענקית של בינה מלאכותית יצאה מזמן לדרך ואף עזבה את התחנה סופית בנובמבר 2022, כשחברת OpenAI שיחררה לעולם את Chat-GPT - אותו יישום שאנחנו מכירים מוחשית וויזואלית, ויכולים לחוש מה זה אומר בינה מלאכותית המבוססת על מודל גנרטיבי אמיתי. לנסות לעצור את הרכבת הפועלת או לקרוא לחברה להפסיק, משול לאדם שעומד על מסילת רכבת ומנסה לעצור את הכלי בשתי ידיו. כל ניסיון כזה הוא פתטי, מיושן, ארכאי ואנכרוניסטי".
לדבריו, עצם העובדה שמאסק חתום על המכתב - מוכיחה זאת. "הדבר המפתיע ביותר במכתב זו הקריאה החוזרת לממשלה להתערב אם ההתקדמות לא תעצור ולא תחדל. הדבר הזה לא היה מצחיק או בדיחה כל כך גדולה אלמלא אחד החתומים על המכתב הוא אילון מאסק בעצמו. עצם זה שיש קריאה כל כך חמה לממשלה להתערב מצד אדם שחרט על דגלו להתרחק מכל שיתוף פעולה ממסדי, היא צינית לגמרי. מאסק נלחם בקובעי המדיניות בצורה ברורה ובוטה. המכתב הזה אולי היה יכול להיות נכון בהקשר אחר או בזמן אחר, אבל אי אפשר לעצור את הרכבת הנוסעת".
אך לכל אלו מצטרפים כמה פרסומים מעניינים ביחס למאסק, האחרון שבהם היה ב־ Business Insider, שם פורסם כי מאסק רכש לאחרונה 10,000 מעבדים גרפיים (GPU - רכיבי עיבוד המתאימים לבינה מלאכותית עמוקה) לשימוש באחד משני מרכזי הנתונים הנותרים של החברה. בדיווח צוטט גורם שאמר כי אין לטוויטר סיבה להוציא הרבה מאוד כסף על רכיבי עיבוד כה מתקדמים אם היא לא מתכננת להשתמש בהם לבינה מלאכותית. על פי הדיווח, הפרויקט שמאסק צועד אליו הוא של בינה מלאכותית יוצרת, אך לא ברור בדיוק במה מד ובר. מומחים טוענים כי זה יכול לשפר את פונקציות החיפוש בטוויטר או לסייע לבנות מחדש את עסקי הפרסום שלה. עם זאת, הצעד יכול לשים בהקשר אחר לחלוטין את הקריאה של מאסק לעצירה בפיתוח בינה מלאכותית - בעיקר כדי לסייע לו להדביק את הפער.
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.