משרד הבית הלבן למדיניות מדע וטכנולוגיה קרא להקמת "שטר זכויות" להגנה על אמריקאים בעולם שהופך ל"מונע בכוח הבינה המלאכותית". החששות לגבי בינה מלאכותית ידועים ומבוססים: היא תפר את הפרטיות ותפגע בשקיפות, והמידע המוטה שהיא מספקת יביא לתוצאות מוטות, כולל בתחומים שהם חיוניים לפריחה אישית וחברתית כמו רפואה, אכיפת החוק, העסקה ומתן הלוואות.
אבל הבינה המלאכותית תביא גם לשינוי אחד יסודי יותר: היא תאתגר את העליונות של ההיגיון האנושי. במשך ההיסטוריה כולה, בני האדם ביקשו להבין את המציאות ואת תפקידינו בתוכה. מאז דור ההשכלה, התייחסנו לשכל שלנו - ליכולתנו לחקור, להבין ולשכלל - כאמצעי העיקרי להסברת העולם, ועל־ידי הסברתו, שיפורו. ב־300 השנים האחרונות, מה שההיסטוריונים מכנים עידן ההשכלה, התנהלנו בהתאם לכך; חקרנו, ביצענו ניסויים, המצאנו ובנינו.
כעת הבינה המלאכותית, תוצר של התושייה האנושית, מסלקת את העליונות של השכל האנושי: היא חוקרת ומגיעה להבנה של דברים בעולם מהר יותר מאיתנו, ובחלק מהמקרים, בדרכים שאנחנו לא מבינים.
ב־2017, מנוע DeepMind של גוגל יצר תוכנה בשם AlphaZero שיכלה לנצח משחקי שחמט על־ידי למידת המשחק ללא התערבות אנושית ועל־ידי פיתוח אסטרטגיה שלא נראית אנושית כל כך. כשרב־אומן השחמט גארי קספרוב ראתה את התוכנה משחקת, הוא תיאר אותה כמזעזעת את המשחק "עד היסוד" - לא בגלל ששיחקה מהר או ביעילות, אלא בגלל שחשבה על כל התפיסה של משחק השחמט מההתחלה.
ב־2020, הליצין, אנטיביוטיקה חדשה, התגלתה על־ידי חוקרי MIT שהורו לבינה מלאכותית לחשב מעבר ליכולת החישוב האנושית, על־ידי בניית מודלים של מיליוני תרכובות תוך כמה ימים ומחקר של דרכים להרוג בקטריות שעד אז לא התגלו ולא הוסברו. לאחר פריצת הדרך, החוקרים אמרו כי ללא בינה מלאכותית, הליצין היה הופך ל"יקר באופן בלתי ישים" - במילים אחרות, בלתי אפשרי - לגילוי על־ידי ניסויים הנעשים בדרך מסורתית.
GPT-3, מודל השפה בה משתמשת חברת המחקר OpenAI, שמתאמנת על־ידי קריאת טקסטים באינטרנט, מפיקה טקסטים מקוריים שממלאים אחר הסטנדרט של אלן טיורינג להצגת התנהגות "אינטליגנטית" שלא ניתן להבדילה מהתנהגות של בן אדם.
להגדיר מחדש את תפקידנו בעולם
ההבטחה הטמונה בבינה מלאכותית היא עמוקה: תרגום שפות; גילוי מחלות; מאבק נגד שינוי האקלים - או לפחות מידול טוב יותר של שינוי האקלים. אבל כמו שמראים התפקוד של AlphaZero, גילוי ההליצין והחיבורים שכותבת GPT-3, השימוש בבינה מלאכותית למטרה מסוימת יכול גם להביא למטרה שלא כיוונו אליה: חשיפת מאפיינים שעד אז לא היו נתפסים אבל אולי הם חיוניים של המציאות.
לבני האדם זה מותיר את המשימה להגדיר - או אולי להגדיר מחדש - את תפקידנו בעולם. במשך 300 שנה, דור ההשכלה הובל על־ידי האמת הכללית "אני חושב, משמע אני קיים". אבל אם הבינה המלאכותית "חושבת", אז מה זה עושה אותנו?
אם בינה מלאכותית תכתוב את התסריט הטוב ביותר של השנה, האם היא צריכה לזכות באוסקר? אם בינה מלאכותית תעשה סימולציה או תנהל את המגעים הדיפלומטיים המשמעותיים ביותר של השנה, האם היא צריכה לקבל פרס נובל? האם הממציאים האנושיים צריכים לקבל אותו? האם מכונות יכולות להיות "יצירתיות"? או האם התהליכים שלהן מצריכים אוצר מילים חדש כדי לתאר אותם?
אם ילד שיש לו עוזר בבינה מלאכותית מתייחס אליו כאל "חבר", מה יקרה לגבי יחסיו עם ילדים אחרים או לגבי התפתחותו הרגשית או החברתית?
אם בינה מלאכותית יכולה להשגיח על דיירת של בית אבות - להזכיר לה לקחת תרופות, לקרוא לפרמדיקים אם היא נופלת ולשמש לה כחברה - האם בני משפחתה יבקרו אותה פחות? האם הם צריכים לעשות כך? אם האינטראקציה העיקרית הופכת להיות בין אדם למכונה, במקום אדם לאדם, מה יהיה המצב האמוציונלי שלה בפרק האחרון של חייה?
ואם בערפל הקרב, בינה מלאכותית מציעה פעולה שתגרום לנזק או אפילו לאבדות, האם על המפקד להקשיב לה?
השאלות האלה עולות ככל שפלטפורמות רשת עולמיות, כמו גוגל, טוויטר ופייסבוק משתמשות בבינה מלאכותית על־מנת לאסוף ולסמן יותר מידע ממה שמסוגלים לעשות המשתמשים או העובדים שלהן. בינה מלאכותית, לפיכך, מקבלת החלטות על מה חשוב - ויותר ויותר, על מה שנכון. ואכן, ההאשמה העיקרית של העובדת לשעבר בפייסבוק פרנסס האוגן היא שהחברה יודעת שאיסוף המידע וסינונו מגביר את כמות המידע השגוי ומחלות הנפש.
כדי לענות לשאלות אלה יהיה צורך במאמץ משותף. צריך לחשוב לא רק על ההשלכות המעשיות והחוקיות של בינה מלאכותית אלא גם הפילוסופיות: אם בינה מלאכותית תופשת חלקים מהמציאות שבני אדם לא מסוגלים לתפוס, איך זה משפיע על התפיסה, הקוגניציה והאינטראקציה האנושית? האם הבינה המלאכותית יכולה להיות חברה של בני האדם? מה תהיה השפעת הבינה המלאכותית על התרבות, האנושות וההיסטוריה?
מאמץ אחר צריך להרחיב את השיקולים של שאלות כאלה מעבר למפתחים ורגולטורים ולכלול מומחים ברפואה, בריאות, סביבה, חקלאות, עסקים, פסיכולוגיה, פילוסופיה, היסטוריה ותחומים אחרים.
המטרה של שני המאמצים צריכה להיות הימנעות מתגובות קיצוניות - כניעה לבינה מלאכותית או דחייתה - ובמקום זה חיפוש דרך אמצעית: עיצוב בינה מלאכותית עם ערכים אנושיים, כולל ההגינות ותחושת המוסר של בני האדם. בארה"ב, מועצה המנוהלת על־ידי הממשלה אבל מורכבת מהרבה אנשי רוח מתחומים רבים צריכה להיות מוקמת. התקדמות הבינה המלאכותית היא בלתי נמנעת, אבל יעדה הסופי עדיין לא ברור.
קיסינג'ר היה מזכיר מחלקת המדינה בשנים 1973-1977 ויועץ הבית הלבן לביטחון לאומי בשנים 1969-75. שמידט היה מנכ"ל גוגל בשנים 2001-2011 ויושב-ראש מכהן של גוגל ושל החברה שבאה בעקבותיה, אלפאבת, מ־2011 עד 2017. הוטנלוכר הוא דיקן מכללת שוורצמן ב־MIT. השלושה חיברו את הספר "עידן הבינה המלאכותית: והעתיד שלנו כבני אדם".
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.