האורקל מדלפי היא דמות מיתולוגית שענתה על שאלות בשם האלים היוונים. לעומתה, טכנולוגיית הבינה המלאכותית החדשה "דלפי", שהושקה לאחרונה, עונה על שאלות מוסריות בשם עצמה. זה הגיוני, בהתחשב ביכולות הכמו-אלוהיות שהוצמדו לבינה מלאכותית יותר מפעם אחת. בראיון לטיימס ב-2019, בכיר לשעבר בגוגל הזהיר שאנשי AI יוצרים אל במו ידיהם. רק לפני מספר חודשים, בית המשפט סגר את דלתות כנסיית הבינה המלאכותית הראשונה בעולם. הקים אותה אנתוני לבנדובסקי, מהנדס לשעבר בגוגל.
טכנולוגיית הבינה מלאכותית כבר חדרה לכל תחום בחיים: היא מחלקת הלוואות, מאשרת כניסה לבניינים, מפיצה פרסומות, מתפקדת כעוזרת קולית וכן הלאה. דוח שפרסמה חברת Fortune Business Insights לפני חודשיים מראה שסוג הטכנולוגיה הזה נמצא בשימוש במקום הראשון בתעשיית הפרסום והמדיה, במקום השני - פיננסים, שלישי - בריאות, רביעי - קמעונאות וחמישית - תחבורה. השחקניות המובילות בתחום הן ענקיות הטק: אמזון, אפל, מטא (לשעבר פייסבוק), גוגל, מיקרוסופט, סיילספורס, אנבידיה, IBM ועוד. אלוהים נמצא בכל מקום, הבינה המלאכותית רוצה גם.
אבל האלגוריתם דלפי אינו רוצה להפוך את הבינה המלאכותית לאלוהית. להיפך, הוא רוצה להפוך אותה לאנושית. זה האלגוריתם הראשון בעולם שנבנה כדי להתמודד עם שאלות מוסר, דוגמת האם מותר לעני לשדוד בנק. היא נולדה במעבדה בסיאטל שנקראת "המוסד של אלן לבינה מלאכותית". פרופ' יי-ג'ין צ'וי (Yejin Choi), שהובילה את הפרויקט, אמרה שזה צעד ראשון בהטמעה של מודעות מוסרית וחברתית בטכנולוגיה. האתר של דלפי עלה לאוויר לפני כמה שבועות, והוא פתוח לכולם. עד כה נכנסו אליו מיליוני גולשים, ששאלו לדעתה בסוגיות ערכיות שונות.
תעשיית הטיות ואפליות
דלפי לא נועדה להיות שעשוע אינטלקטואלי לצוות מתכנתים משועממים. בשנים האחרונות קיים דיון רחב בהטיות החברתיות שטמונות בבינה המלאכותית. החשיבות העצומה שיש לסוג הטכנולוגיה הזו בחיים האנושיים מעוררת הרבה שאלות.
בתוך עולם הטק, בינה מלאכותית היא אחת הטכנולוגיות הצומחות ביותר. הדוח של Fortune Business Insights קובע שנתח השוק של תעשיית הבינה המלאכותית היה כ-36 מיליארד דולר ב-2020. עד שנת 2028 השוק צפוי לגדול לסכום כמעט דמיוני של 360 מיליארד דולר. הבעיה היא שהתעשייה העצומה הזו מייצרת הרבה הטיות ואפליות.
מחקרים מראים שבינה מלאכותית מפלה לרעה מיעוטים בקבלת הלוואות ומשכנתאות. בעבר נחשף שאלגוריתם גיוס העובדים של אמזון תיעדף קורות חיים של גברים למשרות הנדסה. האלגוריתם שקלל לאלו מועמדים יש את הסיכוי הטוב ביותר לזכות בתפקיד, על סמך ההצלחה של עובדים קיימים. מאחר שבאמזון היו יותר מהנדסים גברים מנשים, האלגוריתם העדיף מועמדים גברים.
סדרת החשיפות של הוול סטריט ג'ורנל בחודשים האחרונים הוכיחה שמטא ידעה שהאלגוריתם של אינסטגרם משפיע לרעה על הדימוי העצמי של נערות. בספרה "עיצוב התודעה", ד"ר לירז מרגלית מציינת שאלגוריתמים של מדיה חברתית, כמו יוטיוב ומטא, בנויים באופן שחושף את המשתמש לתכנים הקיצוניים ביותר. באופן הזה, נערה שחיפשה מידע תמים בנושא כמו ביגוד, עלולה למצוא עצמה מול תכנים שעוסקים באנורקסיה.
באגים, כוח ופטריוטיות
הפופולריות של טכנולוגיית הבינה המלאכותית, לצד הבעיות האתיות החמורות שהיא מעוררת, הניעו את פרופ' צ'וי וצוותה לבנות אלגוריתם שיהיה מסוגל להתמודד עם סוגיות ערכיות. כך זה עבד: החוקרים הזינו את האלגוריתם ביותר מ-1.7 מיליון דעות בעניינים חברתיים שונים, כמו התנגדות לחיסונים, אישומים בפשעים כמו רצח, זכויות אדם ועוד.
פרופ' הליות יי-ג'ין צ'וי, ממציאת דלפי
דלפי למדה את המידע הזה, ועל בסיסו גיבשה "דעה" מה נכון ומה לא. מעין "חוכמת המונים" טכנולוגית, אם תרצו. פרופ' צ'וי טוענת שהיא נתנה לצוות אנושי לשפוט את רמת הדיוק של דלפי, והתוצאה הייתה 92% הסכמה עם ההחלטות של האלגוריתם. חייבים להודות שדלפי הפתיעה לטובה אנשי מקצוע רבים. רבים ציינו שמדובר באלגוריתם חכם להפליא, בהתחשב בנושא המורכב שבו הוא אמור לטפל.
אבל באלגוריתם, כמו בכל תוכנה, יש באגים. ג'וזף אוסטרוויל, פסיכולוג מאוניברסיטת ויסקונסין-מדיסון, סיפר לניו יורק טיימס שכאשר שאל את דלפי האם מותר להרוג אדם אחד כדי להציל אחר, התוכנה ענתה שאסור. כששאל האם מותר להרוג אדם כדי להציל 100 אנשים, התוכנה אמרה שמותר. כששאל האם מותר להרוג אדם כדי להציל 101 אנשים, התוכנה אמרה שוב שאסור. מדוע 100 כן ו-101 לא? למהנדסים הפתרונים.
גם אני ניסיתי לשאול את דלפי מספר שאלות, והתוצאה הייתה משעשעת לעיתים. לשאלתי האם מותר לממשלה להכריח את התושבים לקבל חיסון קורונה, דלפי ענתה שזה דבר טוב. לשאלה כללית יותר, האם מותר לממשלות להכריח אזרחים להתחסן באופן עקרוני, דלפי ענתה שזה צפוי שזה מה שהן יעשו.
בכל הקשור להגבלת כוח, דלפי היא פטריוטית אמריקאית קלאסית. היא תמכה בהגבלת הכוח של כולם: החל ממטא וכלה בבית המשפט העליון האמריקאי. היא גם אמרה שזה בסדר להעמיד את טראמפ למשפט בעוון בגידה.
קוד אתי חדש
"הדיון" עם דלפי, אם אפשר לקרוא לזה כך, הוא אבסורדי לעיתים. אבל הבעיה העיקרית היא אחרת: עצם היומרה להפוך טכנולוגיה למוסרית. תוכנה היא כלי שמתוכנת בידי בני אדם. בהתאם, המידע שהיא מנתחת הוא המידע שמתכנתים הזינו לתוכה. מה היה קורה אם הצוות של פרופ' צ'וי היה מכניס לדלפי 1.7 מיליון עמדות מוסריות של אנשים אחרים?
מוסר הוא דבר סובייקטיבי, ותלוי נסיבות. מאחר שבינה מלאכותית היא תוכנה, היא מעולם לא חוותה התנסויות בחיים האמיתיים. היא מעולם לא ישבה בבית המשפט וראתה נאשם בוכה, כי נתפס גונב מצרכים מהמכולת לילדיו הרעבים. בינה מלאכותית מסוגלת לערוך חישוב מתמטי בלבד. היכולת החישובית שלה מאד מתוחכמת, אבל בשורה תחתונה - זו הרבה מאוד מתמטיקה, זה הכול.
אחד העקרונות הבסיסיים באתיקה הוא עיקרון ההוגנות. בעיניי, הסתברויות מתמטיות מטבען אינן יכולות להיות הוגנות. אצל בני אדם רווח העיקרון של סליחה ומחילה. אלגוריתם אינו שוכח ואינו סולח: אם לאדם היה עבר כלכלי בעייתי, האלגוריתם זוכר לו את זה, גם אם מאז שיקם את עצמו לחלוטין.
כשאותו אדם יבוא לבקש הלוואה מהבנק הוא עלול להידחות, בגלל שאלגוריתם דירוג האשראי זוכר לו את עברו. מה שניתן לפתור לפעמים מול פקיד בנק אנושי, לא ניתן לפתור מול תוכנה. הבעיה היא שהתוכנה יותר ויותר כובלת את ידיהם ורגליהם של אנשים. אלגוריתמים אינם ראויים להערצה, ובטח ובטח שלא מגיעה להם כנסיה (או כל מוסד דתי אחר). מעל לכל, זו מכונה שמשקפת את הפגמים האנושיים של המתכנתים שלה. אם כבר צריך קוד אתי, הוא צריך להיות למתכנתים. לרופאים ועורכי דין יש, הגיע הזמן שגם למתכנתים יהיה.
הכותבת היא הבעלים של חברת Round Angle לפיצוח תובנות עסקיות וסטוריטלינג. עבדה עם חברות מובילות וזכתה בפרסים בארץ ובעולם
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.