הבינה המלאכותית אינה תמיד נבונה מספיק לשימוש משרדי. כך לדוגמה, חברת טכנולוגיה גדולה בנתה תוכנית סינון מועמדים לעבודה, אך התברר שזו דחתה באופן אוטומטי את קורות החיים של מרבית המועמדות; חברות אחרות פיתחו אלגוריתמי זיהוי תווי פנים ואלו זיהו רבות מהנשים השחורות כגברים.
השימוש המתרחב בבינה המלאכותית מעורר תשומת לב לחשיבות גיוון העובדים. אף על פי שחברות טכנולוגיה מגבירות את מאמציהן לגייס נשים ובני קבוצות מיעוט, מרבית המתכנתים שאחראים לתוכנות הבינה המלאכותית הם עדיין גברים לבנים, על פי נתוני משרד העבודה של ארה"ב.
מפתחים שבודקים את מוצריהם מסתמכים לעתים קרובות על מאגרי נתונים שאינם מייצגים באופן הולם נשים או קבוצות מיעוט. מחקר העלה כי הרכבו של אחד ממאגרי הנתונים האלה, שנמצא בשימוש נרחב, הוא 74% גברים ו-83% בני ובנות הגזע הלבן. לפיכך כשמהנדסים בודקים אלגוריתמים במאגרי הנתונים הללו, שכוללים מספר רב של אנשים שדומים לאותם המהנדסים, הם מגיעים למסקנה שהאלגוריתמים מתפקדים היטב.
הסיכון שנקודות עיוורות או הטיות ייבנו לתוך מוצרי טכנולוגיה רושם זינוק חד כשמדובר בבינה מלאכותית, וזה פוגע באמון הלקוחות וברווח. גם התועלות מפיתוח מוצרי טכנולוגיה תקינים רושמות עליה חדה, כך שבשני המקרים יש מרוויחים ומפסידים גדולים.
הטיה באלגוריתם מובילה להפסד כספי
אלגוריתמים פגומים עלולים לגרום לתקריות מוזרות, בדרך כלל מכיוון שהם נבדקו או אומנו באמצעות מאגרי נתונים לקויים או חסרים. ב-2015 עוררה גוגל ביקורת חריפה כשיישום הצילומים שלה תייג שני משתמשים אמריקאים ממוצא אפריקאי כגורילות. גוגל נחפזה להתנצל ותיקנה את הבעיה. לפני כמה שנים הפסיקה אמזון את העבודה על תוכנית מבוססת בינה מלאכותית לסינון מועמדים למשרות טכנולוגיות, שמסיבה מסתורית דחתה קורות חיים שבהן הופיעה המילה "נשים" - כמו בשמותיהם של ארגוני נשים או קולג'ים. אחת מדוברות אמזון אמרה כי מעולם לא נעשה שימוש בתוכנית זו להערכת מועמדים.
ראיות רחבות יותר לקיומה של הטיה נחשפו במחקר מ-2018 של שלושה כלי זיהוי תווי פנים מהסוג המשמש גופי אכיפת חוק לגילוי חשודים בפלילים או ילדים נעדרים. בניתוח של מדגם מגוון של 1,270 אנשים, זיהו תוכנות אלה בטעות 35% מהנשים כהות העור כגברים, לעומת שיעור טעות מרבי בסך 0.8% בזיהוי גברים בהירי עור. את המחקר הובילה ג'וי בולמוויני, חוקרת ב-Media Lab של מכון מסצ'וסטס לטכנולוגיה (MIT) בקיימברידג', מסצ'וסטס.
בתגובה לממצאים אלה נשמעו דרישות לעריכת בדיקה קפדנית יותר. לאחרונה קראה מיקרוסופט לממשלות לפקח על טכנולוגיית זיהוי תווי פנים ולדרוש שהמערכות יבדקו כדי לאמוד את דיוקן ומידת ההטיה שלהן. AI Now, מכון מחקר באוניברסיטת ניו יורק, בוחן דרכים לצמצום ההטיה במערכות בינה מלאכותית.
אך בשוק אלגוריתם עלול להפוך לקופסה שחורה: אלגוריתמים יכולים ללמוד ולבצע תחזיות על בסיס נתונים מבלי שיתוכנתו במפורש לעשות זאת. התהליך נמשך ברקע לאחר בניית התוכנה, לדברי דאגלס מריל, מנכ"ל ZestFinance מלוס אנג'לס, שמייצרת כלי למידה חישובית עבור חברות שירותים פיננסיים.
כל הטיה באלגוריתם עלולה להטות את תהליך קבלת ההחלטות של החברות באופן שייגבה מחיר יקר. האלגוריתם של אחת מחברות השירותים הפיננסיים הבחין שאנשים עם קילומטראז' גבוה במכוניותיהם ואנשים שמתגוררים במדינה מסוימת נוטים להיות לקוחות בסיכון אשראי גבוה, לדברי מריל. כל אחד הגורמים האלה כשלעצמו היה הגיוני, אך שילובם היה גורם לחברה לדחות שלא בכוונה מספר רב של אמריקאים ממוצא אפריקאי, לדברי מריל. לאחר ש-ZestFinance כתבה מחדש את האלגוריתם והוסיפה מספר גדול של קריטריונים אחרים, הפכו רבים מאותם המועמדים ללקוחות שראויים לקבל אשראי.
הסרת ההטיה בקרב האנשים שכותבים את הקוד היא מהלך חיוני. "זאת הסיבה שאנחנו עובדים כל כך קשה על בניית צוותים מגוונים", אומר ד"ר מריל, לשעבר סמנכ"ל טכנולוגיית המידע של גוגל. בתשובה לשאלה על הרכב צוותו בן 100 העובדים, הוא ציין שש קבוצות שמייצגים העובדים שלו, כולל אחוז גבוה של נשים, וכן יוצאי צבא ובעלי מוגבלויות.
"ההטיות שמסתתרות בחבר צוות אחד גלויות לחבר צוות אחר, שנמנע מהן", אומר מריל. "אז זה באמת המפתח לצרף אנשים שאינם דומים זה לזה".
להתבסס על יותר קריטריונים ונתונים
תוכניות בינה מלאכותית מצליחות עשויות לפתוח שווקים חדשים לחלק מהחברות. זרוע האשראי של פורד, Ford Motor Credit, גילתה במחקר משותף עם ZestFinance ב-2017 כי בינה מלאכותית מאפשרת לה להעניק מספר רב יותר של אישורי אשראי לבגירים צעירים ולמגישי בקשות אחרים, וזאת מבלי להנמיך את סטנדרטי החיתום שלה.
בקשותיהם של צעירים נדחות לעתים קרובות באופן שגרתי מכיוון שאין להם היסטוריית אשראי והכנסותיהם נמוכות, לדברי מריל. הלמידה החישובית מאפשרת לבנקים לבחון מספר רב בהרבה של קריטריוני לקיחת החלטות, כגון האם שילם מגיש הבקשה את שכר הדירה וחשבון הטלפון שלו בזמן, האם ביצע הפקדות קבועות בחשבונות חיסכון, ודוגמאות נוספות של התנהלות אחראית. זה עשוי לסייע בזיהוי מספר רב יותר של צעירים שראויים לאשראי. "התשובה לכמעט כל שאלה בלמידה חישובית היא עוד נתונים", אומר ד"ר מריל.
אפקטיבה (Affectiva), חברת בינה מלאכותית בבוסטון, משכה יותר מ-100 לקוחות תאגידיים באמצעות צבירת מאגר נתונים של 4 מיליארד תמונות פנים מ-87 מדינות. החברה מפתחת טכנולוגיה לקריאה מדויקת של ההבעות הרגשיות על הפנים האלה, ללא קשר לגזע, שיוך אתני או מגדר. חברות משתמשות בתוכנה של אפקטיבה כדי לבדוק את תגובות הצרכנים לפרסומות מתוכננות, ויצרניות רכב משתמשות בתוכנה כדי לנטר נהגי רכב ולזהות את המנומנמים ומוסחי הדעת.
ראנה אל-קליובי, מנכ"לית ומייסדת משותפת של אפקטיבה, אומרת כי בנקודה מסוימת שאלו נשים שעבדו במשרדי החברה בקהיר: "יש כאן בכלל אנשים שנראים כמונו?". המהנדסים מיהרו להוסיף תמונות של נשים מוסלמיות עטויות רעלה.
"צריך גיוון בנתונים, ומה שחשוב עוד יותר - גיוון בצוות שמעצב את האלגוריתם", אומרת ד"ר אל-קליובי. "אם אתה גבר לבן בן 30 שמתכנת את האלגוריתם הזה, יכול להיות שלא תשאל את עצמך האם מאגר הנתונים כולל אישה רעולה".
בנוסף לגיוון הגזעי והמגדרי, מגייסת מיקרוסופט עובדים בעלי מיומנויות בתחומי הקריאייטיב והאמנות כדי לכתוב ביטויים משיחות יומיומיות שגרתיות עבור הסייענית הווירטואלית קורטנה ועבור Personality Chat, תוכנית בינה מלאכותית שמספקת סמול טוק לבוטים שמפתחות חברות אחרות. חברי הצוות כוללים מחזאית, משורר, מחברת ספרי קומיקס, בעלת תואר בפילוסופיה, כותב שירים, תסריטאי, מחברת מאמרים ומחבר רומנים. מיומנויותיהם המקצועיות מאפשרות להם לכתוב אמירות אופטימיות עבור הבוטים ולנחש מראש את תגובות המשתמשים, לדברי דבורה האריסון, מנהלת בכירה ומובילת צוות. חברי הצוותים גם מלמדים את הבוטים להימנע משימוש שגוי בסלנג אתני ומאמירות בעלות צביון מיני.
האריסון מספרת שאחד הצוותים שקד על ניסוח תגובתה של קורטנה למשתמש שמכריז "אני הומו". הצוות הציע את התגובה הנעימה והלא-שיפוטית "ואני בינה מלאכותית", אך בכל זאת לא היה מרוצה, לדברי האריסון. ההצעה שהשביעה בסופו של דבר את רצון כולם הגיעה מנער בגיל העשרה שביקר במעבדה: "מגניב, אני בינה מלאכותית".
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.