מחקר חדש מדגיש את הסכנות שבהטיות המובנות באלגוריתמים של בינה מלאכותית, בעיקר בתחום הרפואה. המחקר, שהתפרסם בכתב העת האקדמי היוקרתי Science, מצא כי אלגוריתם שהיה בשימוש על ידי בתי חולים וחברות ביטוח בריאות והשפיע על 200 מיליון מטופלים, תיעדף סיוע בריאותי מוגבר עבור מטופלים לבנים על פני שחורים, גם אם מצבם הבריאותי היה טוב משל השחורים.
האלגוריתם שפותח על ידי חברת Optum נועד לקבוע אילו מטופלים, שסובלים ממחלות כרוניות כמו סוכרת ומחלות לב, יכולים להיעזר בסיוע רפואי נוסף של אחיות, רוקחים ועובדים סוציאליים שינטרו את בריאותם, ויעזרו להם לנהל את המרשמים שלהם ואת התורים שלהם לרופאים.
לצורך המחקר, החוקרים בחנו את ההערכות שאחד מבתי החולים עשה בהתבסס על האלגוריתם מבלי לציין את שמו. הם התמקדו בכ-6,000 מטופלים שהזדהו כשחורים וכ-43.5 אלף מטופלים שהזדהו כלבנים.
החוקרים מצאו כי האלגוריתם העניק למטופלים לבנים בריאים יותר את אותו ניקוד שהעניק למטופלים שחורים שסבלו מיותר מחלות או תוצאות בדיקות פחות טובות.
הסיבה להטיה הייתה שנוסף להיסטוריה רפואית, אחד מאמצעי הניקוד שבו האלגוריתם השתמש היה עלות הטיפול של כל מטופל עד אותו יום. לדברי החוקרים, שחורים משקיעים פחות מלבנים על הוצאות רפואיות גם במצבים רפואיים דומים. הסיבה היא פחות גישה לשירותי בריאות וחוסר אמון במערכת.
"מה שהאלגוריתם עושה זה לתת למטופלים לבנים בריאים יותר לעקוף בתור את המטופלים השחורים הבריאים פחות", אמר ד"ר זיאד אוברמייר, הכותב הראשי של המחקר, ופרופ' למדיניות בריאות באוניברסיטת קליפורניה בברקלי, ל"וול סטריט ג'ורנל".
דובר Optum אמר ל"וול סטריט ג'ורנל" בתגובה למחקר כי בחברה ממליצים ללקוחותיה שלא להחליף את שיקול הדעת של רופאים באלגוריתמים, וכי המאמצים להשתמש בכלי אנליטיקס ברפואה "עדיין רק גירדו את פני השטח של הפוטנציאל שלהם, וצריכים להיות תחת בחינה ושיפור מתמידים".
החוקרים יצרו אלגוריתם אלטרנטיבי שלא לקח בחשבון את ההוצאות הרפואיות של המטופל, והתוצאות היו שאחוז השחורים שזוהו ככאלו שזקוקים לטיפול נוסף עלה מ-18% ל-47%, ואמרו כי אלגוריתמים שמעוצבים היטב יכולים להפחית את ההטיות שמובילות לפערים בגישה לטיפול. אחד מכותבי המחקר, סנדהיל מולינטהאן, פרופסור למדעי המחשב מאוניברסיטת שיקגו, אמר ל"וול סטריט ג'ורנל" כי "זה כלי שיכול לגרום להרבה טוב ולהרבה רע, וזה תלוי רק באיך שמשתמשים בו".
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.