למה חשוב לשקול שיקולים של אתיקה, בבואנו לפתח וליישם טכנולוגיות של בינה מלאכותית? מהם השיקולים האתיים האלו? מי הגופים שאמורים להיות אחראים על כך, וכיצד מדינות אחרות מתמודדות עם השאלות הללו?
טכנולוגיות בינה מלאכותית נמצאות בבסיס רוב המהפכות הטכנולוגיות שאנו נמצאים בעיצומן או בפתחן. הטכנולוגיה מתבססת על אלגוריתמים שמנתחים כמויות גדולות של מידע ונתונים, מזהים דפוסים חוזרים, מפיקים מהם תובנות, מתאימים את עצמם לשינויים ופועלים בהתאם. ואולם, הבעיה מתחילה כאשר כלי שמזהה דפוסים המסייעים בקבלת החלטות - מתבסס רק על המציאות הקיימת.
הסכנה היא שהתובנות שמבוססות על אותה מציאות וההמלצות לפעולה שמבוססות עליה, עלולות לשקף גם הטיות לא רצויות. זאת בניגוד לבני אדם, שמבססים את החלטותיהם לא רק על ניסיון העבר והמטרות שהם רוצים להשיג, אלא גם על ערכים וסדרי עדיפויות.
לידי "גלובס" הגיע דוח ועדת המשנה של המיזם הלאומי בנושא בינה מלאכותית, אתיקה ורגולציה, בראשות פרופ' קרין נהון, מדענית מידע בבית הספר לממשל ובבית הספר לתקשורת במרכז הבינתחומי, ונשיאת איגוד האינטרנט הישראלי. הוועדה בחנה את ההיבטים הללו במסגרת המיזם הלאומי למערכות נבונות (בינה מלאכותית; א"ב) המובל על ידי פרופ' אלוף (מיל') יצחק בן-ישראל ופרופ' אביתר מתניה.
פרופסור קרין נהון / צילום: שלומי יוסף
ההנחה המרכזית שליוותה את עבודת הוועדה היא "ששילובם של שיקולים אתיים בשלבי הפיתוח והתחזוקה של מוצר משולב בינה מלאכותית, לטווח הארוך, יעניקו יתרון לחברות ולמדינות שפועלות לפיהן", כפי שנכתב בדוח.
"אף אחד לא רוצה לעצור חדשנות, אבל אף אחד לא רוצה שהחדשנות תחצה קווים אדומים שיפגעו בנו הציבור, כאלה שיהיו לא מוסריים או לא אתיים", הסבירה פרופ' נהון, "אבל ההנחה החשובה ביותר שלנו הייתה שבטווח ארוך, פעולה לפי הכללים דווקא תעניק יתרון תחרותי, לא להיפך".
הדוח משרטט את שלבי הכנסת שיקולי אתיקה לתהליכי פיתוח טכנולוגיות בינה מלאכותית. ראשית, הוא קובע את ההכרח לעשות כן, לאחר מכן מפרט את הערכים האתיים שיש לקדם - למשל הוגנות, שוויון, מניעת אפליה, הימנעות מהגדלת פערים חברתיים כלכליים והשכלתיים, שקיפות, כיבוד זכויות אדם, וקיום שוק תחרותי. בהמשך ממליץ הדוח על הקמת גוף שיפקח על קיום ההמלצות, ומצביע על הגופים הממשלתיים הרלוונטיים לקידום המלצות הדוח - רשות התחרות והרשות להגנת הפרטיות.
דומיננטיות למשפטנים בקרב חברי הוועדה
בדיוני הוועדה השתתפו עשרות מומחים והיו חברים בה כשלושים נציגים מהאקדמיה, נציגי החברה האזרחית, ומהמגזר הפרטי. בין השאר השתתפו בה נציגות משמעותית של משפטנים ורגולטורים, בהם המשנה ליועץ המשפטי לממשלה ד"ר רועי שיינדורף, והיועצים המשפטיים של מערך הסייבר הלאומי, רשות החדשנות ורשות התקשוב. כמו כן, נכללו בה גם נציגים של חברות כמו מיקרוסופט ודויטשה טלקום ומומחים שונים בתחומי האתיקה והבינה המלאכותית. בדוח הודגש כי העמדות המובעות בו אינן בהכרח מייצגות את עמדות הארגונים אליהם שייכים חברי הוועדה.
על מנת להדגים את הסיכונים שבשימוש לא מבוקר בבינה מלאכותית, תיאר הדוח עשרה מקרי מבחן המבוססים על מקרים אמיתיים שכבר פורסמו בעולם. מקרה אחד מתאר הולכת רגל שנהרגה על ידי מכונית אוטונומית של אובר בעת שחצתה כביש במקום חשוך. ככל הנראה הרכב זיהה כי עומד לפניו מכשול ויכול היה להימנע מלהתנגש בו, אך מכיוון שהמהנדסים הנמיכו את רגישות התוכנה לחסמים המכונית לא זיהתה את האישה כמכשול שמצריך ממנה לעצור, והאישה נהרגה.
במקרה נוסף התגלה שכלי לזיהוי פנים של אמזון שגה יותר כשהופעל על אנשים בעלי גוון עור כהה, מאשר בעת שהופעל על אנשים עם גוון עור בהיר. מקרים אלו הוצגו בדוח לצד שמונה מקרים נוספים, שעסקו בין השאר באפליה בסינון מועמדים לעבודה; מניפולציות על תודעה האוכלוסייה האזרחית כמו למשל בעת קמפיין בחירות; חיזוי סיכון ממחלות; חיזוי מסוכנות אסירים ועוד.
מחברי הדוח, שכתיבתו הסתיימה כבר לפני כמה חודשים ומפורסם עתה לראשונה, ניתחו את המקרים וניסחו רשימה קצרה שמפרטת את סוגי האתגרים שמציבות מערכות בינה מלאכותית - בהם הנטייה "להנדס" ערכים, הנטייה להקצין יחסי גומלין קיימים במערכות חברתיות, והסיכון לפגיעה בפרטיות בשל העובדה שהן מבוססות על עיבוד מידע רב ממקורות שונים.
על כן, בכדי לצמצם היווצרות תוצרים של טכנולוגיה מפלה או מוטה, ממליץ הדוח "ללמוד באופן פעיל על אוכלוסיית היעד, ולזהות מבעוד מועד אוכלוסיות שעלולות להיפגע או להיות מיוצגות באופן לא מספק על ידי מפתחי המערכת".
הוועדה ציינה עוד כי היא רואה חשיבות רבה לא רק בהיוועצות עם מומחים בשטחים החברתיים בהם מבקשים לשלב מערכת בינה מלאכותית, אלא גם עם אנשים מאוכלוסיית היעד עצמה, וזאת באמצעות "מחקר קצר-היקף" - בכדי "לסייע ליצור מערכת הוגנת יותר".
"כך לדוגמה, אם מדובר בשילוב מערכת בינה מלאכותית בביטוח הלאומי, מומלץ לדבר עם פקידי הביטוח הלאומי אך גם עם מומחים מהאקדמיה ומחוצה לה, כמו עובדים סוציאליים, סוציולוגים ואנתרופולוגים, שמבינים בסעד, עוני, אי שוויון ועוד. בדומה, כדאי גם להיוועץ במקבלי קצבאות שיושפעו בפועל מהטמעת המערכת. הרעיון הוא לא לשמוע מה דעתם אודות הטמעת המערכת, אלא להבין טוב יותר את הצרכים שלהם ואת האתגרים שהטמעת מערכת כזו עלולה לעורר".
איך צריך למנוע אפליה ופגיעה בערכים
הוועדה פירטה רשימה של ערכים עליהם מבקש הדוח להגן: שמירה על הוגנות, שקיפות, בטיחות, חופש הבחירה, אחריותיות (Accountability), הקפדה על אבטחת מידע וכמובן זכויות אדם, סעיף הכולל את השמירה על הפרטיות, שלמות הגוף, שמירה על זכויות אזרחיות ופוליטיות וגם על האוטונומיה האישית, או בלשון הדוח "שמירה על יכולתו של אדם לקבל החלטות תבוניות", ו"מניעת השפעה שאינה הוגנת או אינה מודעת על התנהגות היחיד". הוועדה אף התייחסה מפורשות לערך התחרותיות וציינה את השוק החופשי לצד הערכים הללו.
בהתאם לכך, מרכיב מרכזי בדוח הוא סט כללים שניסחה הוועדה כדי לסייע לגופים המפתחים טכנולוגיות בינה מלאכותית, או עושים בהן שימוש, לפעול באופן ששומר על רשימת ערכים הזו.
הוועדה שילבה את הערכים ומקרי המבחן שהוזכרו במודל שכולל שמונה שלבים המאפיינים פיתוח של מערכות בינה מלאכותית. שילוב הנתונים הללו יצר מפה שמציגה את השכיחות של תופעות אתיות בשלבים שונים של תהליך הפיתוח של המוצר. המפה נועדה לשמש כלי עזר בידי המפתחים בבואם לתכנן פרויקט בינה מלאכותית, כך שיוכלו לקחת בחשבון את רוב ההשלכות הפוטנציאליות שלו על ערכים שהוועדה קבעה.
אמנם אין מדובר ברשימה מחייבת, אך ייתכן שבין המלצות הדוח נזרע גם הבסיס הערכי וגם הבסיס העתידי לאכיפה. על פי הדוח, בין ה"עקרונות האתיים החשובים" נמנים "חתירה לשוויון מהותי, מניעת הטיות (במידע, בתהליך, בתוצר), מניעת הפליה, והימנעות מהגדלת פערים חברתיים, כלכליים והשכלתיים". במקום אחר בדוח מצוין כי "הוועדה ממליצה לראות בכל העוסקים בתחום הבינה המלאכותית כאחראים לפעול באופן חוקי ואתי", וכי "על העוסקים בתחום להישאר מעודכנים בנושא". מיד לאחר מכן מופיעה המלצה על פיה "אי עמידה בתנאים אלו עלולה להיחשב כרשלנות".
בנוסף שרטט הדוח את גבולות הגזרה של הטיפול העתידי בתחום. הוועדה זיהתה ארבע אפשרויות לאסדרה (רגולציה) של התחום: באמצעות חקיקה, פיתוח משפטי, תקינה מקצועית ואסדרה-עצמית לא משפטית. כדי לסייע לגורמים הרלוונטיים להתאים באופן מיטבי את סוג האסדרה לנושא שהיא מנסה להסדיר, מפרט הדוח את היתרונות והחסרונות של כל אחד מהם לצד המלצות באיזה סוג אסדרה כדאי להשתמש מול אתגרים שונים. כך למשל, נטען בדוח כי אסדרה לא משפטית מעניקה יתרון לשחקנים חזקים ולכן הוועדה ממליצה להשתמש באמצעי זה רק במה שהיא מכנה "אזורי סיכון נמוך", או לחילופין ב"אזורי סיכון גבוה" - שם ההתפתחות הטכנולוגית מהירה יותר מהאפיק המשפטי.
במקרים מסוימים המליצה הוועדה באופן ספציפי על גוף מסוים שייטול עליו את האחריות. בעניינים הקשורים במידע אישי ממליץ הדוח כי "רשות האסדרה המובילה תהיה רשות הגנת הפרטיות".
"המדינה תפסיד אם לא יהיה גוף שיטפל בנושא"
על מנת להוציא לפועל את המלצות הדוח ממליצה ועדת האתיקה והרגולציה "להקים מנגנון תיאום פנים ממשלתי על-משרדי", שירכז את הטיפול בעניין ויתאם את פעולות הגופים השונים שעוסקים בו. כפי שכבר פורסם ב"גלובס", בטיוטת דוח מיזם הבינה המלאכותית הכללי - שכולל את המלצותיהן של כלל 15 הוועדות, שאחת מהן היא ועדת הבינה המלאכותית - הוצע להקים גוף שיפעל תחת משרד ראש הממשלה.
עם זאת, ועדת האתיקה שהתייחסה גם כן לצורך להקים גוף שכזה "לא דנה במאפייני המנגנון", אלא הסתפקה אך ורק בהמלצה כללית להקים פונקציה כזו.
בשיחה עם "גלובס" הסבירה יו"ר הוועדה פרופ' נהון כי "חייבת להיות יחידת מטה שמרכזת את הטיפול בכל הנושא הזה. אין דרך להכיל את העניין הזה. אם לא יהיה מטה כזה - משמעות הדבר היא שמי שיקבע את הטון היא התעשייה. אני לא נגד התעשייה, אבל צריך להבין שזה אומר שהאינטרס של הציבור לאו דווקא יעמוד בראש מעייניה כאינטרס הראשי. התעשייה עושה עבודה חשובה, אבל אי אפשר לקדם תחום כמו בינה מלאכותית בלי שיתוף פעולה הדוק בין התעשייה לזרועות הממשל".
נהון הדגישה שאין משמעות הדבר הקמת גוף גדול עם תקנים רבים: "מטה זה גוף מצומצם. הוא מאוד נחוץ, וההפסד של מדינת ישראל אם לא יהיה מטה שכזה, יהיה גדול לאין שיעור מהכסף שיוקצה לו".
החשש: בינה מלאכותית תפגע בתחרות במשק
דוח הוועדה, שעסקה באתיקה וברגולציה, לא התמקד רק בדילמות ערכיות, אלא גם בסוגיות רגולטריות ובהשפעה של בינה מלאכותית על התחרות. מטיוטת הדוח עולה כי אחד החששות המרכזיים שהדוח מתריע מפניהם הוא כי שימוש בבינה מלאכותית עלול לפגוע פגיעה חמורה בתחרותיות במשק. ערך התחרותיות גם מופיע בדוח מפורשות, בתור אחד הערכים עליהם הדוח מבקש להגן.
הדוח מצביע על ענקיות הטכנולוגיה כמקור האיום על התחרותיות ומציין שהחשש הוא כי "השפעתם של מגה-שחקנים אלה על השוק עלולה לפגוע בכניסתן של טכנולוגיות חדשות או יישומים חדשים, ובחדשנות הגלומה בבינה מלאכותית". הדוח מביא כדוגמה את גוגל ופייסבוק שאצלן "העוצמה של פלטפורמות המידע תורגמה לעוצמה בתחום הפרסום", ואת אמזון בתחום הקמעונאות, ומזהיר כי "הרחבת העוצמה הקיימת עשויה להשפיע על תחומי כלכלה נוספים".
הסיבה לכך ששימוש בבינה מלאכותית עלול לפגוע בתחרות נעוצה במהות הכי בסיסית של הטכנולוגיה: אחד המאפיינים של מערכות בינה מלאכותית הוא יכולתם להשתפר ככל שנעשה עוד ועוד שימוש בהם. לדוגמה, במערכות להמלצה על תוכן - כמו המלצות על מאמרים לקריאה נוספת באתרי חדשות או המלצות על מוצרים באתרי קניות - המערכת מקבלת משוב מהמשתמשים על איכות התוכן שעליו המליצה, וכך היא יכולה לשפר המלצות עתידיות. הדוח מזהיר כי "כך יוצא שחברה גדולה, המסוגלת לאסוף משוב ממספר רב של משתמשים, תשפר את המערכת שלה בקצב גבוה יותר מאשר חברה מתחרה בעלת נתח שוק קטן יותר".
הדוח מזהיר כי תנאים אלה עלולים להוביל למצב שבו "הפער בין השחקנים הגדולים בשוק לבין מתחרים קטנים יותר גדל במהירות, מה שמקטין את התחרותיות במשק". חמור מכך, מזהירים מחברי הדוח, "המצב אפילו מקצין כאשר בוחנים שחקנים חדשים הרוצים להתחרות בשוק". הדוח מתריע כי "בהיעדר כמות גדולה מספיק של נתונים להתחיל איתם, חברה כזו חסומה מלהיכנס לשוק".
לפיכך ממליץ הדוח לנקוט בכמה צעדים, כמו בחינת מידת ההתאמה של המצב המשפטי הקיים לאתגרים שתציב בפניו הטכנולוגיה, ולבצע מיפוי של התעשייה על פי המוכנות שלה לקלוט בינה מלאכותית. הדוח גם מציין באיזה אופן מתמודדים עם השאלה בעולם: "בבריטניה המליצו בדוח משנת 2016 להגביל את הכוח של החברות הגדולות עתירות המידע באמצעות כלים מתחום ההגבלים העסקיים", ואילו בצרפת דוח שפורסם קרא לממשלה "ליצור מסדי נתונים פתוחים - כטובין ציבוריים".
על בסיס הקשר בין אתיקה בבינה מלאכותית לבין שמירה על רמת תחרויות ראויה במשק, ממליצה הוועדה על רשות התחרות (לשעבר הרשות להגבלים עסקיים) כגוף המתאים ביותר לריכוז הטיפול ביישום המלצות הדוח בהקשר זה.