יש משהו קסום בטכנולוגיה המבקשת לתת מענה לבעיותינו. ועוד יותר, כאשר היא באה לתת מענה לכשלים בתחומים המעסיקים ומטרידים אותנו כגון אכיפת החוק.
אבל טכנולוגיה אינה מילת קסם. כפי שיש לנו מדדים שונים בבחירת מחשב חדש, מצלמה, סלולר, כך גם בכל מוצר טכנולוגי אחר. קחו לדוגמא את הטכנולוגיה העושה שימוש בזיהוי פנים.
זיהוי פנים הוא מוצר בו נעשה שימוש באלגוריתם המנתח תמונת פנים ומבקש לזהות באמצעותו את האדם המבוקש. ניתן להשתמש במערכת כאמור כדי לאמת שאדם א' הוא אכן מי שהוא מתיימר להיות (בחינה 1:1), לדוגמה, במעבר גבול כשאנו בוחנים את תמונתו של אדם בדרכון מול מי שאוחז בו וניצב במעבר הגבול; וניתן לעשות שימוש בטכנולוגיה כדי לזהות אדם מתוך קבוצת אנשים (1:N), לדוגמה כאשר הרשת החברתית מציעה לנו זיהוי של אנשים בתמונה לצורך תיוג.
יש רכיבים רבים שמשפיעים על מהימנות התוצר של המערכת - איכות התמונה, זווית הצילום, האלגוריתם בו נעשה שימוש ועוד. כמו כן יש חשיבות בהבנת האיום המרכזי שלנו - האם אנו חוששים שאדם לא מורשה ייכנס למערכת (FAR) (לדוגמא בביקורת בכניסה למתקן ביטחוני), או שאנו חוששים שאדם שמותר היה לו להיכנס למקום, לדוגמא במעבר הכניסה לישראל, תמנע ממנו אפשרות כזו בגלל זיהוי שגוי (FRR). זה לא משחק סכום אפס. ככל שנרצה לצמצם את הסיכוי שמישהו שאינו מורשה יאושר (FAR), עלינו להחמיר את הבדיקה ובכך נגדיל את המקרים בהם תמנע הכניסה גם למישהו שבעצם היה מורשה.
אנו לומדים לדעת, כי המערכות הטכנולוגיות אינן "אובייקטיביות". לדוגמא, מחקר מקיף שערך מכון התקנים האמריקאי (ה-NIST), המוביל בתחום הבדיקות למערכות לזיהוי פנים (FRVT - Face Recognition Vendor Test), ופורסם בדצמבר 2019, הוכיח כי במערכות רבות יש פער של עד פי 100 באימות שגוי באוכלוסיות מיעוטים. זאת אומרת שאם המשטרה תשתמש במערכות מסוימות, הסיכוי שלה לטעות בזיהוי גבר שחור (או אסייאתי) כמי שמבוקש על ידה, אל מול גבר לבן יכול להיות גבוה פי 100. כמובן, שיש שונות בין המערכות והאלגוריתמים השונים. יש מערכות המציגות תוצאות טובות יותר משל אחרות וההטיה מצטמצמת ל"רק" פי 10.
אגב, באופן שאינו מפתיע, במערכות שפותחו בסין היחס התהפך - היה להן סיכוי רב יותר לזהות באופן שגוי גבר לבן מאשר גבר אסייאתי. ולא רק מיעוט אתני סובל מהטייה. הסיכוי לזיהוי שגוי גובר גם אצל נשים ואנשים מבוגרים. ללמדך שגם מערכות טכנולוגיות, מושפעות "מתבנית נוף" יוצרן.
מה זה אומר לגבי שימוש במערכות מסוג זה?
מעבר לשאלות קשות של האפשרות לבצע מעקב המוני, לצורך בביקורת על הרשויות - וכמובן בשקיפות על המערכות בהן נעשה שימוש ועל היכולות שלהן (למיטבי לכת, מוזמנים להקשיב לשימוע שנערך לאחרונה בנושא בקונגרס האמריקאי), יש צורך להבין את מגבלות המערכת.
על קובעי המדיניות המבקשים לאמץ טכנולוגיות חדשניות, להיות זהירים מלכתחילה בשני דברים מרכזיים (אם כי בוודאי לא יחידים):
הראשון, לוודא כי התוצרים של המערכת מעניקים את המבוקש ברמת המהימנות הנדרשת ואשר עליה מוצהר. כל מי שעסק בהטמעת טכנולוגיות בשירות הציבורי, מכיר את הפער בין הצהרות היצרן לביצוע בפועל.
השני הוא לבחון היטב את ההטיות והאזורים שהמערכת אינה מכסה כדי לדעת להתאים את השימושים בה, ובעיקר להבין מה הפועל היוצא מהשימוש בה. לדוגמא, השענות על זיהוי פנים כראיה יחידה לצורך ביצוע מעצר מהווה פתח למעצרי שווא רבים הפוגעים יותר באוכלוסיות מיעוטים.
לאחרונה פרסם המשרד לביטחון פנים תזכיר חוק המבקש להקנות למשטרה את הסמכות לעשות שימוש ב"מערכות צילום מיוחדות", המאפשרות זיהוי חד ערכי של חפץ או אדם באופן המאפשר להתחקות אחריו. כרגע התזכיר מונה שני סוגים של מערכות מסוג זה, "עין הנץ" שהיא מערכת LPR (License plate recognition) ומערכת לזיהוי פנים.
מקריאת התזכיר עולה כי לא ניתן מקום לקביעת סטנדרטים מינימליים בהם מערכות חדשות ומתוחכמות נדרשות לעמוד בהן. יותר מכך, התזכיר מאפשר חוסר שקיפות לגבי מערכות חדשות בהן ייעשה שימוש מכיוון שהממשלה מציעה כי המערכות בהן ייעשה שימוש תהיינה חסויות מעיניי הציבור. הסיכוי לבחון ולהצביע על כשלים במערכות טכנולוגיות במקום בו הידיעה מצויה רק במגרשו של צד אחד, אינו קיים.
בקדמה הטכנולוגית יש שפע הזדמנויות, בתנאי שנדע להעריך ולבקר את היכולות הטכנולוגיות ואת האופן בו נעשה בהן שימוש, בעיניים פקוחות. אולם חלילה לנו מלפתח ציפייה ומקסם שווא לגבי מתן מענה "מהסרטים" באמצעותם. כי אם נעשה כן, נמצא את עצמנו פוגעים (שוב) ביחידים הנמנים על ציבור שהטכנולוגיה לא סופרת אותם.
הכותבת היא עמיתה בכירה במכון הישראלי למדיניות טכנולוגיה וראש היחידה הממשלתית לחופש המידע לשעבר
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.