ענקית הטכנולוגיה אפל הודיעה בשבוע שעבר כי היא בוחנת מערכת חדשה שתבדוק אוטומטית תמונות בחשבונות ה-iCloud מחשש להתעללות מינית בילדים. לפני שאפל משחררת את המערכת החדשה לכולם בעדכון תוכנה עתידי, ענקית הטכנולוגיה ביקשה לשמוע דעות על המערכת עצמה ופנתה לשני פרופסורים - פרופ' מיהיר בלאר, המתמחה בקריפטוגרפיה, מאוניברסיטת קליפורניה סאן דייגו; ופרופ' בני פנקס, ראש מרכז הסייבר מהמחלקה למדעי המחשב באוניברסיטת בר-אילן.
"מה שמתבצע במערכת זו השוואה של תוכן בענן לרשימה שיש להם בשם CSAM. זה בעצם Child Sexual Abuse Material, שנבנה בעזרת ארגוני ילדים רלוונטיים. הם רוצים לבדוק תמונות בצורה שתיקח רק את הדברים הבעייתיים מבלי להדליף או להוציא שום מידע אחר, וזה תחום המומחיות שלנו בקריפטוגרפיה", מסביר פרופ' פנקס בראיון לגלובס. "דוגמה מסובכת לזה - איך בוחנים שתי רשימות שמות מקבילות ולגלות את השמות שחוזרים בין הרשימות - מבלי לקבל מידע על השמות האחרים ברשימה".
פייסבוק וגוגל פועלות בצורה בעייתית יותר, אך בהצלחה רבה יותר
המערכת החדשה מתרגמת את התמונות שעולות לענן למחרוזת מוצפנת המורכבת ממספרים, והם משווים את המחרוזת הזו למחרוזות של מאות אלפי תמונות שאם אדם מחזיק אותן, זו עבירה פלילית. המערכת יוצרת שוברי בטיחות בכל פעם שיש הפרה, וגם כאן אפל מחדדת שאין זה מספיק להחזיק תמונה אחת בעייתית - אלא רק כשיש רף של שוברים שלא פורסם, אז המערכת תדע להדליק נורה אדומה לצוותים האנושיים שיבחנו את המקרה. אז הצוותים יקבלו תמונה ברזולוציה נמוכה ויידעו אם צריך להשבית את החשבון ולהתריע למרכז הלאומי לילדים נעדרים ונפגעים.
וזה מה שפרופ' פנקס בחן - האם אכן שאר המידע נשאר שמור ולא יוצא החוצה כחלק מהבדיקה הזו. "קודם כל, לא משווים את התמונות שיש במכשיר. מה ששומרים במכשיר ומה ששולחים בהודעות, נשאר במכשיר. המערכת הזו מתחילה לפעול רק כשמעלים את התמונות לענן", מתאר פרופ' פנקס.
לצורך ההשוואה, פרופ' פנקס מסביר כי שירותי הענן של פייסבוק, גוגל וענקיות הטכנולוגיה האחרות פועלות בצורה בעייתית יותר, אך בהצלחה רבה יותר. "החברות האחרות סורקות את התמונות ובודקות אותן מול מאגרי ה-CSAM. אפל ביצעה בעבר פחות סריקות, ומן הסתם זה מה שהוביל את הלחץ על אפל מצד מחוקקים אמריקאים להתחיל להיכנס לעולם הזה", אומר פרופ' פנקס.
על-פי דיווחים ב"ניו יורק טיימס", פייסבוק דיווחה על 20 מיליון תמונות בעייתיות בשנה, מול דיווחים על 250 תמונות מצד חברת אפל. זה מה שהוביל את אפל לעבוד על פתרון שיאפשר למצוא את התמונות הבעייתיות, בלי להסתכל בתמונות אחרות.
"אנשים חוששים שיקטלגו אותם בטעות כפדופילים, אבל זה לא יקרה - משתי סיבות. הראשונה - המערכת מתוכננת שזה לא יקרה. גם אחרי שנדלקת נורה באפל, יש צוותים אנושיים שעוברים על התמונות ובודקים שזה באמת פורנו ילדים; הסיבה השנייה היא הסף שאפל יצרה. אם יש מעט תמונות בעייתיות, וזה לא באמת מישהו שאוסף תמונות מהסוג הזה, אז לא יודעים שום דבר. אם יש יותר מהסף, אז זה יעבור לפרוצדורה החוקית שלהם", מפרט פרופ' פנקס. "זו רשת לתפיסת פדופילים עם חורים. הם יעדיפו שיברחו אנשים, מאשר להפליל אנשים שלא עשו את זה".
"הביקורת מצד וואטסאפ היא ממש חוצפה"
כחלק מהביקורת שהופנתה אל אפל, כמובן שפייסבוק וחברות-הבת שלה יהיו שם. ויל קת'קארט, מנהל וואטסאפ, צייץ בחשבון הטוויטר שלו וכתב: "המערכת תוכל בקלות לסרוק תוכן פרטי לכל דבר שהם או הממשלה מחליטים שהיא רוצה לשלוט בו. למדינות בהן נמכרים מכשירי אייפון יהיו הגדרות שונות לגבי מה שמקובל". עוד הוא הוסיף כי המערכת של וואטסאפ דיווחה על יותר מ-400 אלף מקרים למרכז הלאומי מבלי לשבור את ההצפנה - מהלך שאפל מוכנה לעשות.
פרופ' פנקס עונה על שתי הביקורות האלה: "אנשים מפחדים שהממשלה תוכל להגיד לאפל להכניס נושאים נוספים, לא רק פורנו - נגיד את מחאת בלפור. ראשית, אפל מצהירה כי בעבר היא נלחמה נגד ניסיונות כאלה מצד ממשלות והצליחה להדוף אותם. שנית, המערכת בנויה כך שהקידוד של הקבצים שמחפשים צריך להיות בתוך הטלפון, וכדי לשנות את הקידוד הזה צריך לעדכן את מערכת הפעלה. זאת אומרת, כדי לשנות את הקבצים שמחפשים, צריך לשחרר עדכון מערכת הפעלה - מהלך שלא קורה כל יום. אני עושה ספקולציה, אבל לא אתפלא אם אפל קשרו לעצמם בכוונה את הידיים".
אך פרופ' פנקס מחזיר את הביקורת על וואטסאפ (ששייכת לפייסבוק). לדבריו, "הביקורת מצד וואטסאפ היא ממש חוצפה. פייסבוק סורקים תמונות בצורה גלויה, והם אכן מדווחים על 20 מיליון קבצים בשנה. אפל לפחות מנסה לשמור על הפרטיות של המשתמשים שלה".
בנוסף, הוא מחדד שאפל לא באמת שוברת את ההצפנה, כי גם לאחר שהיא מחליטה לפעול, "שובר הבטיחות מכיל את כל המידע הקריפטוגרפי שכלל את החישוב שאני ביצעתי, והוא מכיל את התמונה ברזולוציה נמוכה בצורה מוצפנת". למעשה זה המענה גם לענייני ה-AI שבמערכת: תפקיד הבינה המלאכותית כאן היא לנפות את הכמות האדירה של המידע לכדי משהו שהצוותים האנושיים יוכלו להתמודד איתו. "שאר החברות גם עושות את זה, אי-אפשר שכל המידע יעבור את הצוותים האנושיים. ולכן אין פה באמת זיהוי אוטומטי שיכול להוות בעיה", מחדד פרופ' פנקס.
"המנדט שלי היה לבדוק את המתמטיקה, את הקריפטוגרפיה. למרות שלא ידעתי על קיומו, גם פרופ' בלאר וגם אני הגענו למסקנה שהמערכת תקינה, משמע הם מצליחים לבחון את התמונות הבעייתיות מבלי להדליף שום מידע אחר על התמונות האחרות. שנינו כתבנו הוכחה מתמטית ווידאנו את זה".
עוד הוסיף פרופ' פנקס כי "אני חושב שבמבחינה טכנית המערכת מצוינת. אפל מנסה לעשות טוב, לא מנסה לרגל אחרי המשתמשים ופועלת כדי לשמור על הפרטיות של המשתמשים שלה".
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.