אפל הודיעה כי היא תעכב את התוכנית השנויה במחלוקת שלה לסרוק ספריות תמונות של משתמשים לאיתור תמונות של פגיעה והתעללות בילדים.
"בחודש שעבר הכרזנו על תוכניות לתכונות חדשות שנועדו לסייע בהגנה על ילדים מפני פוגעים המשתמשים בכלים תקשורתיים כדי לגייס ולנצל אותם, ולהגביל את ההתפשטות של חומרים של התעללות מינים בילדים", נמסר בהודעת החברה. "בהתבסס על משוב לקוחות, קבוצות תמיכה, חוקרים ואחרים - החלטנו להקדיש זמן נוסף בחודשים הקרובים כדי לאסוף מידע ולבצע שיפורים לפני שנפרסם את התכונות הקריטיות והחשובות להגנה על ילדים", נכתב.
אפל עוררה מחלוקת באופן מיידי לאחר שהכריזה על המערכת שלה לבדיקה אוטומטית של תמונות בחשבונות ה-iCloud מחשש להתעללות מינית בילדים. המערכת תהפוך את התמונות במכשירים לפלט מוצפן (hashes) שמאוחסן במכשיר המשתמש. המחרוזות אלה יותאמו למאגרי נתונים שמספק ה-National Center for Missing and Exploited Children. לפי החברה, המכשיר למעשה ייצור "safety voucher" מוצפן ברגע שיש חשד להפרה.
ברגע שיש רף של שוברים כאלה מסומנים, צוות הבדיקה של אפל יקבל התראה - יפענחו את ההצפנה, ישביתו את החשבון המסוכן ויתריעו למרכז הלאומי. מי שחושב שחשבונותיו סומנו בטעות, יכול להגיש ערעור על כך. בנוסף כתבה אפל כי הסף שהוגדר מסוגל לספק רמת דיוק גבוהה במיוחד "ומבטיח פחות מאחד טריליון סיכויים בשנה לסמן נתון לא נכון".
"במקום לסרוק תמונות בענן, המערכת מבצעת התאמה במכשיר באמצעות מסד נתונים של קבצי תמונות CSAM (ראשי-תיבות: Child Sexual Abuse Material) המסופקים על-ידי המרכז הלאומי וארגוני בטיחות אחרים. אפל הופכת את מסד הנתונים למערך מוצפן המאוחסן בצורה מאובטחת במכשירים", נכתב בהודעה של החברה.
המערכת הזו הייתה אמורה להיכנס למכשירי המשתמשים מאוחר יותר השנה, לא ברור כמה זמן היא תדחה את התוכניות שלה.
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.