דוח שהזמינה פייסבוק ממליץ לה לשפר את כלי הבינה המלאכותית שלה, כדי לזהות תכנים בעייתיים כמו טקסטים של שנאה. בכך מצביע הדוח על מגבלות הטכנולוגיה של פלטפורמת המדיה החברתית הגדולה בעולם.
הדוח בחן את הגישה של פייסבוק לזכויות אזרח ומתח עליה ביקורת כ"תגובתית ומאולתרת מדי", זאת למרות ההשקעות שפייסבוק ביצעה לכאורה בחיישניים מבוססי בינה מלאכותית ובאנליסטים אנושיים כדי לזהות ולהסיר תכנים מזיקים.
לפי הדוח, החברה דיווחה כי נכון למרץ, הכלים שברשותה סייעו לזהות ולהסיר 89% מהטקסטים של השנאה לפני שהמשתמשים דיווחו עליהם, לעומת כ-65% מהטקסטים שנה לפני כן. אך חוקרים חיצוניים טוענים שעדיין אי אפשר למדוד כמה פוסטים שהועלו לפלטפורמה כה גדולה מתחמקים מהצנזורה הזו.
"אני יכול לגלוש לפייסבוק ברגע זה ולהיכנס לדפים מסוימים ולמצוא שם טונות של תכנים כאלו", אמרה פרופ' קייטלין קרלסון, חוקרת תקשורת באוניברסיטת סיאטל, שחקרה תוכני שנאה בפייסבוק. "אם הטכנולוגיה משתפרת כל כך, למה פייסבוק לא משתפרת באותה מידה?"
כלי הבינה המלאכותית של פייסבוק הם אולי חזקים, אבל הסרת התכנים הללו אינה קלה כמו לחיצה על כפתור המחיקה.
הכשרת כלי למידת מכונה בזיהוי תכנים פסולים כמו אנליסטים אנושיים דורשת זמן, מומחיות והמון נתונים לזיהוי המילים והוויזואליה הזו. קבוצות השנאה גם מתמחות יותר בעקיפת החיישנים האוטומטייים של הפלטפורמה. וישנם הממדים של פייסבוק - 2.6 מיליארד משתמשים שמפוצלים בין אינספור שפות ותרבויות - ועסקי הפרסום שמתבססים עליה.
מדען הבינה המלאכותית הראשי של פייסבוק, יאן לקאן, אמר בראיון במרץ שהוא עובד על פיתוח בינה מלאכותית שמפקחת על עצמה, שיכולה לחקות מאמץ אנושי לטפל בכל ההיקף של האתר. "למכונות הלמידה הנוכחיות אין שכל ישר. יש להן תפקוד מוגבל וצר מאוד", הוא הסביר. הוא הוסיף שהדוח שפורסם זה עתה "חשוב מאוד לפייסבוק כדי שהיא תוכל לאתר תוכני שנאה במאות שפות".
"צוות הארגונים המסוכנים" של פייסבוק, שמתמקד בטרוריסטים ובקבוצות שנאה מאורגנות נוספות, ממחיש את הגישה ההיברידית (משולבת) של החברה בתגובה לאתגרים הללו.
הצוות הזה, 350 עובדים בראשות מומחים למאבק בטרור, משתמש בשילוב של בדיקות "ידניות" וכלים אוטומטיים כדי להגביל את תפוצת המסרים של ארגוני ג'יהאד כמו דאעש. באמצעות " hashes", טביעות אצבע דיגיטליות של תוכן לזיהוי תעמולה בכוח בזמן אמת, הצוות גם אימן "מסווגים" של למידת מכונה לבדוק את הפוסטים כמו אנליסטים אנושיים.
אבל התברר שקשה יותר לכוון מחדש את הכלים האלו לזיהוי תכנים של חסידי עליונות לבנה, אומרים מומחים נגד טרור. התכנים הללו נוטים להית מפוצלים יותר ובעלי ניסוח אירוני שחופף לעתים קרובות נאומים פוליטיים של הימין. ממשלות מערביות גם לא מזהות קבוצות רבות כאלו כארגוני טרור, ובכך הן שוללות מחברות הטק את המפתח לנקוט נגדן פעולה.
הדינמיקות הללו הופכות את השיקולים אם להסיר תוכן ל"קשים הרבה יותר להשגה ולהשגה בזמן אמת", אמר ניקולאס רסמוסן, מנכ"ל פורום האינטרנט העולמי למניעת טרור, שהוא שותפות בין ממשלות וחברות טק כולל פייסבוק, טוויטר ומיקרוסופט. "זה האתגר שהחברות עומדות בפניו", אמר רסמוסן בראיון בחודש שעבר.
חוקרים אומרים שהתקפת הטרור של חסידי העליונות הלבנה בכרייסטצ'רץ' שבניו זילנד בשנה שעברה - שהועלתה לפייסבוק בסטרימינג חי ששותף בהרחבה - מדגימה את הסכנה של תוכן שנופל בין הכיסאות בפייסבוק.
החברה הכפילה מאז את ההתמקדות שלה בקבוצות ימין קיצוני, ופנתה יותר לבדיקות ממוקדות של אנליסטים אנושיים במקום כלי בינה מלאכותית, אומרים דוברים של פייסבוק. הטקטיקה הזו הניבה את ההסרה במרץ של Northwest Front, קבוצת שמטיפה למדינה אתנית לבנה באגן הצפון מערבי של האוקיינוס השקט, ולהסרה ביוני של רשת חשבונות שקשורה לתנועת הבוגאלו הרופפת (ימין קיצוני, לובשי חולצות בנוסח הוואי).
מנהלי פייסבוק מצביעים על יכולתה הגוברת להסיר תכנים כאלו מראש כהוכחה לשיפור המצב, ודוברת החברה מסרה ביום רביעי שצוות הארגונים המסוכנים מתמקד יותר ויותר בתחום זה. אך עדיין, פעילי זכויות אזרח ומפרסמים חידשו את הביקורת שלהם על גישת החברה לתכנים קיצוניים על רקע הדיון הלאומי בארה"ב על פשעי שנאה בעקבות הריגתו של השחור ג'ורג' פלויד במעצר משטרתי במיניאפוליס במאי.
"רשמנו התקדמות אמיתית עם השנים", כתבה סמנכ"לית התפעול שריל סנדברג בפוסט שלה ביום רביעי. "אבל העבודה הזו לעולם לא מסתיימת, ואנחנו יודעים איזו אחריות גדולה יש לפייסבוק להשתפר באיתור והסרה של תוכני שנאה".
מה יהיה עם שיח השנאה בפייסבוק
● פייסבוק סופגת ביקורת רבה מצד פעילי זכויות אדם ומפרסמים על השיח הקיצוני ברשת החברתית
● בפייסבוק מצהירים כי הם מודעים לאחריות שלהם וכי הם משתפרים עם השנים
● הטכנולוגיה עדיין מוגבלת מבחינת היכולת שלה לעבוד באופן אוטומטי, במאות שפות
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.