חשיפת המסמכים הפנימיים של פייסבוק מעלים אל פני השטח את ההשפעה ההולכת וגוברת של אלגוריתמי הדירוג שהם הבסיס לפייסבוק, לאינסטגרם, ולפלטפורמות החברתיות הרבות בהן אנו מבלים חלקים גדולים מיומנו. אלגוריתמים אלו קובעים אילו תכנים יובלטו ויופיעו ב-feed של המשתמשים, ואילו תכנים יוצנעו או ייעלמו כליל.
המסמכים שחשפה פרנסיס האוגן, העובדת שעזבה את פייסבוק, מצביעים על ההשפעות השליליות של אלגוריתמים אלו, השפעות שהנהלת פייסבוק היתה מודעת להן ובחרה להתעלם מהן.
קשה לעכל חלק מהעובדות המתוארות במסמכים הפנימיים. למשל, מספר מסמכים מתארים מחקר פנימי שהתבצע בפייסבוק והראה שהאלגוריתם של אינסטגרם משפיע באופן שלילי על דימוי הגוף של נערות: האלגוריתם דוחף משתמשות ומשתמשים להשוות עצמם לאחרים, להשוואה זו השפעה שלילית על דימוי הגוף, דבר הגורם להשתמש באפליקציה עוד יותר. מחקר זה הוסתר על ידי פייסבוק, ולמרות שבכירי פייסבוק היו מודעים אליו, הצהרותיהם הפומביות סתרו אותו פעם אחר פעם.
שיקולי הרווח היו חשובים יותר לפייסבוק מאשר טובת המשתמשים
ההשפעות של האלגוריתם של פייסבוק הרסניות גם לשיח בחברה שלנו. המסמכים מראים כי פייסבוק הינדסה את האלגוריתם שלה לשאוף לכמה שיותר מעורבות: להגיב כמה שיותר, ללחוץ על לייק, להביע רגש, כל סוג של רגש.
התעסקות זו גורמת למשתמשים לבלות יותר זמן על הפלטפורמה, מאפשרת לפייסבוק ללמוד יותר על המשתמשים, וחושפת את המשתמשים ליותר פרסומות שנהיות יותר ויותר מדויקות. דעות קיצוניות גוררות יותר הערות, יותר לייקים, ויותר פרצופים כועסים, וכתוצאה מכך האלגוריתם מקדם תוכן זה, למרות ההשפעה הרעילה על המשתמשים ועל השיח בפלטפורמה.
שיקולי הרווח היו חשובים יותר לפייסבוק מאשר טובת המשתמשים, וניסיונות להפוך את הפלפורמה לרעילה פחות נזנחו. גם כאן, פייסבוק מנעה מהציבור לדעת ולהבין מה קורה בפלטפורמה שלה. כשחוקרים מאוניברסיטת ניו-יורק ניסו לאסוף מידע על פרסומות פוליטיות בפלטפורמה, פייסבוק חסמה את הגישה שלהם וסגרה את החשבונות שלהם.
ניסיונות לגרום לפייסבוק לשנות את התנהגותה או לספק יותר שקיפות לא צלחו עד היום. בנוסף, פייסבוק היא אולי השחקן הבעייתי ביותר אבל פוטנציאל הנזק של הנדסת אלגוריתמים לגישה למידע היא בעיית עומק שלא מוגבלת אך ורק לפייסבוק. קשה מאוד לפתור בעיה זו בעזרת הגבלים עסקיים או בעזרת כלים רגולטוריים מסורתיים.
אז מה אפשר לעשות?
אנו צריכים להבין שהבעיה טמונה ביכולת של גורמים ריכוזיים ובעלי עוצמה לשלוט באלגוריתם הדירוג. אפשר לדמיין עולם בו האלגוריתם נמצא בשליטתם של המשתמשים, ולא של חברה מסחרית אחת ששולטת בכל השלבים של קבלת החלטות אלגוריתמיות: באיסוף המידע, בהנדסת האלגוריתם, ובגישה למשתמשים. רגולציה אפקטיבית יכולה להתמקד במתן בחירה אפקטיבית ומשמעותית למשתמשים באלגוריתם, כך שהם יוכלו להבין ולהחליט בעצמם איזה סוג של מידע הם רוצים לקבל.
השלב הראשון הוא שקיפות: משתמשים כיום לא יודעים איך האלגוריתם עובד, וכתוצאה מכך מפתחים ״תיאוריות עממיות״ על האלגוריתם שכוללים הגזמות פרועות (פייסבוק מצותתים למה שאנו אומרים) ומעשי כישוף דיגיטליים (פרסום פוסטים בסגנון ״עשו העתק הדבק של הפוסט הזה על הקיר שלכם וראו זה פלא...״). על פייסבוק לאפשר גישה למחקר עצמאי בצורה השומרת על פרטיות המשתמשים, ולדיון ציבורי פתוח באופן בו האלגוריתם בנוי.
בשלב השני, יש לאפשר למשתמשים לשלוט בצורה עצמאית באלגוריתם על ידי תחרות אמיתית בין חברות המספקות אלגוריתמים שונים ביניהם משתמשים יוכלו לבחור. רגולטורים שבויים בתפיסה של פייסבוק כחברה, אבל צריך לזכור שהפלטפורמה היא תוכנה, שהיא דבר גמיש בהרבה. תוכנות בנויות היום מרכיבים שונים, שמדברים ביניהם בעזרת ממשקי תוכנה (APIs) ורגולטורים יכולים לדרוש שלשום חברה לא יהיה מונופול על כל הרכיבים. יתכן וצריך לפרק את פייסבוק בצורה אופקית ולא אנכית: כלומר, לאלץ את פייסבוק לאפשר לחברות שונות להציע אלגוריתמים שונים על פי בחירת המשתמשים.
ישנו שיעור נוסף שאפשר ללמוד מהצעד האמיץ של פרנסיס האוגן. צריך לזכור כי האלגוריתמים נכתבים על ידי בני אדם, על ידי מפתחות ומפתחים, ולבני אדם אלו יש השפעה וכח משמעותי בתוך חברות כמו פייסבוק. ישראל היא אחד ממרכזי פיתוח התוכנה הגדולים בעולם, והרבה מאוד מהחברות המייצרות את האלגוריתמים שמתווכים את המידע לנו נמצאים גם כאן. לפייסבוק, גוגל, אמאזון, ומייקרוסופט יש מרכזי פיתוח בישראל, וחברות כגון טאבולה ווייז יוסדו ומנוהלות מישראל. האם החברות עושות כל שביכולתן כדי להבין כיצד המוצר שהם מעצבים ובונים פועל לטובת המשתמשים והחברה בכללותה? זוהי השאלה שצריכה להדריך את מנהלות ומנהלי המוצר והמפתחות והמפתחים הקוראים טקסט זה בניוז פיד שלהם.
הכותב הוא ראש המגמה להנדסת תעשייה וניהול באוניברסיטת תל אביב ומנהל משותף של מעבדת IWiT - Interacting with Technology
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.