דמיינו שאתם מתעוררים יום אחד למבול של הודעות מודאגות מחברים שמספרים לכם שסרטון פרטי שלכם דלף לרשת. אבל מבט אחד בסרטון מספיק לכם כדי לקבוע בוודאות - הוא נראה אמנם אמין לחלוטין, אבל הוא מזויף. אלה לא אתם. כלומר, הפנים בסרטון שלכם - אבל הגוף לא. כלי בינה מלאכותית חדש בשם FakeApp מאפשר בדיוק את זה - להדביק פנים של כל אחד על כל סרטון, בצורה אמינה ומשכנעת. התוכנה, שהועלתה לרשת החברתית רדיט וזמינה שם בחינם לכולם, לומדת בשלב ראשון את פני האדם שהמשתמש מעוניין "להדביק" באמצעות סרטון וידאו או מאגר תמונות גדול שלו. בשלב הבא היא שמה את פניו במקום פני האדם שבסרטון, כשלרוב יש צורך בשיפוצים קטנים כדי להפוך את הסרטון לאמין.
האלגוריתם בו משתמשת פייקאפ קיים כבר כמה חודשים, אך הנגשתו בצורה ידידותית שלא מצריכה ידע טכני היא עליית מדרגה. כל שהתוכנה דורשת הוא מעבד גרפי של חברת אנבידיה, את תכנת CUDA של החברה, ושטח אחסון פנוי של כ-4 ג'יגה בייט במחשב.
הגולשים הרשת החברתית רדיט (שמאפשרת אנונימיות בשונה מרשתות אחרות) משתמשים בה כרגע בעיקר ליצירת סרטוני פורנו מזויפים בכיכובן של סלבריטאיות, כשגל גדות וטיילור סוויפט היו בין הקורבנות הראשונים של האלגוריתם. משתמש אחד למשל, שאל איך יוכל ליצור סרטון אמין בכיכובה של חברתו לשעבר, ואחר סיפר שהכין סרטון פורנוגרפי מזויף של מישהי שלמדה איתו בתיכון תוך שימוש ב-380 תמונות מחשבונות הפייסבוק והאינסטגרם שלה. יש גם שימושים תמימים יותר כמובן, כמו האובססיה של חלק מהמשתמשים בטכנולוגיה להכניס את פני השחקן ניקולס קייג' לקטעים מסרטים וסדרות שבהן לא שיחק, כמו משחקי הכס או אינדיאנה ג'ונס.
גלעד האן / צילום באדיבות המצולם
השימושים המטרידים בטכנולוגיה זכו לסיקור נרחב בתקשורת העולמית ולביקורת ודאגה רבה מהפוטנציאל לסחיטה, השפלה ומתיחות מרושעות. אחד ממשתמשי רדיט כתב באתר בתגובה לסיקור התקשורתי את האפליקציה "לאלה שמגנים את הפרקטיקות של הקהילה הזו, אנו מבינים אתכם. מה שאנחנו עושים כאן הוא לא מכובד, משפיל, וולגרי. עם זאת, מה שאנחנו יוצרים כאן הוא ללא כוונת זדון. להפך. אנחנו מציירים עם טכנולוגיה מהפכנית ואקספרימנטלית שעשויה לעצב את עתיד המדיה והעיצוב".
הפוטנציאל ההרסני של טכנולוגיה כזו, כשלמעשה כל אדם עם מחשב יכול להשתמש בה יכול להיות מרחיק לכת אף יותר. הקלות בזיוף סרטונים יכולה לגרור עלייה בפייק ניוז, בריונות רשת, שימוש בדיסאינפורמציה לצרכי תעמולה ועוד. בחודשי הקיץ, עוד לפני יציאת פייקאפ, אתר ביזנס אינסיידר סקר בהרחבה את הסכנות שטומנות בחובן ההתפתחויות הטכנולוגיות שמאפשרות לזייף בקלות סרטונים, תמונות ואף קטעי קול, כמו התוכנות Lyrebird ו-Project Voco של אדובי, שיוצרות גרסה דיגיטלית לקול של בני אדם. תוכנות כאלה יסייעו לאנשים עם הפרעות דיבור לייצר דיבור ריאליסטי אך יכולות גם להביא להונאות שיגרמו לאנשים להעביר מסמכים מסווגים או כסף.
ג'סטין ט'ייס, בין המפתחים של Face2face, פרויקט בו חוקרים גרמו לפוליטיקאים בסרטונים להזיז את שפתיהם בהתאם לשפתי המשתמש, אמר לביזנס אינסיידר כי "הפיכת סוגים שונים של כלים שעושים מניפולציה על וידאו לזמינים לקהל הרחב יביאו להשפעות חברתיות משמעותיות. זו הסיבה שאנחנו לא הופכים את התכנה או את קוד המקור שלנו לזמין בצורה פומבית". סופסורן סווג'נקום, חוקר מפרויקט Synthesising Obama של אוניברסיטת וושינגטון, שבו בינה מלאכותית יצרה סרטון מזויף של אובמה, דווקא ראה צד חיובי בהפצת הטכנולוגיה ואמר בכתבה כי "אם כלים כאלה יהיו יותר מוכרים ובשימוש נרחב, אנשים יהיו זהירים יותר ולא ישתמשו בסרטונים בתור ראיות".
סרטון מזוייף של ג'סיקה אלבה/ איור גיל ג'יבלי
"הטיפול במקרים האלה בעייתי"
גלעד האן, חוקר עבירות ופשעי מחשב, הביע דאגה בשיחה עם "גלובס" לנוכח הפצת הטכנולוגיות החדשות. הוא הסביר כי הדבקת פנים של אדם על סרטון של מישהו אחר אמנם מהווה פגיעה בפרטיות ועבירה על חוק לשון הרע אם הופצה במטרה לפגוע בו, וכי פעולה כזו היא אף בעלת היבטים של הטרדה מינית אם מדובר בתוכן מיני אך אמר כי "הטיפול במקרים האלה מאוד בעייתי. המשטרה לא ערוכה לטפל באותם אירועים ואין אכיפה בתחום".
- אתה חושב שזה יכול להגיע אפילו רחוק יותר? לצורך העניין, פנים של מישהו שיודבקו על סרטון אבטחה שמתעד שוד?
"זה בהחלט אפשרי. אין שום בעיה היום לפברק סרטונים ברמה גבוהה. אם הייתי אדם שרוצה להעלים ראיות או להפליל מישהו אחר - מה הבעיה? אפשר להשתיל קול של מישהו אחר, לשתול טקסט של מישהו אחר ולעשות את זה גם בסרטון בצורה פשוטה".
- התמונות שלנו נמצאות בכל מקום, בפייסבוק, באינסטגרם, זו לא בעיה לקחת אותן, ולעשות בהן שימוש כזה, אז איך אפשר להתגונן, אם בכלל?
"לצערי הרב אין הרבה כלים כדי להתגונן. צריך לשמור על הפרטיות כמה שניתן אבל המידע שלנו בכל מקרה בחוץ, גם בתמונה שלי מהרצאה למשל יכולים לעשות שימוש לרעה. אני טוען שהפתרון הוא חינוך לתרבות גלישה, להסביר למשתמשים שהם פוגעים באחרים, ולמעשה עושים עבירות, ולקדם אכיפה, ענישה וחקיקה בתחום, כי אין שום גורם שנותן לאנשים את הבטחון שיש מי שיטפל בהם אם יפגעו".
- לרשתות החברתיות צריכה להיות אחריות כלפי מה שעולה אליהם?
"לגמרי, והם לא עושים את זה מספיק. כל תוכן כזה יכול לעלות כסרטון ליוטיוב או לכל מקום אחר ורק אם יש דיווחים אינספור או פגיעה באמת חמורה זה יוסר. צריך להיות שיתוף פעולה של הרשתות החברתיות כדי לצמצם את הפגיעה. כולנו הרי לקוחות שלהם. אז אולי שישמרו על הפרטיות והמידע שלנו? לפני שעולה סרטון שאנחנו מופיעים בו - אולי שיבדקו ויפנו אלינו? אני בטוח שמי שמשתמש ביישום הזה אפילו לא מבין את ההשלכות של מה שהוא עושה אז בהחלט יש מקום למפתחים עצמם וגם לרשתות החברתיות לקחת אחריות ולהעלות את המודעות בנושא".
סרטון מזוייף של גל גדות
"מהפכות מרתקות מבחינת טכנולוגיה"
פרופ' טל הסנר מהאוניברסיטה הפתוחה, חוקר בתחום הראיה הממוחשבת וזיהוי הפנים, מציג זווית שונה לחלוטין על הנושא. "אנחנו עושים בדיוק את מה שפייקאפ עושה בפרויקט באוניברסיטה הפתוחה בשיתוף סטודנט המחקר יובל נירקין ושותפים בארה"ב", מסביר הסנר, "אנחנו מציגים שיטה שמאפשרת לקחת פרצוף מתמונה ולשתול אותו בתמונה או בסרט וידאו בצורה אמינה. את המאמר שלנו פרסמנו באופן לא רשמי כבר לפני כשנה, עם הקוד והשיטה בה השתמשנו. זה פתוח למפתחים ברחבי העולם, ואני לא יודע אם מפתח פייקאפ השתמש באופן חלקי או מלא בשיטה שלנו או פיתח משהו אחר. אנחנו מנסים לעשות את שתילת הפרצופים באופן אוטומטי לגמרי. מה שמעניין אותי זה האתגר שבלימוד מחשב לקחת פרצוף מתמונה ולשים במקום פרצוף מתמונה אחרת כשכל מה שנתתי לו זה שתי תמונות. בסרטון יש עוד ממד של קושי, אבל פתרון הבעיה עם תמונות זה צעד ראשון כדי לעשות את זה גם בווידאו".
הסנר מסביר כי "הבעיה מעניינת אותנו כי היא מקפלת בתוכה הרבה שאלות כמו איך מאתרים פנים בתמונה, איך מבדילים בינן לבין רקע או משקפי שמש. דברים שאנחנו עושים בקלות כי המוח שלנו התפתח כדי לפתור את הבעיות האלה, אבל ללמד מחשב לעשות את זה מציב אתגר. השאלות האלה חשובות לכל מערכת שעושה זיהוי פרצופים, ולאינטראקציה בין אדם למכונה. החלפת פנים זו דרך לארוז את השאלות האלה".
הסנר מרגיע מעט בעניין ההשלכות השליליות של הטכנולוגיה ומסביר כי אין הן אינן חושפות את הציבור לסיכונים שלא הכרנו, "כבר מעל עשור אנשים מעתיקים תמונות לתוך פרצופים באופן ידני באמצעות כלי גרפיקה ממוחשבת. פייקאפ לא המציא שום דבר שלא היה קיים, פשוט עושים יותר מזה באופן אוטומטי ומנגישים את זה גם למי שאין רקע טכנולוגי", הוא אומר.
- כן, אבל הם מפברקים גם וידאו. זה מבהיל.
"זה נכון שווידאו היה קשה יותר לייצר כי בשנייה יש 25-30 תמונות, לעשות כל כך הרבה העתקות ידניות זה לא פרקטי, וחוסר עקביות ייצור תנועה לא חלקה, ועכשיו אנחנו יכולים לעשות את הכל אוטומטי. אבל עדיין היו יכולים לעשות את זה, למטרות פליליות או לא ראויות, גם לפני עשר שנים. מבחינת ההשלכות על הציבור הרחב, הטכנולוגיה יותר נגישה, אבל זה לא שלא עשו דברים כאלה קודם. אבל מבחינת טכנולוגיה, יש כאן מהפכות מרתקות".
אתה לא חושש מההשלכות על פייק ניוז, בריונות רשת, פעילויות פליליות וכו' שנובעות דווקא מהנגשת הטכנולוגיה לקהל הרחב?
"את אומרת שעד עכשיו אנשים רעים לא יכלו לעשות דברים רעים? זה לא נכון. כל טכנולוגיה משמשת להרבה דברים. במכונית אפשר להשתמש כאמבולנס או כדי לעשות פיגוע התאבדות. בריונות רשת אנשים עשו עם תמונות עוד קודם, ומבחינת היכולת לבצע פשעים, אין כאן משהו שלא ידענו שקיים. הייתי רוצה להאמין שרשויות החוק מודעות לזה שאפשר לעשות מניפולציות לתמונות או לסרטי וידאו, כבר עשרות שנים - מהיום שהם הפכו לדיגיטליים. כבר לפני 20 שנה דיברו איתנו משפטנים ושאלו אם צריך להביא בחשבון שאפשר לפברק הוכחות מצולמות בווידאו".
אתה מרגיש שיש למפתחים אחריות מוסרית על ההשלכות? הרי המפתח פרסם את היישום באופן פתוח ברדיט ורואה מה עושים איתו עכשיו.
פרופסור טל הסנר/ צילום באדיבות המצולם
"אני חושב שמחובתו היה לפרסם, אותי מפחיד הרעיון שמישהו פיתח טכנולוגיה והוא לא חולק אותה עם אף אחד. יכול להיות שיהיו אנשים שישתמשו בזה לרעה, אבל הפוטנציאל לטוב לדעתי הרבה יותר גדול. בנוסף, ברגע שהטכנולוגיה בחוץ וכותבים כתבות כאלה זה אמור לגרום למקבלי ההחלטות לפעול ולהחליט איך מתמודדים עם התופעה החדשה. אם הוא לא היה משחרר את זה, בפעם הראשונה שמישהו היה מציג תמונה מזויפת רשויות המשפט לא היו יודעות בכלל שיש כאן אישיו".
- רשויות החוק מתקשות להדביק את הפער הטכנולוגי.
"נכון, אבל כשהטכנולוגיה מקבלת במה זה מדרבן אותן. הפער היה גדול בהרבה אם בכלל לא היו יודעים שיש סוגיה שצריך לדון בה".
הסנר מרחיב על שימושים חיוביים רבים בטכנולוגיה החדשה, ביניהן טכנולוגיות שמורכבות על מכוניות ומנסות לזהות אם הנהג מתעייף או מסתכל לכיוון הלא נכון, ולהתריע בפניו, מערכות שמנתחות פנים כדי לזהות סימנים למחלות כמו פרקינסון או לבחון התפתחות תקינה אצל תינוקות, ומזכיר גם שתי חברות ישראליות, "FDNA מנתחת פרצופים של ילדים כדי לנסות למצוא פגמים גנטיים, ואורקאם עוזרת לאנשים עם קשיי ראייה לזהות מי עומד מולם. יש המון מחקר, ואינסוף שימושים חיוביים לדברים האלה".
הסנר מספר גם על מהלך הפוך שקורה היום. אם עד היום בינה מלאכותית חיקתה בינה אנושית, הוא מסביר איך היום ניתן ללמוד ממנה על המוח האנושי, "במחקר שלנו, חלק מהמוטיבציה היא לנסות להבין, באמצעות הטכנולוגיה, איך המוח האנושי מפרש ומזהה תמונות של פרצופים. בשנים האחרונות טכנולוגיות הופכות להיות מכאלה שאנחנו בנינו ויודעים בדיוק איך הן עובדות, למערכות שלומדות לבד ונהיות מורכבות בהרבה ממה שהיינו יכולים לתכנן.
"הן יכולות ללמד אותנו, להתחרות בנו, ואנחנו צריכים לחקור אותן כמו שחוקרים מוח אנושי. יש לי מערכת מורכבת שנתתי לה המון דוגמאות והיא השתכללה, אני לא יודע איך היא למדה לפתור בעיה מסוימת - למרות שאני בניתי אותה. זו אחת החזיתות המרתקות של המדע כרגע. אם על הדרך יש מישהו שהולך לנצל את זה לרעה - היה מישהו שניצל לרעה כל תגלית אנושית בהיסטוריה. אם השיקול היה 'זה מסוכן, אל תעשה את זה', היינו צריכים לעצור עוד בעידן הברונזה כי עשו מזה חרבות", הוא מסכם.
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.