תוכן שיווקי

כתבה זו נכתבה והופקה על ידי כותבי תוכן מקצועיים בשיתוף גורם מסחרי.

כתבות התוכן השיווקי בגלובס כוללות מידע ענייני בעל ערך מוסף לקורא, תוך שמירה על שקיפות מרבית כחלק מהקוד האתי של גלובס.

מלחמת הבינה המלאכותית הראשונה: בוטים, ניטור ולמידה עמוקה מסייעים להסברה ישראלית ב"חרבות ברזל"

התבקשתם להעריך עד כמה פוסט מסוים אוהד או עוין אותנו בעולם? כנראה שלקחתם חלק במאמצי ההסברה הדיגיטליים של ישראל • טכנולוגיות הבינה המלאכותית ולמידת המכונה משתכללת והופכות את זירת הרשתות החברתיות למורכבת עוד יותר • יסמין אוריה-הירש, יועצת אסטרטגית לחדשנות דיגיטלית ומנכ"לית סוכנות הדיגיטל קונספט מדיה, מסבירה איך זה עובד

צילום: Midjourney
צילום: Midjourney

הכתבה בשיתוף סוכנות הדיגיטל "קונספט מדיה"

במקביל ללחימה באוויר וביבשה, "חרבות ברזל" הופכת להיות גם המלחמה הראשונה שבה הבינה המלאכותית משחקת תפקיד מאוד משמעותי. ההסברה הישראלית כבר מזמן לא נשענת רק על הגופים הממשלתיים, אלא הורחבה למעגל ארגוני החברה האזרחית ומתנדבים רבים שעומלים סביב השעון על קידום עמדת ישראל בעולם. בזמן שצה"ל נלחם באוויר, בים וביבשה, הם נלחמים בזירת הרשתות החברתיות המורכבת, שבה כל פייק ניוז יכול להסב נזק אדיר. ההסברה הישראלית גייסה את מיטב כלי הבינה המלאכותית ולמידת המכונה - מבוטים שמסייעים בייצור והפצת תוכן פרו-ישראלי, דרך תרגומים אוטומטיים של מסרים לעשרות שפות ועד לזיהוי ודיווח על פייק ניוז ברשת.

ארסנל הכלים שעומד לרשות מי שנוטלים חלק ב"מלחמת ההסברה" הוא, כאמור, אדיר. דוגמאות כמו ChatGPT ו-Google Bard שיכולים לסייע בייצור המסרים הם רק טיפה קטנה בים הבינה המלאכותית. דוגמה אחרת בולטת לשימוש בבינה מלאכותית בהסברה הישראלית הוא צבא הבוטים. "קיימות קבוצות וואטסאפ שאליהן ניתן לשלוח פוסטים בפייסבוק או ברשתות חברתיות אחרות ולסמן אם הם בעד או נגד ישראל. אם מוכרע שהן בעד ישראל, מערך של בוטים מבוסס למידת מכונה מפיק ומשכפל עבורם תגובות חיוביות נוספות, לייקים ושיתופים. הכל כדי להגדיל את החשיפה וההשפעה שלהם", מסבירה יסמין אוריה-הירש, יועצת אסטרטגית לחדשנות דיגיטלית ומנכ"לית סוכנות הדיגיטל קונספט מדיה, אשר משמשת בהתנדבות כראש מערך הדיגיטל במטה הסברה בינלאומית בו עשרות מתנדבים העוסקים באיסוף המידע, בריכוזו, בהכנת תכנים, בחשיפה ובהפצה ברחבי העולם. "אם הם מסווגים כנגד ישראל", מוסיפה יסמין, "מערך הבוטים מדווח עליהם כמפרים את מדיניות הפלטפורמה. כל זה מתאפשר הודות לפיתוחים מבוססי בינה מלאכותית".

מניטור השיח ברשת ועד למשוב בזמן אמת

שימוש נוסף בכלים של בינה מלאכותית מאפשר לנטר את השיח שמתנהל ברשת. "ניתן לנתח את מילות המפתחות הפופולאריות ביותר, למשל ביוטיוב, בזמן אמת, וכך יודעים להפיץ סרטונים שעוסקים באותן מילות מפתח", מסבירה אוריה-הירש. ניתוח בזמן אמת מאפשר לזהות גם את המגמות בשימוש בהאשטגים שונים ו"להתחבר" אליהם. כמו למשל השימוש הנפוץ בהאשטאג FreePalestineFromHamas# בתכנים פרו ישראלים. תגובה לתכנים אנטי-ישראלים אשר עשו שימוש בהאשטג FreePalestine#.

ניטור השיח באמצעות כלי בינה מלאכותית מאפשר גם משוב בזמן אמת על האופן שבו מתקבלים התכנים השונים. מה שמכונה Social Media Listening/Monitoring. "יש מערכות שיכולות לנתח סנטימנטים של פוסטים שונים או תגובות. לראות אם הם חיוביים או שליליים או אם הם כוללים את מה שהיינו מצפים שהם יכללו שמעיד על הבנה של המסר", אומרת יסמין אוריה-הירש. "זה מאפשר למשל, לזהות בזמן אמת אם השיח בנושא מסוים הוא יותר לטובתנו או לרעתנו. אם אנשים הבינו את המסר שניסינו להעביר. כך אפשר לטייב את המסר או להפיץ מסרים נוספים בנושאים שאנחנו רואים שמעוררים תגובות חיוביות בדעת הקהל העולמית ברשתות החברתיות", היא מדגישה בנוסף. כך גם אלגוריתמים של למידת מכונה יכולים לסייע למקד מסרים מותאמים לקהלים ספציפיים, על סמך ההתנהגות המקוונת שלהם.

צילום: Midjourney
 צילום: Midjourney

הקרב במחנה האושיות של טיקטוק

אחת מ"זירות הקרב" המשמעותיות הפעם היא טיקטוק, עוד מתחילת מלחמת רוסיה-אוקראינה, אשר כונתה על ידי רבים "מלחמת הטיקטוק הראשונה". זאת בשל הפעילות הנמרצת של משפיעניות ומשפיעני רשת מקומיים ועולמיים. "הסיבה לכך היא שבטיקטוק התוכן הוא ששולט בפלטפורמה ולא האושיות שמייצרות אותו. מדובר בזירה שמונעת על ידי טרנדים ויראליים", מסבירה יסמין אוריה-הירש. "לצערנו, בסכסוך הישראלי-פלסטיני ישראל תופסת את הצד החזק והכובש במשוואה, ואילו הפלסטינים את הצד החלש והמדוכא", היא מוסיפה. אך דווקא דבר זה נוצל על ידי מלחמת ההסברה כדי להשתמש בנשק האהוב על ישראלים, "טרולינג", כפי שמספרת אוריה-הירש: "דוגמא לכך היא הפצה בטיקטוק פילטר מבוסס בינה מלאכותית שמיועד, לכאורה, לקהל פרו-פלסטיני. הוא צובע את פניהם בצבעי הדגל ומוסיף כיתוב בערבית; הוא מתבסס על נטיית המשתמשים לפעול על פי טרנדים ולוקח בחשבון שרבים מהמשתמשים בפילטר כלל אינם דוברי ערבית ולא מבינים שהכיתוב שמתנוסס על פניהם הוא למעשה Hamas is ISIS, בדיוק הפוך מהמטרה שהם חושבים שהם מקדמים".

ברשתות חברתיות אחרות, שיותר מבוססות על הפעילות של אושיות רשת, כמו פייסבוק למשל, אפשר לנצל את הכוח של הבינה המלאכותית כדי "לדובב" את מאמצי ההסברה בצורה מושלמת לעשרות שפות במקביל. "נועה תישבי, אחת משגרירות ההסברה הבולטות של ישראל, נעזרת בכך על מנת לדברר את מסריה למדינות שונות בעולם", אומרת אוריה-הירש ומוסיפה: "ישנן גם מגוון פלטפורמות, חלקן גם חינמיות, המאפשרות לכל אחד לעשות זאת בעצמו. בחלק מהמקרים כל מה שצריך כדי ליצור סרטון כזה הוא לא יותר מתמונת סטילס אחת".

פייק ניוז ודילמות אתיות אחרות בשעת הקרב

ביום יום, מנהלת יסמין אוריה-הירש את סוכנות הדיגיטל "קונספט מדיה" שעובדת עם כלי בינה מלאכותית באופן שוטף. "לכן גם החיבור שלי לכל המערך של מטה ההסברה הבינלאומי היה מאוד טבעי. מהר מאוד זיהינו שהמלחמה מתמודדת עם המון אתגרי הסברה, ובדיגיטל בפרט", היא אומרת. "זאת בנוסף לכך שבאופן טבעי בעיתות מלחמה יש הרבה יותר תאוצה וכלים שמסייעים להפיץ תוכן, אבל התוכן המופץ הוא לא בהכרח מאומת, נכון ואמין", מוסיפה אוריה-הירש ומשתמשת בדוגמה הבאה: "כשבועיים לאחר תחילת המלחמה, הצ'אטבוטים של Google Bard ו-Bing טענו שישראל וחמאס הגיעו להפסקת אש. אנחנו רואים כל הזמן אזהרות אפילו של ענקיות הטכנולוגיה שמזהירות שהכלים שלהם עדיין לא מדוייקים לחלוטין, אך עדיין אנשים עשויים להסתמך עליהם".

בנוסף, כמו בעולם הנשק, כך גם במלחמת הבינה המלאכותית, מה שיכול לייצר יתרון לצד אחד, בהחלט יכול לפעול גם לטובת הצד השני. "הבינה המלאכותית הפכה להיות טכנולוגיה שמאפשרת לכל אחד ליצור תוכן בקלות. מה שמאפשר כמעט לכל גולש לייצר 'חדשות' שהן לא אמיתיות ואימג'ים שלא היו - קרי פייק ניוז", מדגישה אוריה-הירש. דוגמה לפייק ניוז שכזה היא סרטון שיוצר על ידי בינה מלאכותית, של מסוק צה"ל שהופל כביכול על ידי חמאס - וזכה ל-2.5 מיליון צפיות לפני שהוסר מהרשת. "הטכנולוגיה כל כך מתקדמת שלא תמיד הזיוף קל לזיהוי", אומרת אוריה-הירש. כדי להילחם בפייק ניוז, נעשה שימוש בין היתר בצבא הבוטים, כמו גם בכלים אחרים, אשר אמורים לזהות אותו בזמן אמת ולנסות להביא להסרתו המהירה.

סוגיית הפייק ניוז, לצד נושאים אחרים, מעלים, לדברי אוריה-הירש, את החשיבות של גיבוש כללי אתיקה לשימוש בבינה מלאכותית בהסברה. "אחת הדילמות המשמעותיות נוגעת למניפולציה והטעיה. זהו כמובן החשש ששימוש בבינה מלאכותית בתוך מערכה צבאית עשוי לגרור שימוש פוטנציאלי לרעה במידע, ניצול פגיעות פסיכולוגיות, ערעור על עקרונות קבלת החלטות ועוד", היא מסבירה. "דילמה נוספת נוגעת להפצת דברי שנאה. שימוש בבינה מלאכותית יכול דווקא להגביר הפצה של דברי שנאה, לעודד עוד אלימות ולהנציח אפליה. אנחנו צריכים לדאוג שזה לא יקרה".

עוד דילמה שעולה לדברי אוריה הירש מתייחסת לנושאים כמו הטייה והגינות וחוסר שקיפות. "מצד אחד, אלגוריתמים של בינה מלאכותית הם לכאורה אובייקטיביים. אין להם רגשות. אבל הם מבוססים על הנתונים שעליהם הם אומנו - והנתונים האלה עלולים להיות מוטים", היא מדגישה. "אין תמיד שקיפות לגבי המקור של הנתונים או תהליך קבלת ההחלטות שהוביל לריכוז של הנתונים הללו. גם האלגוריתמים של הבינה המלאכותית שבהם נעשה שימוש לא תמיד שקופים. חובה שתהיה שקיפות בנושאים האלה".

בשורה התחתונה, ניתן לראות כי שימוש בבינה מלאכותית הופך לכלי נשק משמעותי במלחמת ההסברה במלחמה הנוכחית, ובכלל, בעיצוב דעת קהל. יש לכך יתרונות רבים בייצור של מידע, ניתוח, הפצה ועוד. אך יחד עם זאת, כאמור, כל הצדדים במערכה יכולים להשתמש בבינה מלאכותית, מה שמייצר לא רק יתרונות, אלא גם אתגרים רבים - ומחייב גיבוש של כללי אתיקה מוסכמים.

צרו איתנו קשר *5988