מדינות העולם משלבות כוחות בצל חשש מהשפעת AI על פיתוח נשק כימי וביולוגי

ועידה בינ"ל במרוקו תדון בסכנות הבינה המלאכותית בפיתוח נשק להשמדה המונית • ראש הארגון למניעת נשק כימי: "חוסר היציבות הגלובלי הופך את האפשרות הזו ללא רק תאורטית"

אימון של צבא צרפת להתמודדות עם התקפה ביולוגית / צילום: Shutterstock
אימון של צבא צרפת להתמודדות עם התקפה ביולוגית / צילום: Shutterstock

ההתמודדות העולמית עם החששות משימוש בבינה מלאכותית לפיתוח נשק להשמדה המונית תגיע בקרוב לשיא חדש, עם היוודע קיום ועידה בינלאומית שתתקיים בנושא באוקטובר במרוקו.

מסר לסין: ישראל משתתפת בתרגיל צבאי בהוואי
כותרות העיתונים | בהודו משוכנעים: ישראל עומדת בפני הפסד אסטרטגי

את הוועידה שתעסוק בנושא פיתוח נשק כימי בעזרת בינה מלאכותית יארח המלך מוחמד השישי במימון קטאר, סין, גרמניה, ספרד וקוריאה הדרומית. מדענים ודיפלומטים ממדינות רבות צפויים להגיע לרבאט, בצל החששות כי בינה מלאכותית עשויה לסייע לגורמים עוינים בפיתוח חומרים רעילים חדשים. "הבינה המלאכותית מציבה איום גבוה בתקופה של מתיחויות בינלאומיות", הסביר פרננדו אריאס, ראש הארגון למניעת נשק כימי, ביום שישי האחרון בברלין.

לשימוש בנשק כימי בשדה הקרב יש "מורשת" ארוכה יותר מזו של הנשק הגרעיני, שהשימוש הראשון בו היה בהירושימה ובנגסאקי ב־1945. שלושים שנה קודם לכן, שימוש בגז כלור הביא למותם של כ־6,000 לוחמים צרפתים בתוך עשר דקות באיפר שבבלגיה במסגרת מלחמת העולם הראשונה. מאוחר יותר, זכור כיצד במרץ 1988 רצח סדאם חוסיין כ־5,000 כורדים בעזרת הטלת מכלי נשק כימי על העיר חלבג'ה, ואיך משטר אסד השתמש בעשור הקודם שוב ושוב בנשק כימי נגד אזרחים - תוך שהנשיא לשעבר ברק אובמה מאיים כי יגיב על מתקפות חוזרות שכאלו - איום שלא מימש.

מי שלפחות לפי שעה נפקדת מאותה הוועידה היא רוסיה, מדינה בעלת מורשת נרחבת של שימוש בנשק כימי, בין אם בשדה הקרב ובין אם בסגירת חשבונות עם מתנגדי משטר. לפי מזכירות המדינה האמריקאית, למשל, רוסיה השתמשה בכלורופיקין נגד כוחות אוקראינים. מעבר לכך, רוסיה רשומה על השימוש בחומר הכימי "נוביצ'וק" נגד אלכסיי נבלני ב־2020. הוא אמנם לא מת מאותו אירוע, אבל לפני חודשים ספורים הוא מת בבית הכלא שבו נאסר בנסיבות עלומות.

מהווה רק "סיכון קל"?

בבסיסה, בינה מלאכותית אינה דבר שלילי, והיא משמשת בין השאר יצרני תרופות לפיתוח ענף הרפואה. אולם, העולם החל להתעורר משנתו ב־2022, עת חוקרים בכירים פרסמו בכתב העת Nature Machine Intelligence מאמר מטלטל, שלפיו לקח לבינה המלאכותית פחות משש שעות כדי להמציא 40 אלף מולקולות שעלולות להיות קטלניות. למעשה, כל שנדרשו החוקרים היה לקחת את הבינה המלאכותית שמשמשת לאותן תועלות חיוביות, ולהפוך אותה למעין "שחקן רע".

הנשיא ביידן / צילום: Associated Press, Alex Brandon
 הנשיא ביידן / צילום: Associated Press, Alex Brandon

בתעשייה העולמית מודעים לכלי בעל הפוטנציאל הגדול לשמש לטובה כמו גם לרעה, ושלכן נדרש טיפול עמוק בנושא. OpenAI, יוצרי צ'אט GPT, סיפרו בפברואר כי הם בונים מערכת התרעה מוקדמת, שתודיע אם הבינה המלאכותית מסוגלת ליצור נשק ביולוגי. בחברה טענו כי הבינה המלאכותית מהווה רק "סיכון קל" לסיוע לאיומים כאלה, אך הודו כי נכון לבדוק במטרה להבין לעומק את הסכנה שמשתקפת ממנה.

"חוסר היציבות הגלובלי הופך את האפשרות לשימוש בנשק להשמדה המונית ללא רק תאורטית", מסביר ראש הארגון למניעת נשק כימי. "בלתי אפשרי לנטרל את הסיכונים שמציבה ה-AI, שאנחנו בתחילת מימוש הפוטנציאל שלה. מדע וטכנולוגיה משפרים את יעילות האמל"ח, כשה-AI היא המדאיגה מכל. היא מוסיפה קטלניות".

בה בעת, גונטר סאוטר, הממונה על סחר באמל"ח במשרד החוץ הגרמני, אומר כי פתוגנים שנוצרים באמצעות בינה מלאכותית, "עלולים להוות אתגר חמור" על השימוש בנשק ביולוגי. "ייתכן שהעולם יידרש להתאים מחדש את הקו בין חופש מחקרי מדעי לאחריות מדעית. עלינו לבחון אילו צעדים אנו יכולים לנקוט במסגרת בקרת הנשק", צוטט ב"נשיונל" האמירותי.

בארה"ב נערכים

מדינה שפועלת כבר כמה חודשים בעניין הסכנות הללו היא ארה"ב. בהוראת הנשיא ג'ו ביידן, מזכירות הגנת המולדת פרסמה באפריל מסמך שכותרתו "שימוש בטוח ואחראי בבינה מלאכותית בממשל הפדרלי, בתשתיות קריטיות ובכלכלה האמריקאית".

"משאבים חדשים להפחתת הסיכונים של AI בתחומי איומים כימיים, ביולוגיים, רדיולוגיים וגרעיניים, הוגשו במסגרת דוח לנשיא", נמסר ממזכירות ביטחון המולדת. "הדוח כולל מודלים של בינה מלאכותית שעלולים להגביר איומים ביולוגיים וכימיים על ארה"ב". במסגרת הכנת אותו מסמך הממשל בוושינגטון שילב זרועות עם אנשי אקדמיה.

עוזרת מזכיר ביטחון המולדת לנושאי מאבק בנשק להשמדה המונית, מארי אלן קלהאן, הגדירה את "השימוש האחראי" בבינה המלאכותית כמבטיח רבות לפיתוח המדע ופתרון אתגרים דחופים לשיפור הביטחון הלאומי. אולם, היא סייגה כי "הבינה המלאכותית מחייבת שנהיה מוכנים לצמצום מהיר של השימוש בה לרעה עבור פיתוח איומים כימיים וביולוגיים".