הפיתוי גדול מאוד: מדוע לשלוח חיילים צעירים למות במדינה רחוקה אם אפשר לשלוח במקומם גדודי רובוטים? מדוע לסמוך על מהירות התגובה של חייל אנושי, או לחשוש מכך שיהסס או שיערער על שיקול דעתם של מפקדיו אם ניתן לסמוך על צבא רובוטי מדויק, חסר רגשות וצייתני? שלא לדבר על העובדה שחיילים אנושיים צריכים בסיסי מגורים, מזון, שינה ומשכורות.
ההתקדמות שחלה בשנים האחרונות ביכולות העיבוד, האופטיקה והמכניקה מציבים כבר עכשיו את האנושות בפתחו של עידן חדש בכל הקשור ליכולת לנהל מלחמה. בעגה המקצועית מכנים את התחום החדש "רובוטים קטלניים אוטונומיים". הרובוטים האלה, שיתוארו בכתבה, עדיין אינם קיימים - אבל ארגוני זכויות האדם לא מתכוונים לחכות: בשבוע שעבר הם כבר הכריזו על יוזמה בינלאומית, שכוללת בין היתר פנייה לאו"ם.
מירוץ החימוש החל
אפשר לטעון שרובוטים מסוגים שונים משולבים בשדות הקרב המודרניים זה שנים, אולם הכתבה הזאת אינה עוסקת באלה שכבר קיימים אלא באלה שנמצאים בפיתוח במקומות שונים בעולם. ויש הבדל גדול בין שני הסוגים: המל"טים האמריקאיים והישראליים מוטסים מרחוק על-ידי מפעילים אנושיים; מערכות סיור רובוטיות כמו הגארדיום שפיתחה חברת G-NIUS של התעשייה האווירית ואלביט, מסיירות כבר יותר מארבע שנים סביב רצועת עזה, אולם אין להן היכולת לפתוח באש באופן אוטומטי; מערכות רואה-יורה מתוצרת רפא"ל מוצבות על-גבי מגדלי שמירה בגזרות מסוכנות כדי לשחרר מהן חיילים בשר ודם, אולם הן נשלטות ממוצב שליטה מרוחק, וכדי לפתוח בירי באמצעותן נדרש אישור של קצין.
במאמר שעוסק בנושא בביטאון צה"ל "מערכות", מבחין סרן ניר סולומון ממפא"ת (מינהלת פיתוח אמצעי לחימה ותשתיות) בארבע רמות של מערכות אוטונומיות: לרמה 1, אוטונומיות חלקית, שייכות המערכות שמטרתן "לאפשר למפעיל האנושי להפנות את הקשב שלו להיבטים מורכבים יותר של המשימה". למשל: טייס אוטומטי, חימוש מונחה אוטומטי או מערכות בדיקה אוטומטית של תקלות.
מערכות אוטונומיות מרמה 2 עושות כל מה שמערכות מרמה 1 יודעות לעשות "בתוספת של יכולת להגיב על איום על-פי החלטה של מפעיל בשר ודם. ברמה הזאת הכלי הוא מעין זרוע ארוכה של המפעיל: הוא מספק לו את המידע הדרוש לו ואת האמצעים להגיב".
מערכות אוטונומיות מרמה 2 כוללות מל"טים חמושים, מערכת רואה-יורה ורובוט לסילוק פצצות. למערכות אוטונומיות מרמה 3 יש גם "יכולת להגיב באופן עצמאי על איום ולהבחין בין מטרות. ההחלטה על עצם הטיפול במטרה נמצאת בידי בני אדם, אך אופן הטיפול נתון לשיקול המכונה".
מערכות רובוטיות מרמה 4 יהיו, אפוא, עצמאיות לחלוטין, ויחליטו באופן עצמאי מהו איום, אם לפעול נגדו וכיצד - ללא כל התערבות של מפעיל אנושי. מערכות כאלה עשויות לעופף באוויר, לצלול בים, להתגלגל על הקרקע כמו טנק או אפילו להיות טמונות בקרקע עצמה. דמיינו, למשל, מוקש נייד וסלקטיבי שמאתר את המטרה המושלמת ביותר מבחינתו, ואז מתפוצץ מתחתיה.
אם כל זה נשמע לכם כמו תסריט מסרט מדע בדיוני שלעולם לא יתממש בפועל, אתם כנראה אלה שחיים בסרט. "אתה חייב לזכור שמדובר בתעשייה עצומה", מסביר פרופ' נואל שארקי, מומחה בינלאומי לרובוטיקה ולאינטליגנציה מלאכותית מאוניברסיטת שפילד בבריטניה. "חברות ענק מתחרות זו בזו על מיליארדי דולרים והן צריכות כל הזמן להוציא לשוק מוצרים חדשים ומתקדמים יותר מבחינה טכנולוגית.
"כלים אוטונומיים לגמרי הם אחד האפיקים הללו, וזו הסיבה שאנחנו רואים דחיפה חזקה מאוד של התחום הזה. התעשייה בארצות הברית, למשל, מייצרת כל-כך הרבה מטוסים, שמתישהו בעתיד לא יהיו מספיק טייסים בשביל להטיס אותם, והדברים הללו יוצרים לחץ על מקבלי ההחלטות ללכת לכיוונים הללו. אם לא נעצור את זה עכשיו אין לי ספק שבתוך שני עשורים נראה רובוטים כאלה בשדות הקרב".
- ישנם כבר כיום כלים כאלה שנמצאים בפיתוח.
"בהחלט. תראה למשל את פרויקט ה-X47b, מטוס רובוטי שמשוגר מנושאות מטוסים. הרעיון של הפרויקט הזה הוא להחליף כבר בעשור הבא את מטוסי הקרב המאוישים. וישנו פרויקט Crusher שמפתחת אוניברסיטת קרנגי מלון. זהו רובוט קרבי אוטונומי במשקל 7.5 טונות, שקיבל את השם שלו כי המפתחים שלו הדגימו כיצד הם מועכים קדילקים באמצעותו.
נוסף על כך יש תוכניות לבניית צוללת אוטונומית שתפקידה לצוד בכוחות עצמה וצוללות דיזל אחרות. זה, למשל, פרויקט שפחות מסכן אזרחים אבל הוא מראה את סוג החשיבה של מתכנני מערכות הנשק הללו. כאן בבריטניה ישנו פרויקט ה-Taranis, שהוא מטוס קרב בין-יבשתי לא מאויש. טיסת המבחן הראשונה שלו תיערך באביב הקרוב. אנחנו כבר עמוק בתוך התהליכים הללו".
- ועדיין, זה לא בדיוק המחסלים שאנחנו מכירים מסרטי "שליחות קטלנית".
"נכון, אבל זה מפחיד לא פחות. אנשים רואים כל-כך הרבה סרטי מדע בדיוני שהם חושבים שהרובוטים הללו יכולים באמת לחשוב, אבל זה ממש לא המצב. אנחנו בעצם מדברים על מכונות הרג שמחוברות לחיישנים. אין להן יכולת אמיתית לקבל החלטות מושכלות, ואני חושב שהתוצאה של שימוש בהן בשדה הקרב תהיה הרג גדול יותר של חפים מפשע".
כבר ב-2007, כשהבין שהטכנולוגיה מתקדמת בצעדי ענק לכיוון של אוטונומיה מוחלטת, התריע פרופ' שארקי, במאמר שפרסם בגרדיאן, מפני המשך המגמה. שש שנים חלפו, ולאור המשך הפיתוח בתחום הוא מודאג כיום במיוחד. לדבריו, אף שמדינאים ואנשי צבא מודעים לסכנה שמגולמת ברובוטים אוטונומיים לחלוטין, יוצרת תעשיית הנשק הגלובלית לחצים כבדים שעשויים לגרום להם לשנות את דעתם - אם בשל הבטחה ליעילות יוצאת דופן, או בגלל חששם של מקבלי ההחלטות מכך שאויביהם יצטיידו במערכות כאלה בעוד שהם ידבקו במודל הישן של צבא אנושי.
"אם לא נעצור את עצם הפיתוח של מערכות כאלה אנחנו נראה בתחום הזה מירוץ חימוש, וגם האמריקאים ייאלצו להצטרף אליו בין אם הם רוצים ובין אם לאו", אומר שארקי. "סין, למשל, מפתחת מטוס לא מאויש שאמור להיות חסין גילוי במכ"ם ואמור להיות מסוגל לנהל קרבות אוויר".
לפני נקודת האל-חזור
לאחרונה, דווקא משום שיש קונצנזוס רחב בעולם הצבאי והמדעי שההתפתחויות הללו בלתי נמנעות, התארגנה קואליציה של תשעה ארגונים לא ממשלתיים, שמטרתה למנוע כבר עכשיו את המשך המחקר והפיתוח של רובוטים מסוג זה. הקואליציה הזאת כוללת בין השאר את פרופ' שארקי, את ארגון Human Rights Watch ואת כלת פרס נובל לשלום ג'ודי וויליאמס, שזכתה בו על עבודתה להפסקת הייצור של מוקשים-נגד-אדם והטמנתם.
אין להקל בכך ראש: הקואליציה הזאת מנסה, לראשונה בהיסטוריה, לשים בלמים למדע ולמנוע לחלוטין מחקר בתחום מסוים; זאת מתוך שכנוע עמוק שעצם המחקר והפיתוח ייצרו יכולות שמימושן בשלב כלשהו יובילו לאסון שאת ממדיו לא ניתן לחזות כעת. בחודש הבא תשיק קואליציית הארגונים הללו קמפיין בינלאומי שמטרתו להפעיל לחץ ציבורי על כל המדינות בעולם לחתום על אמנות מחייבות בתחום, שהפרתן תשית עליהן סנקציות כלכליות ואף צבאיות.
בעיתוי מקרי, שלושה ימים לאחר הפרסום על התאגדות הקואליציה, הודיע הפנטגון שלפחות בחמש השנים הקרובות ייבנו המערכות הרובוטיות האוטונומיות של ארצות הברית "בזהירות יתרה, ויוקפד שהן יפעלו על-פי חוקי המלחמה המקובלים".
"תראה, אני יודע שממשלות חוששות מאוד מהאפשרות של צעידה מנתיב של מערכות אוטונומיות לחלוטין, וחשוב לי להדגיש שהקמפיין שלנו אינו מתנגד לרובוטים או לרובוטים אוטונומיים, אלא יוצא רק נגד רובוטים אוטונומיים לחלוטין שהם חמושים", אומר סטיבן גוס, מנהל מחלקת הפיקוח על אמצעי הלחימה ב-Human Rights Watch. אין ספק שבעתיד נראה לפחות במדינות המפותחות צבאות עם כלים אוטונומיים יותר ויותר, אבל אנחנו משוכנעים שחייבים למתוח קו כלשהו כבר עכשיו. אנחנו מאמינים שגם בצבאות עצמם רוב האנשים מבינים את הסכנה הזאת".
יו"ר המועצה הלאומית למחקר ולפיתוח במשרד המדע, האלוף (במיל') פרופ' יצחק בן-ישראל, מסכים: "האמנה הזאת היא יוזמה טובה מאוד מבחינת המין האנושי, והייתי שמח מאוד אם לעולם לא יהיו מערכות לחימה אוטונומיות לגמרי. כיום אמנם אין לנו עדיין היכולת ליצור אותן, אבל ברור שבתוך כמה עשורים תהיה לנו היכולת הזאת. המחשבים הולכים ומתקרבים ליכולת החישוב הנדרשת, ובמקביל יפותחו גם האלגוריתמים המתאימים, ולי ברור שצריך להיערך לסכנה הזאת כבר עכשיו. אני לא יודע אם הדרך הנכונה להילחם באפשרות הזאת היא איסור פיתוח. יש כמה טכניקות אחרות לפיקוח - במחקר ביולוגי למשל, יש מנגנונים כמו ועדת הלסינקי - אבל ברור לי לגמרי שזה בהחלט איום שצריך לחשוב עליו ולהיערך אליו כבר עכשיו".
- פחות אכזריים מבני אדם?
ההתנגדות לפיתוח רובוטים רצחניים אוטונומיים נשענת על שלוש סיבות עיקריות: קושי בהבדלה בין לוחמים ללא מעורבים, שמירה על מידתיות ועניין האחריות למעשיהם.
"אם המערכות הללו ייוצרו הן יהיו בעלות יכולת לבחור את המטרות שלהן בעצמן ולהרוג אותן ללא כל התערבות אנושית - וזה עוד מילא", אומר שארקי. "אבל הבעיה היא שאין ולא תהיה למערכות הרובוטיות הללו יכולת להבדיל בין לוחמים לבין אזרחים. זו משימה קשה מאין כמוה. זה לא רק עניין של חיישנים שיקלטו מידע ושל מעבדים שינתחו אותו".
בעיה נוספת שעליה מדבר שארקי היא עקרון המידתיות: "מידתיות אינה משהו אובייקטיבי. זו מילה שיותר קרובה לאמנות מאשר למדע. לפעמים צבאות תוקפים מטרה ויוצרים נזק נלווה שגורם למוות של אזרחים או לפציעה קשה שלהם, אולם מפקדים צריכים להחליט בעצמם במצבים כאלה אם מספר האנשים שהם הורגים הוא מידתי לתועלת הצבאית שהם משיגים מתקיפת המטרה. זה נושא מורכב מאין כמוהו, ואנשים כתבו עבודות דוקטורט על הנושאים הללו.
הבעיה השלישית היא בעיית האחריות המשפטית והמוסרית למעשיהם של הרובוטים. כמו בכל מערכת ממוחשבת, גם במערכת רובוטית אוטונומית יכולות לצוץ הרבה מאוד בעיות. הם יכולים להתקלקל, להידבק בווירוסים שיגרמו להם לפעול נגד הצד ששלח אותם, להיתקע, לחטוף כדור או רסיס ולהשתגע, לסבול מבעיות חומרה או תוכנה.
"אין סוף לדרכים שדברים יכולים להשתבש ברובוט שכזה בשדה הקרב", אומר שארקי, "ואם אחד הדברים הללו קורה, יהיה קשה מאוד לגלות מה בדיוק הייתה הסיבה לכך שהרובוט ביצע מעשים שמוגדרים כפשעי מלחמה ומי אחראי להם: התוכניתן שכתב את התוכנה? המפקד שהזין את נתוני המשימה לתוכנה? החברה שייצרה את הרובוט? השאלות הללו יוצרות בעיות קשות מאוד בהקשר של דיני מלחמה".
- ומה דעתך על הטיעון של מצדדי הפיתוח, שלפיו רובוטים לעולם לא יהיו אכזריים כמו אנשים? הרי במאה האחרונה ראינו כיצד בני אדם יכולים להתאכזר אלה לאלה.
"אני מכיר את הטיעון הזה", זועף שארקי. "אנשים אומרים דברים כמו, 'רובוטים לא כועסים, הם אינם ששים לנקום, הם לא יסרבו לפקודה ולא יהיה אכפת להם אם החייל שעומד לצדם ייהרג. ברור שלא יהיה אכפת להם, וגם למכונת הכביסה שלי לא יהיה אכפת מהדברים הללו. אבל אני לא מתכוון לשלוח את מכונת הכביסה שלי לקרב. אם לאנשים יש רגשות שמשפיעים על התנהגותם בשדה הקרב אז מה שאתה צריך לעשות זה לפקח על ההתנהגות שלהם. אם פשוט תיקח את הכלים הטכנולוגיים המתוחכמים ביותר ותשלח אותם לשדה הקרב לא תפתור את הבעיות הללו. זו טעות קשה.
"בוא נניח, למשל, שצלף יורה על קבוצת אזרחים ושיש רובוט אוטונומי שיוכל לאתר את הרשף מהרובה ולירות טיל היישר לתוך המבנה שבו נמצא הצלף. השאלה היא אם רובוט כזה יוכל להבין שאולי הצלף מסתתר מאחורי קבוצה של ילדים, או שהוא מיקם את עצמו בכוונה בתוך בית ספר. רוב בני האדם יבינו שאותו צלף מנסה לגרום להם להגיב בכוח יתר; כלומר שהתגובה שלהם עשויה להרוג יותר אזרחים מלוחמי אויב, ולהפוך את כל העניין ללא כדאי. משום כך בני אדם מפעילים את כושר השיפוט שלהם, ורובם יימנעו מתגובה באש בסיטואציה כזו".
- מה תעשו לגבי מדינות שימשיכו לפתח מערכות כאלה? הרי יש מדינות שעדיין מטמינות מוקשים ומשליכות פצצות מצרר.
"האמת היא שמאז האיסור על שימוש במוקשים נגד אדם ב-2008 ירד מאוד השימוש בהם, ומאז שנכנס לתוקפו האיסור על ירי פצצות מצרר יש הרבה מדינות, כמו ארצות הברית, שכבר לא משתמשות בהן. יש אפקט של סטיגמה שלילית כלפי מדינות שעושות שימוש, וזה עובד".
גוס אומר שכבר עכשיו הוא אופטימי מאוד באשר לסיכוי להצליח במאבק. "יש לי תחושה חיובית מפני שעצם הקונספט של רובוטים רצחניים אוטונומיים לגמרי נתפס על-ידי הציבור כדבר מעורר דחייה. אנשים שומעים על האפשרות הזאת ותגובת הבטן שלהם היא לדחות אותה. הציבור צריך להבהיר למנהיגים שאסור ללכת בכלל בנתיב הזה".
"זה לא יהיה קל", מסכם שארקי, "אבל אני בהחלט חושב שזה אפשרי".