גוגל השיקה לאחרונה פיצ'ר חדש, דופלקס - סייען רובוטי בעל בינה מלאכותית. ייחודו של הסייען הוא שדופלקס מתקשר לעסקים בשמו של המשתמש ויכול להזמין עבורו מקום במסעדה או לקבוע תור לרופא מבלי שבעל הטלפון יהיה מעורב בשיחה.
במרבית השיחות הסייען מזדהה כבוט אוטומטי, ואומר "אני הסייען של גוגל ואני מתקשר עבור לקוח. השיחה תוקלט", אך כאשר מדובר בשיחה שמנוהלת על ידי אדם - כלומר, כאשר השיחה מבוצעת ביוזמת המשתמש (ולא בזמנו הפנוי של הסייען, מבלי שבעל הטלפון מאזין) ויש לו יכולת להשתלט על השיחה - הסייען רק אומר "היי, אני מתקשר כדי להזמין מקום עבור לקוח. אני מתקשר מגוגל אז ייתכן שהשיחה תוקלט". מספר עיתונאים מחו על כך שהגילוי הנאות של דופלקס אינו ברור דיו וכי לנציג השירות מעבר לקו לא בהכרח יהיה ברור שמדובר ברובוט. זאת בפרט משום שהסייען נשמע ממש דומה לבן אדם, כולל המהומים קטנים כמו "המממ…" ו"אה…." שמשולבים במהלך השיחה, מעצימים את האשליה ומקשים על קביעה חד משמעית האם מדובר בבן אנוש או ברובוט בעל בינה מלאכותית.
הדרישה להזדהות מקבעת את יחסי הכוחות
גישה זו - הדרישה לבינאריות - מאפיינת חלקים גדולים מדי באוכלוסיה, וחבל: גבר או אישה? ימין או שמאל? אשכנזי או מזרחי? דתי או חילוני? אדם או רובוט? החיפוש אחר הגדרה ברורה וחתומה מגביל אותנו מאוד ומעקר את היכולת להציג דעות מורכבות ולהכיל פלואידיות.
"העולם החדש", כפי שהוא מכונה לעיתים, מביא איתו שפע אפשרויות חדשות, ציר מרתק שלא בהכרח נכנע להגדרות המקובלות: טרנסים וטרנסיות ששינו את מינם, נון-בינארים שמעדיפים פניה בלשון רבים ניטרלית (they ולא him או her. בעברית זה קצת פחות עובד).
ההתפתחויות הטכנולוגיות מובילות לכך שפרוטזות ותותבות נעשות משוכללות יותר וכבר לא בהכרח נעשה ניסיון להסוות אותם כאילו מדובר באיברי גוף רגילים. אמני קעקועים משתמשים בכף יד רובוטית המוצמדת לזרועם ומאפשרת להם להיות מדויקים ועדינים הרבה יותר; שלדי מתכת מאפשרים לעובדים לשאת משקל גדול יותר; קוצבי לב מאריכים את חייהם של אנשים באופן מלאכותי. כמה תוספים גופניים - פנימיים או חיצוניים - יצטרכו בני שיחנו כדי שנעבור להתייחס אליהם כאל רובוטים?
אם כן, האם על רובוט להזדהות בפנינו ככזה ואם כן - מתי? האם חשוב שנציג שירות יידע שהוא מדבר עם רובוט במשימה הפשוטה שהיא הזמנת מקום במסעדה? ואולי ההיפך - האם חשוב שאנחנו נדע שאנו משוחחים עם בוט אוטומטי? לכאורה התשובה היא כן גורף, עלינו לדעת זאת תמיד, אחרת נחוש מרומים. אלא שנדמה כי הרצון הזה נובע מהאופן שבו אנו רגילים להתנהל: הרבה מהאינטראקציות שאנו מעורבים בהן מתקיימות במתכונת של יחסי כוחות - מי שולט במי, מי יראה למי, למי יש יותר גדול. זה נכון במיוחד בשיחה עם נציגי שירות, הגיוני בעינינו לרצות לדעת על מי אנו מתעצבנים: הרי אין סיפוק בצעקות על רובוט ערל לב שמתייחס לטענותינו בענייניות קרה - לא אם אנחנו מתקשרים במטרה להכניע אותו ולגרום לו להתחרט על היום שבו נולד. נדמה כי דווקא בשיחות המתנהלות על מי מנוחות אין חשיבות רגשית מרובה לשאלה האם מי מהדוברים הוא בינה מלאכותית.
אלא שכבר עתה הגבול בין אדם למכונה נעשה מטושטש יותר ויותר: מזה כשנתיים פועלים תאי וידויים רובוטיים, שבהם בני אדם מוזמנים להתוודות על חטאיהם בפני בינה מלאכותית שמעודדת אותם לדבר ושואלת שאלות מנחות. מפעילי התאים הבינו שלעיתים נוח יותר להיפתח מול זר גמור, מה גם שהבינה המלאכותית אינה שופטת ואינה מטיפה מוסר. יותר מכך: קיימים כיום הרבה אתרים שמציעים שירות של צ'ט עם נציג שירות - אך לא תמיד הם טורחים ליידע מראש שמדובר בבוט.
אנו אוהדים רובוטים שלא נראים כמונו
אנחנו רוצים שלרובוטים שמשרתים אותנו יהיו רגשות ומפחדים מכך כאחד: אנחנו מאנישים את הרומבה שמנקה לנו את הבית כאילו יש לה רגשות ותודעה, מאוהבים ב"כלב" המרקד של בוסטון דיינמיקס - אך חוששים מרובוטים שנראים בדיוק כמו בני אדם משום שמבחינתנו פה עובר הגבול: הם דומים לנו מדי, באופן לא מודע הם מאיימים עלינו. אולי לכך התכוון סטיבן שפילברג בסרט "A.I. אינטליגנציה מלאכותית", שיצא ב-2001 ומציג אנדרואידים שנראים כמו בני אדם וניחנים באינטליגנציה גבוהה ואף ברגשות (זאת בניגוד לרפליקנטים של בלייד ראנר, שמתנהגים כמו בני אדם אך לא ניחנו באמפתיה וזה מה שמאפשר לציידי רפליקנטים לזהות אותם בעזרת שורה של מבחנים פסיכולוגיים).
אז כן, בשלב כלשהו נצטרך להתמודד עם העובדה שרובוטים בעלי בינה מלאכותית ובעלי תודעה יחיו בינינו, ייצאו מדי יום לעבודה וינהלו איתנו מערכות יחסים. בתוך שנים ספורות נצטרך להתמודד עם שאלות פילוסופיות כמו האם הם זכאים לזכויות ולהכרה - בין אם הם נראים כמו בני אדם ובין אם לא - והאם חלים עליהם דיני עבודה ומנוחה.
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.