מה צריך לעשות כדי שהרובוטים יזכו לקבלת פנים חמה יותר במקום העבודה? ייתכן שהתשובה היא שצריך לתכנת אותם לעשות טעויות.
חוקרים באוסטריה בדקו לאחרונה את האינטראקציה בין רובוטים לבין עובדים אנושיים בסימולציה של מקום עבודה.
כשכמה מהרובוטים עשו טעויות, מכיוון שתוכנתו לעשות זאת, הייתה אינטראקציית הרובוט-אדם חיובית יותר מאשר במקרים שבהם ביצעו הרובוטים את עבודתם באופן מושלם. "אנשים שמקיימים אינטראקציה עם רובוטים לא-מושלמים פיתחו חיבה רבה יותר כלפי רובוטים אלה", אומרת ניקול מירניג, עמיתת מחקר במרכז לאינטראקציית אדם-מחשב באוניברסיטת זלצבורג, ואחת מששת החוקרים שחיברו את הדוח שהתפרסם ב-Frontiers in Robotics and AI.
החוקרים תכנתו רובוטי Nao - המיוצרים בידי החברה היפנית סופטבנק קורפ, ומעוצבים בדמות כמו אנושית - לבצע שני סוגי טעויות, כולל הפרות מתונות של נורמות חברתיות (הרובוט מבקש מהאדם לחזור על הדברים שאמר) וכשלים פיזיים (הרובוט שומט חפצים מידיו). במחצית מהניסויים עשו הרובוטים שגיאות ובמחצית השנייה הם תפקדו ללא דופי.
החוקרים הבחינו שכאשר הרובוטים עשו שגיאות, ציינו האנשים את השגיאות, ולאחר מכן המשיכו לעבוד עם הרובוט. החוקרים הקליטו את הניסוי במצלמת וידיאו, ולאחר מכן בחנו את האיתותים החברתיים של האנשים כגון תנועות גוף, צחוק או הסטת מבט, כדי לקבוע את מידת החיוביות שבה הגיב כל משתמש לטעויות הרובוט.
לאחר כל ניסוי, הביעו המשתתפים האנושיים את דעותיהם על האינטראקציה.
תכנות רובוטים לעשות טעויות "יוצר דמות רובוטית מהימנה" שמאפשרת אימוץ טוב יותר של טכנולוגיה רובוטית באמצעות אינטראקציה טבעית יותר, לדברי מירניג. התקשור בין רובוט ואדם יוצר לעתים קרובות את אותם סוגי האינטראקציה כמו התקשור בין אדם לאדם, לדברי מירניג.
"כל כך הרבה הנחות בתחום התקשורת בין אדם לאדם רלוונטיות לאינטראקציית אדם ורובוט", אומרת מירניג. רובוטים שנתפסים כמושלמים יתר על המידה מזכירים לבני האנוש את החסרונות של עצמם, והופכים את האינטראקציה לפחות נעימה, לדבריה.
המחקר מאשש את ההנחה הרווחת זה זמן רב בקרב פסיכולוגים, שקל יותר לחבב אנשים לאחר שהם עושים שגיאות, לדברי מירניג. "יש שגיאות שהופכות אנשים לסימפטיים, וזה נכון לגבי רובוטים ממש כמו לגבי אנשים".
מירניג מודה כי יש גבולות ליכולתם של המהנדסים להאניש את הרובוטים באמצעות שימוש מכוון בטעויות. בני אדם עלולים לדחות רובוטים שעושים שגיאות חמורות ותכופות יותר, בייחוד כשהרובוט אמור לספק שירות בעל אופי רפואי או להפעיל מכונית אוטונומית. "השאלה היא כמה שגיאות זה בסדר ועד כמה חמורות הן יכולות להיות. יש סף לשגיאות", אומרת מירניג.
היא מקווה כי בסופו של דבר יוכלו המהנדסים ליצור רובוטים שיוכלו לפענח את האיתותים החברתיים של בני האדם ולזהות בעיות, באופן שישפר את איכות האינטראקציה בין בני האדם והרובוטים.
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.