האיחוד האירופי מבקש מחברות טכנולוגיה להזהיר משתמשים מפני תוכן שייצרה בינה מלאכותית ועלול להוביל לדיסאינפורמציה. הבקשה היא חלק מקוד ולונטרי של האיחוד, שהוקם לפני שנה ועליו חתומות כ־40 חברות טכנולוגיה. מטרת שיתוף־הפעולה היא להגביר את השקיפות ברשת, ולמנוע רווחים מפייק ניוז ומידע כוזב.
● הביקור של יזם ה־AI ששינה את העולם והתפקיד המפתיע של מיקרוסופט ישראל | ניתוח
● 14 שנה אחרי האקזיט: החברה שתשלם 900 מיליון שקל לרשות המסים
כעת, באיחוד מבקשים לסמן שירותים טכנולוגיים עם פוטנציאל להפצת מידע מוטעה שנוצר על ידי בינה מלאכותית, ומצפים מחברות כמו גוגל, מיקרוסופט ומטא להקים בעצמן אמצעי הגנה שיבלמו ניסיונות לשימוש לרעה בכלי הבינה המלאכותית שלהן. המהלך מגיע שבוע אחרי שסם אלטמן, מנכ"ל ענקית הבינה המלאכותית OpenAI, ביקר באירופה ונועד עם שורת מנהיגים ביבשת.
חלוקה לשלוש דרגות סיכון
למרות שהקוד הוא ולונטרי, אירוע מהחודש שעבר המחיש מה מחפשות חברות הטק באמנה הזו. טוויטר של אילון מאסק נטשה את הקוד של האיחוד האירופי ועוררה בעקבות כך סערה. סגנית הנציבות האירופית, ורה ג'ורובה, אמרה לבלומברג שטוויטר טעתה, "בחרה בדרך חדשה" וב"עימות". ג'ורובה טענה כי "טוויטר מושכת אליה תשומת לב רבה מאוד והפעולות שלה ועמידתה בחוקי האיחוד האירופי ייבדקו בדחיפות ובמהירות".
אבל קוד הדיסאינפורמציה הוא רק קצה המזלג של הניסיונות באיחוד לקבוע רגולציה שתתאים לפיתוחים החדשים בתחום הבינה המלאכותית. חקיקה הנוגעת לנושא צפויה לעלות בשבוע הבא בפרלמנט האירופי. החוק צפוי לדרג שלוש דרגות סיכון ליישומי בינה מלאכותית: דרגת הסיכון החמורה ביותר (למשל, ניקוד חברתי בניהול ממשלתי, כמו זה הנהוג בסין) שתיאסר לחלוטין; דרגת סיכון גבוהה, כמו כלי לסריקת קורות חיים שידרג מועמדים לעבודה; ולבסוף, תחום אפור של יישומים שלא נאסרו במפורש ונותרו ללא פיקוח. אך גם אם ההצעה תחוקק עד סוף השנה, חברות כנראה לא יצטרכו לציית עד 2026.
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.