ממשל פנימי ורגולציה עצמית: האם זו הדרך הנכונה להתמודד עם מהפכת ה-AI?

תחום הבינה המלאכותית מקפל בתוכו הבטחה לתרום תרומה ממשית לקידום עסקיהן של חברות רבות במשק • לצד בשורה זו, נחשף התאגיד לסיכונים שונים שעלולים להתגלגל לתביעות נגד החברה, ובכללן תביעות ייצוגיות ונגזרות • כיצד צריכים התאגידים להיערך כדי לצמצם סיכונים משפטיים הנובעים משימוש ב-AI?

בינה מלאכותית / צילום: Shutterstock, thinkhub studio
בינה מלאכותית / צילום: Shutterstock, thinkhub studio

עו"ד איתן צפריר הוא שותף רגולציה ובינה מלאכותית במשרד עורכי דין פירון, קצין ציות מוסמך מטעם ICA, מרצה בקורס הכשרת קציני ציות ויו"ר ועדת הרגולציה של לשכת עורכי הדין. עו"ד לימור בר און היא יו"ר ועדת ביקורת בדירקטוריון חברת IT ציבורית 

מאז פרצה הבינה המלאכותית לחיינו, העולם העסקי והתאגידי מצוי בחוסר ודאות גדול לגבי הדרך שבה עליו להתמודד עם הסיכונים הגלומים בה. היעדר רגולציה מקומית, חדשה ומותאמת רק מעצים את הבעיה של התאגידים - איך להבטיח ניהול ושימוש בטכנולוגיות AI באופן אחראי ובטוח, תוך שמירה על האינטרסים של בעלי המניות וכלל הציבור. 

המתחרה של אנבידיה והחשיפה של מובילאיי: הישראליות כובשות את תערוכת CES
הפיתוחים של תערוכת ה-CES: מ-AI בטלוויזיה ועד מקלדת לאייפון

נוכח האתגר הרגולטורי מתפתח מודל של ממשל עצמאי פנימי, בדומה לכללים שכבר פותחו על-ידי התאגידים עצמם בתחומים כמו סייבר והגנת הפרטיות, שבמסגרתו כל תאגיד, בשים לב לסיכונים הייחודיים לו, יחליט בעצמו איך סביר לפעול בשים לב לסיכונים של הבינה המלאכותית.

הסתמכות יתר על AI ועל בינה מלאכותית יוצרת (GEN AI) עלולה להוביל לטעויות בבחירת נתונים או בתשובות שגויות, או להוביל לאפליה אסורה כתוצאה מהטיה סטטיסטית וייצוג חסר של קבוצות מסוימות באוכלוסייה, הטיה הנובעת מהטיה מובנית בחברה האנושית שמתגלגלת להיות הטיה גם ב-AI. הסכנה לאבטחת מידע גוברת בהכנסת מערכות מבוססות AI לפעילות תאגיד ועלולה להוביל לזיהום חמור של נתונים, מתקפות האקרים והונאות מתקדמות.

יתרה מכך, אנו בדרך לעולם של AGI (Artificial General Intelligence) בינה מלאכותית שלא נועדה לביצוע משימה ספציפית, אלא לביצוע מגוון רחב של משימות תוך למידה עצמית וללא פיקוח אנושי, כלומר טכנולוגיה המתחקה באופן הדוק אחר ההנהגות האנושית ודרכי הלמידה שלה. המשמעות היא שהאתגרים יהיו מורכבים הרבה יותר.

היעדר רגולציה ייעודית לתחום הבינה המלאכותית מלמד לא רק על מבוכתו של הרגולטור נוכח השינויים הטכנולוגיים התכופים המתרחשים בתחום זה, אלא גם על העדפתו להימנע מקביעת כללים מחייבים ונוקשים שעשויים לאבד מהרלוונטיות שלהם ככל שהטכנולוגיה תתקדם. לכן בחרה הממשלה במדיניות של גיבוש עקרונות מנחים ורגולציה ענפית רכה. 

להטמיע עקרונות מנחים

בקשר לכך ממש לאחרונה פרסמה הממשלה את דוח הבינה המלאכותית במגזר הפיננסי. בין היתר, הדוח מנתח בהרחבה את מהות ממשל בינה מלאכותית בתאגיד וממליץ ליצור מנגנוני ניהול ובקרה ראויים בארגון, תוך הסדרת קבלת החלטות, ניהול סיכונים, בקרה ופיקוח על הפעלת מערכות בינה מלאכותית.

המלצות הדוח, אם וכאשר יאומצו על-ידי הרגולטור, לא רק דורשות מהתאגיד להקפיד על פרוצדורות מתאימות, אלא גם להטמיע עקרונות מנחים. בראש ובראשונה, מומלץ לשמר מעורבות אנושית בתהליכי קבלת החלטות קריטיים, במיוחד במקרים עם השפעה גבוהה על הלקוחות והמשק.

על הדירקטוריון מוטלת אפוא האחריות לנהל את הסיכונים הכרוכים בשימוש בבינה מלאכותית בתאגיד. זאת, מכוח חובת הזהירות והאמונים החלות עליו. הדירקטוריון נושא באחריות מרכזית להבטחת שימוש אחראי ובטוח בבינה מלאכותית בארגון. מכאן שעליו להבין את הסיכונים הייחודיים הכרוכים בטכנולוגיה זו, להנחות את ההנהלה בגיבוש אסטרטגיה מתאימה ולפקח על יישומה.

אין זה עניין של מה בכך. במציאות של היעדר רגולציה ייעודית (עדיין) ל-AI בישראל, על הדירקטוריון לנווט בין מגוון של מקורות רגולציה ודינים כדי לגבש מדיניות ולצמצם חשיפות. הדינים הקיימים ממשיכים להתקיים. בתי משפט מחויבים להכריע בסכסוכים המערבים אותה בהתאם לדין הקיים ועקרונותיו, תוך יישום עקרונות מוכרים כגון רשלנות, קשר סיבתי, צפיות, כוונה ועוד. 

להיעזר בתקנים בינלאומיים

בנוסף, הדירקטוריון יכול להיעזר בגיבוש מדיניות וכללים מתהווים ברגולציה הבינלאומית כמו EU AI ACT - חוק הבינה המלאכותית של האיחוד האירופי. מעבר לקבוע בחוק זה (אשר כשלעצמו מסמן קריאת כיוון לדרך פעולה, לפחות לתאגיד ישראלי שפועל באירופה), עד מאי 2025 אמורות להתפרסם הנחיות ראשונות של האיחוד האירופי מכוחו (Codes of Practice) בקשר למערכות בסיכון גבוה. הן אמורות לכסות היבטים של איכות נתונים, ניהול סיכונים, ניטור ופיקוח אנושי. בעקבות זאת, התאגידים, לרבות תאגידים ישראלים להם פעילות באיחוד האירופי, יידרשו להתאים פעילותם לקבוע בהנחיות הללו. בהמשך ובמקביל לכניסת כל הפרקים של החוק לתוקף, יותקנו הנחיות נוספות תואמות.

בנוסף, הדירקטוריון יכול לגבש מדיניות לניהול סיכונים ולהפחית חשיפות משפטיות בתחום הבינה המלאכותית בעזרת תקנים בינלאומיים. תקנים אלה מציעים כלים מעשיים לתכנון, ניהול ותאימות של מערכות בינה מלאכותית, עם דגש על היבטים אתיים ואבטחת מידע. אף על-פי שהתקנים אינם מחייבים, הם מספקים מסגרת מסודרת לניהול סיכונים ולהגנה על מידע אישי ורגיש, ובכך תורמים לשימוש בטוח ומתקדם בטכנולוגיה.

הבינה המלאכותית מעמידה אתגרים לא פשוטים בפני התאגידים. הם הראשונים להתמודד עם השלכותיה, לרבות המשפטיות. אימוץ התקנים הבינלאומיים, התאמת פעילות לרגולציה האירופית, יישום דינים קיימים בישראל, הטמעת העקרונות והפתרונות המפורטים בדוח הבינה המלאכותית בסקטור הפיננסי, שיש להניח שיאומצו בשינויים המתחייבים על-ידי כל הרגולטורים בישראל, יכולים להוות בסיס אפשרי לדירקטוריון עבור בניית כלים להתמודדות עם סיכוני AI לתאגיד.