האיחוד האירופי קובע כללים עבור AI

עדכון: 9 בדצמבר 2023

האיחוד האירופי קובע כללים עבור AI

"בעניין בינה מלאכותית, אמון הוא חובה, לא נחמד שיש", אומרת סמנכ"לית דיגיטל, מרגרת' וסטגר (בתמונה), "עם הכללים הבולטים הללו, האיחוד האירופי עומד בראש הפיתוח של נורמות גלובליות חדשות כדי לוודא שניתן לסמוך על AI. על ידי קביעת הסטנדרטים, נוכל לסלול את הדרך לאתיקה טֶכנוֹלוֹגִיָה ברחבי העולם ולהבטיח שהאיחוד האירופי יישאר תחרותי לאורך כל הדרך. עמידים בפני עתיד וידידותיים לחדשנות, הכללים שלנו יתערבו היכן שצריך: כאשר הבטיחות וזכויות היסוד של אזרחי האיחוד האירופי עומדות על כף המאזניים".

הכללים מבדילים בין יישומי AI בעלי סיכון גבוה, סיכון מוגבל למינימום סיכון.

מערכות AI שזוהו כבעלי סיכון גבוה כוללים טכנולוגיית AI המשמשת ב:

  • תשתיות קריטיות (למשל תחבורה) העלולות לסכן את חיי ובריאות האזרחים;
  • הכשרה חינוכית או מקצועית, שעשויה לקבוע את הגישה לחינוך ולמהלך המקצועי בחייו של מישהו (למשל ציון בחינות);
  • רכיבי בטיחות של מוצרים (למשל יישום AI בניתוחים בעזרת רובוטים);
  • תעסוקה, ניהול עובדים וגישה לעבודה עצמית (למשל תוכנת מיון קורות חיים להליכי גיוס);
  • שירותים פרטיים וציבוריים חיוניים (למשל ניקוד אשראי המונע מאזרחים אפשרות לקבל הלוואה);
  • אכיפת חוק העלולה להפריע לזכויות היסוד של אנשים (למשל הערכת מהימנות הראיות);
  • ניהול הגירה, מקלט ובקרת גבולות (למשל אימות מקוריות של מסמכי נסיעה);
  • ניהול צדק ותהליכים דמוקרטיים (למשל החלת החוק על מערכת עובדות קונקרטית).

מערכות AI בסיכון גבוה יהיו כפופות לחובות קפדניות לפני שיוכלו לשווק אותן:

  • מערכות הערכה והפחתת סיכונים נאותות;
  • איכות גבוהה של מערכי הנתונים המזינים את המערכת כדי למזער סיכונים ותוצאות מפלה;
  • רישום פעילות כדי להבטיח עקיבות של תוצאות;
  • תיעוד מפורט המספק את כל המידע הדרוש על המערכת ומטרתו לרשויות להעריך את תאימותה;
  • מידע ברור ומספק למשתמש;
  • אמצעי פיקוח אנושיים מתאימים למזעור הסיכון;
  • רמה גבוהה של חוסן, אבטחה ודיוק.

בפרט, כל מערכות הזיהוי הביומטרי מרחוק נחשבות לסיכון גבוה וכפופות לדרישות מחמירות. השימוש החי שלהם במרחבים הנגישים לציבור למטרות אכיפת החוק אסור עקרונית.

חריגים צרים מוגדרים ומוסדרים בקפדנות (כגון כאשר יש צורך בהחלט בחיפוש אחר ילד שנעלם, כדי למנוע איום טרור ספציפי וקרב או לאתר, לאתר, לזהות או להעמיד לדין מבצע או חשוד בעבירה פלילית חמורה).

שימוש כזה כפוף לאישור של גוף שיפוטי או גוף עצמאי אחר ולמגבלות המתאימות בזמן, לטווח ההגעה הגיאוגרפי ולבסיסי הנתונים שנחפשו.

למערכות בינה מלאכותית בסיכון מוגבל יהיו חובות שקיפות ספציפיות: למשל בעת שימוש במערכות בינה מלאכותית כגון צ'אט בוטים, המשתמשים צריכים להיות מודעים לכך שהם מקיימים אינטראקציה עם מכונה כדי שיוכלו לקבל החלטה מושכלת להמשיך או לצעוד אחורה.

מערכות בינה מלאכותית בסיכון מינימלי ללא כל צורך ברגולציה כוללות: משחקי וידאו התומכים בבינה מלאכותית או מסנני דואר זבל. הרוב המכריע של מערכות הבינה המלאכותית נופלות לקטגוריה זו.

מועצת הבינה המלאכותית האירופית תקל על יישום התקנות, ותניע פיתוח תקנים עבור AI.

קנסות של 6% מההכנסות צפויים לחברות שאינן עומדות בדרישות האיסור או הנתונים

נקבעו קנסות קטנים יותר עבור חברות שאינן עומדות בדרישות אחרות המפורטות בכללים החדשים

הכללים יחולו על מפתחים ומשתמשים במערכות AI בסיכון גבוה

ספקי AI מסוכנים חייבים להכפיף אותה להערכת תאימות לפני הפריסה

חובות אחרות לבינה מלאכותית בסיכון גבוה כוללת שימוש במערכי נתונים באיכות גבוהה, הבטחת עקיבות התוצאות ופיקוח אנושי כדי למזער את הסיכון

הקריטריונים ליישומים 'בסיכון גבוה' כוללים מטרה נועדה, מספר האנשים שעלולים להיפגע, ובלתי הפיכות לפגיעה.

הכללים דורשים אישור על ידי הפרלמנט האירופי והמדינות החברות לפני שהן הופכות לחוק - תהליך שיכול להימשך מספר שנים.