يضع الاتحاد الأوروبي قواعد للذكاء الاصطناعي

التحديث: 9 ديسمبر 2023

يضع الاتحاد الأوروبي قواعد للذكاء الاصطناعي

تقول نائبة الرئيس الرقمي مارغريت فيستاجر (في الصورة): "فيما يتعلق بالذكاء الاصطناعي، الثقة أمر لا بد منه، وليس من الجيد امتلاكه". "بهذه القواعد التاريخية، يقود الاتحاد الأوروبي تطوير معايير عالمية جديدة للتأكد من إمكانية الوثوق بالذكاء الاصطناعي. ومن خلال وضع المعايير، يمكننا تمهيد الطريق نحو الأخلاق التكنلوجيا في جميع أنحاء العالم وضمان بقاء الاتحاد الأوروبي قادراً على المنافسة على طول الطريق. ستتدخل قواعدنا، التي تواكب المستقبل وصديقة للابتكار، عند الحاجة الماسة إليها: عندما تكون سلامة مواطني الاتحاد الأوروبي وحقوقهم الأساسية على المحك.

تفرق القواعد بين تطبيقات الذكاء الاصطناعي عالية المخاطر والمخاطر المحدودة والحد الأدنى من المخاطر.

أنظمة الذكاء الاصطناعي تم تحديدها على أنها عالية المخاطر وتشمل تكنولوجيا الذكاء الاصطناعي المستخدمة في:

  • البنى التحتية الحيوية (مثل النقل) ، التي يمكن أن تعرض حياة المواطنين وصحتهم للخطر ؛
  • التدريب التعليمي أو المهني ، الذي قد يحدد الوصول إلى التعليم والمسار المهني لحياة شخص ما (مثل تسجيل الامتحانات) ؛
  • مكونات السلامة للمنتجات (مثل تطبيقات الذكاء الاصطناعي في الجراحة بمساعدة الروبوت) ؛
  • التوظيف وإدارة العمال والوصول إلى العمل الحر (مثل برامج فرز السيرة الذاتية لإجراءات التوظيف) ؛
  • الخدمات الأساسية الخاصة والعامة (على سبيل المثال ، الحرمان من الائتمان الذي يحرم المواطنين من فرصة الحصول على قرض) ؛
  • إنفاذ القانون الذي قد يتعارض مع الحقوق الأساسية للأشخاص (مثل تقييم موثوقية الأدلة) ؛
  • إدارة الهجرة واللجوء ومراقبة الحدود (مثل التحقق من صحة وثائق السفر) ؛
  • إقامة العدل والعمليات الديمقراطية (مثل تطبيق القانون على مجموعة محددة من الحقائق).

ستخضع أنظمة الذكاء الاصطناعي عالية المخاطر لالتزامات صارمة قبل طرحها في السوق:

  • أنظمة مناسبة لتقييم المخاطر والتخفيف من حدتها ؛
  • جودة عالية لمجموعات البيانات التي تغذي النظام لتقليل المخاطر والنتائج التمييزية ؛
  • تسجيل النشاط لضمان إمكانية تتبع النتائج ؛
  • وثائق مفصلة توفر جميع المعلومات اللازمة عن النظام والغرض منه للسلطات لتقييم الامتثال له ؛
  • معلومات واضحة وكافية للمستخدم ؛
  • تدابير الرقابة البشرية المناسبة لتقليل المخاطر ؛
  • مستوى عال من المتانة والأمان والدقة.

وعلى وجه الخصوص، تعتبر جميع أنظمة تحديد الهوية البيومترية عن بعد عالية المخاطر وتخضع لمتطلبات صارمة. ويُحظر استخدامها بشكل مباشر في الأماكن العامة لأغراض إنفاذ القانون من حيث المبدأ.

يتم تحديد الاستثناءات الضيقة وتنظيمها بدقة (على سبيل المثال عند الضرورة القصوى للبحث عن طفل مفقود أو لمنع تهديد إرهابي محدد وشيك أو لاكتشاف أو تحديد أو تحديد أو مقاضاة الجاني أو المشتبه به في جريمة جنائية خطيرة).

يخضع هذا الاستخدام لترخيص من هيئة قضائية أو هيئة مستقلة أخرى ولحدود مناسبة من حيث الوقت والمدى الجغرافي وقواعد البيانات التي يتم البحث فيها.

سيكون لأنظمة الذكاء الاصطناعي محدودة المخاطر التزامات محددة تتعلق بالشفافية: على سبيل المثال، عند استخدام أنظمة الذكاء الاصطناعي مثل روبوتات الدردشة، يجب أن يكون المستخدمون على دراية بأنهم يتفاعلون مع جهاز حتى يتمكنوا من اتخاذ قرار مستنير بالمتابعة أو التراجع.

تتضمن أنظمة الذكاء الاصطناعي ذات الحد الأدنى من المخاطر دون الحاجة إلى التنظيم ما يلي: ألعاب الفيديو التي تدعم الذكاء الاصطناعي أو مرشحات البريد العشوائي. وتندرج الغالبية العظمى من أنظمة الذكاء الاصطناعي ضمن هذه الفئة.

سيسهل مجلس الذكاء الاصطناعي الأوروبي تنفيذ اللوائح ، بالإضافة إلى دفع تطوير معايير الذكاء الاصطناعي.

يُتوقع فرض غرامات بنسبة 6٪ من الإيرادات على الشركات التي لا تمتثل للحظر أو متطلبات البيانات

من المتوقع غرامات أصغر للشركات التي لا تمتثل للمتطلبات الأخرى المنصوص عليها في القواعد الجديدة

سيتم تطبيق القواعد على كل من مطوري ومستخدمي أنظمة الذكاء الاصطناعي عالية الخطورة

يجب أن يخضع مقدمو الذكاء الاصطناعي المحفوف بالمخاطر لتقييم المطابقة قبل النشر

تشمل الالتزامات الأخرى للذكاء الاصطناعي عالي المخاطر استخدام مجموعات بيانات عالية الجودة ، وضمان إمكانية تتبع النتائج ، والرقابة البشرية لتقليل المخاطر

تشمل معايير التطبيقات "عالية الخطورة" الغرض المقصود ، وعدد الأشخاص المحتمل تأثرهم ، وعدم إمكانية عكس الضرر.

تتطلب القواعد موافقة البرلمان الأوروبي والدول الأعضاء قبل أن تصبح قانونًا - وهي عملية قد تستغرق عدة سنوات.