AB yapay zeka için kurallar belirliyor

Güncelleme: 9 Aralık 2023

AB yapay zeka için kurallar belirliyor

Dijital başkan yardımcısı Margrethe Vestager (resimde), "Yapay Zeka konusunda güven bir zorunluluktur, sahip olunması hoş bir şey değil" diyor ve şöyle devam ediyor: "Bu dönüm noktası niteliğindeki kurallarla AB, yapay zekaya güvenilebilmesini sağlamak için yeni küresel normların geliştirilmesine öncülük ediyor. Standartları belirleyerek etik değerlere giden yolu açabiliriz teknoloji dünya çapında ve AB'nin bu yolda rekabetçi kalmasını sağlayın. Geleceğe yönelik ve inovasyon dostu olan kurallarımız, kesinlikle ihtiyaç duyulan yerlerde, yani AB vatandaşlarının güvenliği ve temel hakları tehlikede olduğunda müdahale edecektir."

Kurallar yüksek riskli, sınırlı riskli ve minimum riskli yapay zeka uygulamaları arasında ayrım yapıyor.

AI sistemleri Yüksek riskli olarak tanımlananlar arasında aşağıdaki alanlarda kullanılan yapay zeka teknolojisi yer alır:

  • Vatandaşların yaşamını ve sağlığını riske atabilecek kritik altyapılar (örneğin ulaşım);
  • Bir kişinin yaşamının eğitim ve mesleki seyrine erişimi belirleyebilecek eğitim veya mesleki eğitim (örneğin sınavların puanlanması);
  • Ürünlerin güvenlik bileşenleri (örneğin, robot yardımlı cerrahide AI uygulaması);
  • İstihdam, işçi yönetimi ve serbest mesleğe erişim (örneğin, işe alma prosedürleri için CV sıralama yazılımı);
  • Temel özel ve kamu hizmetleri (örneğin, vatandaşların kredi alma fırsatını engelleyen kredi puanlaması);
  • İnsanların temel haklarına müdahale edebilecek kanun yaptırımı (örneğin, kanıtların güvenilirliğinin değerlendirilmesi);
  • Göç, iltica ve sınır kontrol yönetimi (örneğin seyahat belgelerinin gerçekliğinin doğrulanması);
  • Adaletin idaresi ve demokratik süreçler (örneğin, kanunun bir dizi somut olguyu uygulamak).

Yüksek riskli yapay zeka sistemleri, piyasaya sürülmeden önce katı yükümlülüklere tabi olacak:

  • Yeterli risk değerlendirme ve azaltma sistemleri;
  • Riskleri ve ayrımcı sonuçları en aza indirmek için sistemi besleyen veri kümelerinin yüksek kalitesi;
  • Sonuçların izlenebilirliğini sağlamak için faaliyet günlüğü;
  • Sistemle ilgili gerekli tüm bilgileri ve yetkililerin uygunluğunu değerlendirmek için amacını sağlayan ayrıntılı belgeler;
  • Kullanıcı için açık ve yeterli bilgi;
  • Riski en aza indirmek için uygun insan gözetim önlemleri
  • Yüksek düzeyde sağlamlık, güvenlik ve doğruluk.

Özellikle tüm uzaktan biyometrik tanımlama sistemleri yüksek riskli kabul edilir ve katı gerekliliklere tabidir. Kamuya açık alanlarda kolluk kuvvetleri amacıyla canlı kullanımları prensip olarak yasaktır.

Dar istisnalar kesin olarak tanımlanmış ve düzenlenmiştir (örneğin, kayıp bir çocuğun aranması, belirli ve yakın bir terör tehdidinin önlenmesi veya ciddi bir cezai suçun failinin veya şüphelisinin tespit edilmesi, yerinin belirlenmesi, tespit edilmesi veya kovuşturulması için kesinlikle gerekli olduğu durumlar gibi).

Bu tür kullanım, adli veya diğer bağımsız bir organın iznine ve zaman, coğrafi erişim ve aranan veri tabanları açısından uygun sınırlamalara tabidir.

Sınırlı riskli yapay zeka sistemlerinin belirli şeffaflık yükümlülükleri olacaktır: ör. Kullanıcılar, sohbet robotları gibi yapay zeka sistemlerini kullanırken, devam etme veya geri adım atma konusunda bilinçli bir karar verebilmeleri için bir makineyle etkileşimde olduklarının farkında olmalıdır.

Herhangi bir düzenlemeye ihtiyaç duymayan minimum riskli yapay zeka sistemleri şunları içerir: Yapay zeka destekli video oyunları veya spam filtreleri. Yapay zeka sistemlerinin büyük çoğunluğu bu kategoriye giriyor.

Avrupa Yapay Zeka Kurulu, düzenlemelerin uygulanmasını kolaylaştırmanın yanı sıra yapay zeka standartlarının geliştirilmesine de yön verecek.

Yasaklara veya veri gereksinimlerine uymayan şirketler için gelirin% 6'sı para cezası öngörülüyor

Yeni kurallarda belirtilen diğer şartlara uymayan şirketler için daha küçük para cezaları öngörülmektedir.

Kurallar, yüksek riskli yapay zeka sistemlerinin hem geliştiricileri hem de kullanıcıları için geçerli olacak

Riskli AI sağlayıcıları, dağıtımdan önce onu bir uygunluk değerlendirmesine tabi tutmalıdır.

Yüksek riskli yapay zekaya ilişkin diğer yükümlülükler arasında yüksek kaliteli veri kümelerinin kullanılması, sonuçların izlenebilirliğinin sağlanması ve riski en aza indirmek için insan gözetimi yer alır.

'Yüksek riskli' uygulamalara ilişkin kriterler, kullanım amacını, potansiyel olarak etkilenen kişilerin sayısını ve zararın geri döndürülemezliğini içerir.

Kuralların yasalaşmadan önce Avrupa Parlamentosu ve üye devletler tarafından onaylanması gerekiyor; bu süreç birkaç yıl sürebilir.