EU menetapkan peraturan untuk AI

Kemas kini: 9 Disember 2023

EU menetapkan peraturan untuk AI

"Mengenai Kecerdasan Buatan, kepercayaan adalah satu kemestian, bukan sesuatu yang bagus untuk dimiliki," kata vp digital Margrethe Vestager (gambar), "dengan peraturan mercu tanda ini, EU sedang menerajui pembangunan norma global baharu untuk memastikan AI boleh dipercayai. Dengan menetapkan piawaian, kita boleh membuka jalan kepada etika teknologi di seluruh dunia dan memastikan bahawa EU kekal berdaya saing sepanjang perjalanan. Kalis masa depan dan mesra inovasi, peraturan kami akan campur tangan jika diperlukan: apabila keselamatan dan hak asasi warga EU dipertaruhkan."

Peraturan membezakan antara aplikasi AI berisiko tinggi, risiko terhad dan risiko minimum.

Sistem AI dikenal pasti sebagai berisiko tinggi termasuk teknologi AI yang digunakan dalam:

  • Prasarana kritikal (misalnya pengangkutan), yang dapat membahayakan nyawa dan kesihatan warga negara;
  • Latihan pendidikan atau vokasional, yang mungkin menentukan akses ke pendidikan dan kursus profesional dalam kehidupan seseorang (contohnya pemarkahan peperiksaan);
  • Komponen keselamatan produk (contohnya aplikasi AI dalam operasi yang dibantu robot);
  • Pekerjaan, pengurusan pekerja dan akses kepada pekerjaan sendiri (contohnya perisian penyortiran CV untuk prosedur pengambilan);
  • Perkhidmatan swasta dan awam yang penting (contohnya pemberian kredit yang menolak peluang warganegara untuk mendapatkan pinjaman);
  • Penguatkuasaan undang-undang yang boleh mengganggu hak asasi manusia (contohnya penilaian kebolehpercayaan bukti);
  • Pengurusan migrasi, suaka dan kawalan sempadan (contohnya pengesahan kesahihan dokumen perjalanan);
  • Pentadbiran keadilan dan proses demokratik (contohnya menerapkan undang-undang pada sekumpulan fakta yang konkrit).

Sistem AI berisiko tinggi akan dikenakan tanggungjawab yang ketat sebelum dapat dipasarkan:

  • Sistem penilaian dan pengurangan risiko yang mencukupi;
  • Kualiti tinggi set data yang memberi makan sistem untuk meminimumkan risiko dan hasil diskriminasi;
  • Pembalakan aktiviti untuk memastikan kebolehkesanan hasil;
  • Dokumentasi terperinci yang menyediakan semua maklumat yang diperlukan mengenai sistem dan tujuannya bagi pihak berkuasa untuk menilai kepatuhannya;
  • Maklumat yang jelas dan mencukupi kepada pengguna;
  • Langkah pengawasan manusia yang tepat untuk mengurangkan risiko;
  • Tahap ketahanan, keselamatan dan ketepatan yang tinggi.

Khususnya, semua sistem pengenalan biometrik jauh dianggap berisiko tinggi dan tertakluk kepada keperluan yang ketat. Penggunaan langsung mereka di ruang yang boleh diakses secara umum untuk tujuan penguatkuasaan undang-undang adalah dilarang pada dasarnya.

Pengecualian yang sempit ditakrifkan dan diatur dengan ketat (seperti di mana sangat diperlukan untuk mencari anak yang hilang, untuk mencegah ancaman pengganas yang spesifik dan segera atau untuk mengesan, mencari, mengenal pasti atau mendakwa pelaku atau suspek atas kesalahan jenayah serius).

Penggunaan semacam itu tertakluk kepada kebenaran oleh badan kehakiman atau badan bebas yang lain dan pada batas waktu, jangkauan geografi dan pangkalan data yang dicari.

Sistem AI berisiko terhad akan mempunyai kewajipan ketelusan khusus: contohnya apabila menggunakan sistem AI seperti chatbots, pengguna harus sedar bahawa mereka sedang berinteraksi dengan mesin supaya mereka boleh mengambil keputusan termaklum untuk meneruskan atau berundur.

Sistem AI berisiko minimum tanpa memerlukan peraturan termasuk: Permainan video yang didayakan AI atau penapis spam. Sebilangan besar sistem AI termasuk dalam kategori ini.

Lembaga Kecerdasan Buatan Eropah akan memudahkan pelaksanaan peraturan, dan juga mendorong pengembangan standard untuk AI.

Denda sebanyak 6% dari pendapatan diramalkan untuk syarikat yang tidak mematuhi larangan atau keperluan data

Denda yang lebih kecil diramalkan untuk syarikat yang tidak memenuhi syarat lain yang dinyatakan dalam peraturan baru

Peraturan tersebut akan berlaku untuk pemaju dan pengguna sistem AI berisiko tinggi

Penyedia AI yang berisiko mesti membuat penilaian kesesuaian sebelum digunakan

Kewajiban lain untuk AI berisiko tinggi termasuk penggunaan set data berkualiti tinggi, memastikan kebolehkesanan hasil, dan pengawasan manusia untuk meminimumkan risiko

Kriteria untuk aplikasi 'berisiko tinggi' termasuk tujuan yang dimaksudkan, jumlah orang yang berpotensi terkena dampak, dan bahaya yang tidak dapat dipulihkan.

Peraturan tersebut memerlukan persetujuan oleh Parlimen Eropah dan negara-negara anggota sebelum menjadi undang-undang - suatu proses yang boleh memakan masa beberapa tahun.