UE menetapkan aturan untuk AI

Pembaruan: 9 Desember 2023

UE menetapkan aturan untuk AI

“Mengenai Kecerdasan Buatan, kepercayaan adalah suatu keharusan, bukan hal yang baik untuk dimiliki,” kata wakil presiden digital Margrethe Vestager (foto), “dengan peraturan penting ini, UE menjadi ujung tombak pengembangan norma-norma global baru untuk memastikan AI dapat dipercaya. Dengan menetapkan standar, kita dapat membuka jalan menuju etika teknologi di seluruh dunia dan memastikan bahwa UE tetap kompetitif dalam prosesnya. Agar dapat bertahan di masa depan dan ramah terhadap inovasi, peraturan kami akan melakukan intervensi jika diperlukan: ketika keselamatan dan hak-hak dasar warga negara Uni Eropa dipertaruhkan.”

Aturan tersebut membedakan antara aplikasi AI risiko tinggi, risiko terbatas dan risiko minimal.

Sistem AI yang diidentifikasi berisiko tinggi mencakup teknologi AI yang digunakan dalam:

  • Infrastruktur kritis (misalnya transportasi), yang dapat membahayakan nyawa dan kesehatan warga;
  • Pendidikan atau pelatihan kejuruan, yang dapat menentukan akses ke pendidikan dan kursus profesional kehidupan seseorang (misalnya penilaian ujian);
  • Komponen keamanan produk (misalnya aplikasi AI dalam operasi yang dibantu robot);
  • Pekerjaan, manajemen pekerja dan akses ke wirausaha (misalnya perangkat lunak penyortir CV untuk prosedur perekrutan);
  • Layanan publik dan swasta yang penting (misalnya penilaian kredit yang menyangkal kesempatan warga negara untuk mendapatkan pinjaman);
  • Penegakan hukum yang dapat mengganggu hak-hak dasar masyarakat (misalnya evaluasi keandalan bukti);
  • Migrasi, suaka dan manajemen kontrol perbatasan (misalnya verifikasi keaslian dokumen perjalanan);
  • Administrasi peradilan dan proses demokrasi (misalnya menerapkan hukum pada sekumpulan fakta yang konkret).

Sistem AI berisiko tinggi akan tunduk pada kewajiban yang ketat sebelum dapat dipasarkan:

  • Sistem penilaian dan mitigasi risiko yang memadai;
  • Dataset berkualitas tinggi yang memberi makan sistem untuk meminimalkan risiko dan hasil yang diskriminatif;
  • Pencatatan aktivitas untuk memastikan ketertelusuran hasil;
  • Dokumentasi terperinci yang menyediakan semua informasi yang diperlukan pada sistem dan tujuannya bagi otoritas untuk menilai kepatuhannya;
  • Informasi yang jelas dan memadai bagi pengguna;
  • Tindakan pengawasan manusia yang tepat untuk meminimalkan risiko;
  • Ketangguhan, keamanan, dan akurasi tingkat tinggi.

Secara khusus, semua sistem identifikasi biometrik jarak jauh dianggap berisiko tinggi dan tunduk pada persyaratan yang ketat. Penggunaannya secara langsung di ruang yang dapat diakses publik untuk tujuan penegakan hukum pada prinsipnya dilarang.

Pengecualian sempit didefinisikan dan diatur secara ketat (seperti jika sangat diperlukan untuk mencari anak yang hilang, untuk mencegah ancaman teroris yang spesifik dan segera atau untuk mendeteksi, menemukan, mengidentifikasi atau menuntut pelaku atau tersangka tindak pidana serius).

Penggunaan semacam itu tunduk pada otorisasi oleh badan peradilan atau badan independen lainnya dan sesuai dengan batasan waktu, jangkauan geografis, dan basis data yang digeledah.

Sistem AI dengan risiko terbatas akan memiliki kewajiban transparansi yang spesifik: misalnya saat menggunakan sistem AI seperti chatbots, pengguna harus menyadari bahwa mereka sedang berinteraksi dengan mesin sehingga mereka dapat mengambil keputusan yang tepat untuk melanjutkan atau mundur.

Sistem AI dengan risiko minimal tanpa memerlukan regulasi meliputi: video game atau filter spam yang mendukung AI. Sebagian besar sistem AI termasuk dalam kategori ini.

Dewan Kecerdasan Buatan Eropa akan memfasilitasi implementasi peraturan, serta mendorong pengembangan standar untuk AI.

Denda sebesar 6% dari pendapatan diperkirakan untuk perusahaan yang tidak mematuhi larangan atau persyaratan data

Denda yang lebih kecil diperkirakan akan terjadi pada perusahaan yang tidak memenuhi persyaratan lain yang dijelaskan dalam aturan baru

Aturan tersebut akan berlaku untuk pengembang dan pengguna sistem AI berisiko tinggi

Penyedia AI yang berisiko harus melakukan penilaian kesesuaian sebelum penerapan

Kewajiban lain untuk AI berisiko tinggi termasuk penggunaan set data berkualitas tinggi, memastikan keterlacakan hasil, dan pengawasan manusia untuk meminimalkan risiko.

Kriteria untuk aplikasi 'berisiko tinggi' mencakup tujuan yang dimaksudkan, jumlah orang yang berpotensi terkena dampak, dan bahaya yang tidak dapat diubah lagi.

Aturan tersebut membutuhkan persetujuan Parlemen Eropa dan negara-negara anggota sebelum menjadi undang-undang - sebuah proses yang dapat memakan waktu beberapa tahun.