EU đưa ra các quy tắc cho AI

Cập nhật: ngày 9 tháng 2023 năm XNUMX

EU đưa ra các quy tắc cho AI

Phó chủ tịch kỹ thuật số Margrethe Vestager (ảnh) cho biết: “Về Trí tuệ nhân tạo, niềm tin là điều bắt buộc chứ không phải là điều tốt đẹp để có được”. Bằng cách thiết lập các tiêu chuẩn, chúng ta có thể mở đường cho đạo đức công nghệ trên toàn thế giới và đảm bảo rằng EU vẫn duy trì tính cạnh tranh trên đường đi. Phù hợp với tương lai và thân thiện với sự đổi mới, các quy tắc của chúng tôi sẽ can thiệp khi thực sự cần thiết: khi sự an toàn và các quyền cơ bản của công dân EU đang bị đe dọa.”

Các quy tắc phân biệt giữa các ứng dụng AI rủi ro cao, rủi ro hạn chế và rủi ro tối thiểu.

Hệ thống AI được xác định là có nguy cơ cao bao gồm công nghệ AI được sử dụng trong:

  • Cơ sở hạ tầng quan trọng (ví dụ: giao thông), có thể gây nguy hiểm cho tính mạng và sức khỏe của công dân;
  • Đào tạo giáo dục hoặc dạy nghề, có thể xác định khả năng tiếp cận giáo dục và khóa học chuyên môn trong cuộc sống của một người nào đó (ví dụ: điểm của các kỳ thi);
  • Các thành phần an toàn của sản phẩm (ví dụ: ứng dụng AI trong phẫu thuật có sự hỗ trợ của robot);
  • Việc làm, quản lý người lao động và tiếp cận việc tự doanh (ví dụ như phần mềm sắp xếp CV cho các thủ tục tuyển dụng);
  • Các dịch vụ tư nhân và công cộng thiết yếu (ví dụ: chấm điểm tín dụng từ chối cơ hội vay vốn của công dân);
  • Việc thực thi pháp luật có thể can thiệp vào các quyền cơ bản của người dân (ví dụ: đánh giá độ tin cậy của bằng chứng);
  • Quản lý di cư, tị nạn và kiểm soát biên giới (ví dụ: xác minh tính xác thực của giấy thông hành);
  • Quản lý công lý và các quy trình dân chủ (ví dụ: áp dụng luật vào một tập hợp các sự kiện cụ thể).

Các hệ thống AI có rủi ro cao sẽ phải tuân theo các nghĩa vụ nghiêm ngặt trước khi chúng có thể được đưa ra thị trường:

  • Hệ thống đánh giá và giảm thiểu rủi ro đầy đủ;
  • Chất lượng cao của bộ dữ liệu cung cấp cho hệ thống để giảm thiểu rủi ro và kết quả phân biệt đối xử;
  • Ghi nhật ký hoạt động để đảm bảo truy xuất nguồn gốc kết quả;
  • Tài liệu chi tiết cung cấp tất cả thông tin cần thiết về hệ thống và mục đích của nó để các cơ quan chức năng đánh giá sự tuân thủ của nó;
  • Thông tin rõ ràng và đầy đủ cho người dùng;
  • Các biện pháp giám sát thích hợp của con người để giảm thiểu rủi ro;
  • Mức độ mạnh mẽ, bảo mật và chính xác cao.

Đặc biệt, tất cả các hệ thống nhận dạng sinh trắc học từ xa đều được coi là có rủi ro cao và phải tuân theo các yêu cầu nghiêm ngặt. Về nguyên tắc, việc sử dụng chúng trực tiếp trong các không gian có thể truy cập công cộng nhằm mục đích thực thi pháp luật đều bị cấm.

Các trường hợp ngoại lệ hẹp được xác định và quy định chặt chẽ (chẳng hạn như trường hợp cần thiết nghiêm ngặt để tìm kiếm một đứa trẻ mất tích, để ngăn chặn một mối đe dọa khủng bố cụ thể và sắp xảy ra hoặc để phát hiện, xác định vị trí, xác định hoặc truy tố thủ phạm hoặc nghi phạm phạm tội hình sự nghiêm trọng).

Việc sử dụng như vậy phải được sự cho phép của cơ quan tư pháp hoặc cơ quan độc lập khác và trong các giới hạn thích hợp về thời gian, phạm vi địa lý và cơ sở dữ liệu được tìm kiếm.

Các hệ thống AI có rủi ro hạn chế sẽ có các nghĩa vụ minh bạch cụ thể: ví dụ: khi sử dụng hệ thống AI như chatbot, người dùng nên biết rằng họ đang tương tác với máy để có thể đưa ra quyết định sáng suốt là tiếp tục hay lùi lại.

Các hệ thống AI có rủi ro tối thiểu mà không cần bất kỳ quy định nào bao gồm: trò chơi điện tử hỗ trợ AI hoặc bộ lọc thư rác. Phần lớn các hệ thống AI thuộc loại này.

Hội đồng Trí tuệ Nhân tạo Châu Âu sẽ tạo điều kiện thuận lợi cho việc thực hiện các quy định, cũng như thúc đẩy sự phát triển của các tiêu chuẩn cho AI.

Dự kiến ​​sẽ bị phạt 6% doanh thu đối với các công ty không tuân thủ các lệnh cấm hoặc yêu cầu dữ liệu

Các khoản phạt nhỏ hơn được dự kiến ​​đối với các công ty không tuân thủ các yêu cầu khác được nêu trong các quy tắc mới

Các quy tắc sẽ áp dụng cho cả nhà phát triển và người dùng các hệ thống AI có rủi ro cao

Các nhà cung cấp AI rủi ro phải đánh giá tính phù hợp trước khi triển khai

Các nghĩa vụ khác đối với AI rủi ro cao bao gồm sử dụng bộ dữ liệu chất lượng cao, đảm bảo truy xuất nguồn gốc của các kết quả và giám sát của con người để giảm thiểu rủi ro

Tiêu chí cho các ứng dụng 'rủi ro cao' bao gồm mục đích dự kiến, số lượng người có khả năng bị ảnh hưởng và khả năng tổn hại không thể đảo ngược.

Các quy tắc yêu cầu sự chấp thuận của Nghị viện Châu Âu và các quốc gia thành viên trước khi trở thành luật - một quá trình có thể mất vài năm.