สหภาพยุโรปกำหนดกฎสำหรับ AI

อัปเดต: 9 ธันวาคม 2023

สหภาพยุโรปกำหนดกฎสำหรับ AI

Margrethe Vestager รองประธานฝ่ายดิจิทัล (ในภาพ) กล่าวว่า “ในด้านปัญญาประดิษฐ์ ความไว้วางใจเป็นสิ่งจำเป็น ไม่ใช่สิ่งที่ดีนัก ด้วยกฎเกณฑ์สำคัญเหล่านี้ สหภาพยุโรปกำลังเป็นหัวหอกในการพัฒนาบรรทัดฐานใหม่ระดับโลกเพื่อให้แน่ใจว่า AI เชื่อถือได้ ด้วยการกำหนดมาตรฐาน เราสามารถปูทางไปสู่จริยธรรมได้ เทคโนโลยี ทั่วโลกและรับประกันว่าสหภาพยุโรปจะยังคงแข่งขันไปพร้อมกัน กฎของเราจะเข้ามาแทรกแซงเมื่อมีความจำเป็นอย่างเคร่งครัด: เมื่อความปลอดภัยและสิทธิพื้นฐานของพลเมืองสหภาพยุโรปตกอยู่ในความเสี่ยง”

กฎจะแยกความแตกต่างระหว่างความเสี่ยงสูงความเสี่ยงที่ จำกัด และการใช้งาน AI ที่มีความเสี่ยงน้อยที่สุด

ระบบ AI ระบุว่ามีความเสี่ยงสูง ได้แก่ เทคโนโลยี AI ที่ใช้ใน:

  • โครงสร้างพื้นฐานที่สำคัญ (เช่นการขนส่ง) ที่อาจทำให้ชีวิตและสุขภาพของประชาชนตกอยู่ในความเสี่ยง
  • การฝึกอบรมด้านการศึกษาหรือวิชาชีพที่อาจกำหนดการเข้าถึงการศึกษาและหลักสูตรวิชาชีพในชีวิตของใครบางคน (เช่นการให้คะแนนการสอบ)
  • ส่วนประกอบด้านความปลอดภัยของผลิตภัณฑ์ (เช่นการประยุกต์ใช้ AI ในการผ่าตัดด้วยหุ่นยนต์ช่วย)
  • การจ้างงานการจัดการคนงานและการเข้าถึงการจ้างงานตนเอง (เช่นซอฟต์แวร์เรียงลำดับ CV สำหรับขั้นตอนการจัดหางาน)
  • บริการส่วนตัวและสาธารณะที่จำเป็น (เช่นการให้คะแนนเครดิตโดยปฏิเสธโอกาสที่ประชาชนจะได้รับเงินกู้);
  • การบังคับใช้กฎหมายที่อาจแทรกแซงสิทธิขั้นพื้นฐานของประชาชน (เช่นการประเมินความน่าเชื่อถือของหลักฐาน)
  • การย้ายถิ่นการลี้ภัยและการจัดการการควบคุมชายแดน (เช่นการตรวจสอบความถูกต้องของเอกสารการเดินทาง)
  • การบริหารกระบวนการยุติธรรมและกระบวนการประชาธิปไตย (เช่นการใช้กฎหมายกับชุดข้อเท็จจริงที่เป็นรูปธรรม)

ระบบ AI ที่มีความเสี่ยงสูงจะอยู่ภายใต้ข้อผูกพันที่เข้มงวดก่อนที่จะวางจำหน่ายในตลาด:

  • ระบบการประเมินและลดความเสี่ยงที่เหมาะสม
  • คุณภาพสูงของชุดข้อมูลที่ป้อนระบบเพื่อลดความเสี่ยงและผลลัพธ์ที่เลือกปฏิบัติ
  • การบันทึกกิจกรรมเพื่อให้แน่ใจว่าสามารถตรวจสอบย้อนกลับของผลลัพธ์ได้
  • เอกสารรายละเอียดที่ให้ข้อมูลทั้งหมดที่จำเป็นในระบบและวัตถุประสงค์เพื่อให้เจ้าหน้าที่ประเมินการปฏิบัติตาม
  • ข้อมูลที่ชัดเจนและเพียงพอสำหรับผู้ใช้
  • มาตรการกำกับดูแลของมนุษย์ที่เหมาะสมเพื่อลดความเสี่ยง
  • ความแข็งแกร่งความปลอดภัยและความแม่นยำระดับสูง

โดยเฉพาะอย่างยิ่ง ระบบระบุตัวตนด้วยไบโอเมตริกระยะไกลทั้งหมดถือว่ามีความเสี่ยงสูงและอยู่ภายใต้ข้อกำหนดที่เข้มงวด โดยหลักการแล้วห้ามนำไปใช้สดในพื้นที่ที่สาธารณะเข้าถึงได้เพื่อวัตถุประสงค์ในการบังคับใช้กฎหมาย

มีการกำหนดและควบคุมข้อยกเว้นในวงแคบอย่างเคร่งครัด (เช่นในกรณีที่จำเป็นอย่างเคร่งครัดในการค้นหาเด็กที่หายไปเพื่อป้องกันภัยคุกคามจากผู้ก่อการร้ายที่เฉพาะเจาะจงและใกล้เข้ามาหรือเพื่อตรวจจับค้นหาระบุตัวหรือดำเนินคดีกับผู้กระทำความผิดหรือผู้ต้องสงสัยในการกระทำความผิดร้ายแรงทางอาญา)

การใช้งานดังกล่าวอยู่ภายใต้การอนุญาตจากหน่วยงานตุลาการหรือหน่วยงานอิสระอื่น ๆ และตามขอบเขตเวลาที่เหมาะสมการเข้าถึงทางภูมิศาสตร์และฐานข้อมูลที่ค้นหา

ระบบ AI ที่มีความเสี่ยงจำกัดจะมีภาระหน้าที่ด้านความโปร่งใสโดยเฉพาะ เช่น เมื่อใช้ระบบ AI เช่น แชทบอท ผู้ใช้ควรตระหนักว่าพวกเขากำลังโต้ตอบกับเครื่องจักร เพื่อให้สามารถตัดสินใจอย่างมีข้อมูลเพื่อดำเนินการต่อหรือถอยกลับ

ระบบ AI ที่มีความเสี่ยงน้อยที่สุดโดยไม่ต้องมีการควบคุมใดๆ ได้แก่ : วิดีโอเกมที่ใช้ AI หรือตัวกรองสแปม ระบบ AI ส่วนใหญ่จัดอยู่ในหมวดหมู่นี้

คณะกรรมการปัญญาประดิษฐ์แห่งยุโรปจะอำนวยความสะดวกในการปฏิบัติตามกฎระเบียบรวมทั้งผลักดันการพัฒนามาตรฐานสำหรับ AI

มีการคาดการณ์ค่าปรับ 6% ของรายได้สำหรับ บริษัท ที่ไม่ปฏิบัติตามการห้ามหรือข้อกำหนดด้านข้อมูล

มีการคาดการณ์ค่าปรับที่น้อยลงสำหรับ บริษัท ที่ไม่ปฏิบัติตามข้อกำหนดอื่น ๆ ที่ระบุไว้ในกฎใหม่

กฎจะใช้ทั้งกับนักพัฒนาและผู้ใช้ระบบ AI ที่มีความเสี่ยงสูง

ผู้ให้บริการ AI ที่มีความเสี่ยงจะต้องได้รับการประเมินความสอดคล้องก่อนการปรับใช้

ภาระหน้าที่อื่น ๆ สำหรับ AI ที่มีความเสี่ยงสูง ได้แก่ การใช้ชุดข้อมูลคุณภาพสูงการตรวจสอบย้อนกลับของผลลัพธ์และการกำกับดูแลของมนุษย์เพื่อลดความเสี่ยง

เกณฑ์สำหรับการใช้งาน 'ความเสี่ยงสูง' รวมถึงวัตถุประสงค์ที่ตั้งใจไว้จำนวนผู้ที่อาจได้รับผลกระทบและความไม่สามารถย้อนกลับได้ของอันตราย

กฎดังกล่าวต้องได้รับการอนุมัติจากรัฐสภายุโรปและประเทศสมาชิกก่อนที่จะออกเป็นกฎหมายซึ่งเป็นกระบวนการที่อาจใช้เวลาหลายปี