Margrethe Vestager รองประธานฝ่ายดิจิทัล (ในภาพ) กล่าวว่า “ในด้านปัญญาประดิษฐ์ ความไว้วางใจเป็นสิ่งจำเป็น ไม่ใช่สิ่งที่ดีนัก ด้วยกฎเกณฑ์สำคัญเหล่านี้ สหภาพยุโรปกำลังเป็นหัวหอกในการพัฒนาบรรทัดฐานใหม่ระดับโลกเพื่อให้แน่ใจว่า AI เชื่อถือได้ ด้วยการกำหนดมาตรฐาน เราสามารถปูทางไปสู่จริยธรรมได้ เทคโนโลยี ทั่วโลกและรับประกันว่าสหภาพยุโรปจะยังคงแข่งขันไปพร้อมกัน กฎของเราจะเข้ามาแทรกแซงเมื่อมีความจำเป็นอย่างเคร่งครัด: เมื่อความปลอดภัยและสิทธิพื้นฐานของพลเมืองสหภาพยุโรปตกอยู่ในความเสี่ยง”
กฎจะแยกความแตกต่างระหว่างความเสี่ยงสูงความเสี่ยงที่ จำกัด และการใช้งาน AI ที่มีความเสี่ยงน้อยที่สุด
ระบบ AI ระบุว่ามีความเสี่ยงสูง ได้แก่ เทคโนโลยี AI ที่ใช้ใน:
- โครงสร้างพื้นฐานที่สำคัญ (เช่นการขนส่ง) ที่อาจทำให้ชีวิตและสุขภาพของประชาชนตกอยู่ในความเสี่ยง
- การฝึกอบรมด้านการศึกษาหรือวิชาชีพที่อาจกำหนดการเข้าถึงการศึกษาและหลักสูตรวิชาชีพในชีวิตของใครบางคน (เช่นการให้คะแนนการสอบ)
- ส่วนประกอบด้านความปลอดภัยของผลิตภัณฑ์ (เช่นการประยุกต์ใช้ AI ในการผ่าตัดด้วยหุ่นยนต์ช่วย)
- การจ้างงานการจัดการคนงานและการเข้าถึงการจ้างงานตนเอง (เช่นซอฟต์แวร์เรียงลำดับ CV สำหรับขั้นตอนการจัดหางาน)
- บริการส่วนตัวและสาธารณะที่จำเป็น (เช่นการให้คะแนนเครดิตโดยปฏิเสธโอกาสที่ประชาชนจะได้รับเงินกู้);
- การบังคับใช้กฎหมายที่อาจแทรกแซงสิทธิขั้นพื้นฐานของประชาชน (เช่นการประเมินความน่าเชื่อถือของหลักฐาน)
- การย้ายถิ่นการลี้ภัยและการจัดการการควบคุมชายแดน (เช่นการตรวจสอบความถูกต้องของเอกสารการเดินทาง)
- การบริหารกระบวนการยุติธรรมและกระบวนการประชาธิปไตย (เช่นการใช้กฎหมายกับชุดข้อเท็จจริงที่เป็นรูปธรรม)
ระบบ AI ที่มีความเสี่ยงสูงจะอยู่ภายใต้ข้อผูกพันที่เข้มงวดก่อนที่จะวางจำหน่ายในตลาด:
- ระบบการประเมินและลดความเสี่ยงที่เหมาะสม
- คุณภาพสูงของชุดข้อมูลที่ป้อนระบบเพื่อลดความเสี่ยงและผลลัพธ์ที่เลือกปฏิบัติ
- การบันทึกกิจกรรมเพื่อให้แน่ใจว่าสามารถตรวจสอบย้อนกลับของผลลัพธ์ได้
- เอกสารรายละเอียดที่ให้ข้อมูลทั้งหมดที่จำเป็นในระบบและวัตถุประสงค์เพื่อให้เจ้าหน้าที่ประเมินการปฏิบัติตาม
- ข้อมูลที่ชัดเจนและเพียงพอสำหรับผู้ใช้
- มาตรการกำกับดูแลของมนุษย์ที่เหมาะสมเพื่อลดความเสี่ยง
- ความแข็งแกร่งความปลอดภัยและความแม่นยำระดับสูง
โดยเฉพาะอย่างยิ่ง ระบบระบุตัวตนด้วยไบโอเมตริกระยะไกลทั้งหมดถือว่ามีความเสี่ยงสูงและอยู่ภายใต้ข้อกำหนดที่เข้มงวด โดยหลักการแล้วห้ามนำไปใช้สดในพื้นที่ที่สาธารณะเข้าถึงได้เพื่อวัตถุประสงค์ในการบังคับใช้กฎหมาย
มีการกำหนดและควบคุมข้อยกเว้นในวงแคบอย่างเคร่งครัด (เช่นในกรณีที่จำเป็นอย่างเคร่งครัดในการค้นหาเด็กที่หายไปเพื่อป้องกันภัยคุกคามจากผู้ก่อการร้ายที่เฉพาะเจาะจงและใกล้เข้ามาหรือเพื่อตรวจจับค้นหาระบุตัวหรือดำเนินคดีกับผู้กระทำความผิดหรือผู้ต้องสงสัยในการกระทำความผิดร้ายแรงทางอาญา)
การใช้งานดังกล่าวอยู่ภายใต้การอนุญาตจากหน่วยงานตุลาการหรือหน่วยงานอิสระอื่น ๆ และตามขอบเขตเวลาที่เหมาะสมการเข้าถึงทางภูมิศาสตร์และฐานข้อมูลที่ค้นหา
ระบบ AI ที่มีความเสี่ยงจำกัดจะมีภาระหน้าที่ด้านความโปร่งใสโดยเฉพาะ เช่น เมื่อใช้ระบบ AI เช่น แชทบอท ผู้ใช้ควรตระหนักว่าพวกเขากำลังโต้ตอบกับเครื่องจักร เพื่อให้สามารถตัดสินใจอย่างมีข้อมูลเพื่อดำเนินการต่อหรือถอยกลับ
ระบบ AI ที่มีความเสี่ยงน้อยที่สุดโดยไม่ต้องมีการควบคุมใดๆ ได้แก่ : วิดีโอเกมที่ใช้ AI หรือตัวกรองสแปม ระบบ AI ส่วนใหญ่จัดอยู่ในหมวดหมู่นี้
คณะกรรมการปัญญาประดิษฐ์แห่งยุโรปจะอำนวยความสะดวกในการปฏิบัติตามกฎระเบียบรวมทั้งผลักดันการพัฒนามาตรฐานสำหรับ AI
มีการคาดการณ์ค่าปรับ 6% ของรายได้สำหรับ บริษัท ที่ไม่ปฏิบัติตามการห้ามหรือข้อกำหนดด้านข้อมูล
มีการคาดการณ์ค่าปรับที่น้อยลงสำหรับ บริษัท ที่ไม่ปฏิบัติตามข้อกำหนดอื่น ๆ ที่ระบุไว้ในกฎใหม่
กฎจะใช้ทั้งกับนักพัฒนาและผู้ใช้ระบบ AI ที่มีความเสี่ยงสูง
ผู้ให้บริการ AI ที่มีความเสี่ยงจะต้องได้รับการประเมินความสอดคล้องก่อนการปรับใช้
ภาระหน้าที่อื่น ๆ สำหรับ AI ที่มีความเสี่ยงสูง ได้แก่ การใช้ชุดข้อมูลคุณภาพสูงการตรวจสอบย้อนกลับของผลลัพธ์และการกำกับดูแลของมนุษย์เพื่อลดความเสี่ยง
เกณฑ์สำหรับการใช้งาน 'ความเสี่ยงสูง' รวมถึงวัตถุประสงค์ที่ตั้งใจไว้จำนวนผู้ที่อาจได้รับผลกระทบและความไม่สามารถย้อนกลับได้ของอันตราย
กฎดังกล่าวต้องได้รับการอนุมัติจากรัฐสภายุโรปและประเทศสมาชิกก่อนที่จะออกเป็นกฎหมายซึ่งเป็นกระบวนการที่อาจใช้เวลาหลายปี