「人工知能に関しては、信頼は必須であり、あると嬉しいものではありません」とデジタル担当副社長のマルグレーテ・ベステアー氏(写真)は述べています。「これらの画期的な規則により、EUはAIが信頼できるものであることを保証するための新しい世界規範の開発を先頭に立って進めています。 基準を設定することで、倫理への道を開くことができます。 テクノロジー そして、その過程で EU が競争力を維持できるようにします。 将来性があり、イノベーションに優しい私たちのルールは、EU 国民の安全と基本的権利が危機に瀕している場合など、厳密に必要な場合に介入します。」
ルールは、高リスク、限定リスク、最小リスクのAIアプリケーションを区別します。
AIシステム 高リスクとして特定されるものには、以下で使用される AI テクノロジーが含まれます。
- 市民の生命と健康を危険にさらす可能性のある重要なインフラストラクチャ(輸送など)。
- 教育または職業訓練。これは、誰かの人生の教育および専門的コースへのアクセスを決定する可能性があります(例:試験の採点)。
- 製品の安全コンポーネント(ロボット支援手術におけるAIアプリケーションなど)。
- 雇用、労働者の管理、および自営業へのアクセス(例:採用手続きのための履歴書分類ソフトウェア)。
- 不可欠な民間および公共サービス(例:市民がローンを取得する機会を拒否するクレジットスコアリング);
- 人々の基本的権利を妨害する可能性のある法執行機関(例:証拠の信頼性の評価)。
- 移住、庇護および国境管理管理(例えば、渡航文書の信憑性の検証);
- 正義と民主的プロセスの管理(例えば、具体的な一連の事実に法律を適用すること)。
高リスクのAIシステムは、市場に出す前に厳しい義務を負います。
- 適切なリスク評価および軽減システム。
- リスクと差別的な結果を最小限に抑えるためにシステムに供給する高品質のデータセット。
- 結果のトレーサビリティを確保するためのアクティビティのログ。
- システムに必要なすべての情報と、当局がそのコンプライアンスを評価するためのその目的を提供する詳細な文書。
- ユーザーにとって明確で適切な情報。
- リスクを最小限に抑えるための適切な人間による監視措置。
- 高レベルの堅牢性、セキュリティ、および精度。
特に、すべての遠隔生体認証システムは高リスクとみなされ、厳格な要件が課されます。 法執行を目的とした公共のアクセス可能な場所でのライブ使用は原則として禁止されています。
狭い例外は厳密に定義および規制されています(行方不明の子供を探すため、特定の差し迫ったテロの脅威を防ぐため、または加害者または重大な犯罪の容疑者を検出、特定、特定、または起訴するために厳密に必要な場合など)。
このような使用は、司法機関またはその他の独立機関による承認と、時間、地理的範囲、および検索されるデータベースの適切な制限の対象となります。
リスクが限定された AI システムには、特定の透明性義務が課されます。たとえば、チャットボットなどの AI システムを使用する場合、ユーザーは、情報に基づいて続行するか撤退するかを決定できるように、自分がマシンと対話していることを認識する必要があります。
規制の必要がない最小限のリスク AI システムには、AI 対応ビデオ ゲームやスパム フィルターが含まれます。 AI システムの大部分はこのカテゴリに分類されます。
欧州の人工知能委員会は、規制の実施を促進するだけでなく、AIの標準の開発を推進します。
禁止またはデータ要件に準拠していない企業には、収益の6%の罰金が科せられます。
新しい規則に明記されている他の要件に準拠していない企業には、少額の罰金が科せられることが予想されます。
このルールは、リスクの高いAIシステムの開発者とユーザーの両方に適用されます
リスクの高いAIのプロバイダーは、展開前に適合性評価を行う必要があります
高リスクAIのその他の義務には、高品質のデータセットの使用、結果のトレーサビリティの確保、リスクを最小限に抑えるための人間による監視が含まれます。
「高リスク」アプリケーションの基準には、意図された目的、影響を受ける可能性のある人々の数、および危害の不可逆性が含まれます。
規則は、法律になる前に欧州議会と加盟国による承認を必要とします。このプロセスには数年かかる場合があります。