ЕС устанавливает правила для ИИ

Обновление: 9 декабря 2023 г.

ЕС устанавливает правила для ИИ

«Что касается искусственного интеллекта, доверие является обязательным, а не приятным», — говорит вице-президент по цифровым технологиям Маргрете Вестагер (на фото). «Благодаря этим знаковым правилам ЕС возглавляет разработку новых глобальных норм, чтобы гарантировать, что ИИ можно доверять. Устанавливая стандарты, мы можем проложить путь к этическим нормам. technology во всем мире и обеспечить, чтобы ЕС оставался конкурентоспособным на этом пути. Наши правила, ориентированные на будущее и ориентированные на инновации, будут вмешиваться там, где это острая необходимость: когда на карту поставлены безопасность и основные права граждан ЕС».

Правила различают приложения ИИ с высоким, ограниченным и минимальным риском.

Системы искусственного интеллекта к категории высокого риска относятся технологии искусственного интеллекта, используемые в:

  • Критические инфраструктуры (например, транспорт), которые могут поставить под угрозу жизнь и здоровье граждан;
  • Образовательная или профессиональная подготовка, которая может определять доступ к образованию и профессиональному курсу чьей-либо жизни (например, оценка экзаменов);
  • Компоненты безопасности продуктов (например, применение искусственного интеллекта в роботизированной хирургии);
  • Занятость, управление работниками и доступ к самостоятельной занятости (например, программное обеспечение для сортировки резюме для процедур найма);
  • Основные частные и государственные услуги (например, кредитный скоринг, лишающий граждан возможности получить ссуду);
  • Правоохранительные органы, которые могут нарушать основные права людей (например, оценка надежности доказательств);
  • Управление миграцией, убежищем и пограничным контролем (например, проверка подлинности проездных документов);
  • Отправление правосудия и демократические процессы (например, применение закона к конкретному набору фактов).

Перед выпуском на рынок систем искусственного интеллекта с высоким уровнем риска будут соблюдаться строгие обязательства:

  • Адекватные системы оценки и снижения рисков;
  • Высокое качество наборов данных, питающих систему, для минимизации рисков и дискриминационных результатов;
  • Регистрация активности для обеспечения прослеживаемости результатов;
  • Подробная документация, содержащая всю информацию, необходимую о системе и ее назначении, чтобы органы могли оценить ее соответствие;
  • Четкая и адекватная информация для пользователя;
  • Соответствующие меры человеческого надзора для минимизации риска;
  • Высокий уровень надежности, безопасности и точности.

В частности, все системы удаленной биометрической идентификации относятся к группе повышенного риска и к ним предъявляются строгие требования. Их живое использование в общедоступных местах в правоохранительных целях запрещено в принципе.

Узкие исключения строго определены и регулируются (например, когда это строго необходимо для поиска пропавшего ребенка, для предотвращения конкретной и неминуемой террористической угрозы или для обнаружения, определения местонахождения, идентификации или судебного преследования преступника или подозреваемого в серьезном уголовном преступлении).

Такое использование требует разрешения судебного или другого независимого органа и с соответствующими ограничениями по времени, географическому охвату и поиску баз данных.

Системы искусственного интеллекта с ограниченным риском будут иметь особые обязательства по прозрачности: например, при использовании систем искусственного интеллекта, таких как чат-боты, пользователи должны знать, что они взаимодействуют с машиной, чтобы они могли принять обоснованное решение продолжить или отступить.

К системам искусственного интеллекта с минимальным риском, не нуждающимся в регулировании, относятся: видеоигры с поддержкой искусственного интеллекта или спам-фильтры. Подавляющее большинство систем искусственного интеллекта попадают в эту категорию.

Европейский совет по искусственному интеллекту будет способствовать внедрению правил, а также стимулировать разработку стандартов для искусственного интеллекта.

Предусмотрены штрафы в размере 6% от выручки для компаний, не соблюдающих запреты или требования к данным.

Меньшие штрафы предусмотрены для компаний, которые не соблюдают другие требования, изложенные в новых правилах.

Правила будут применяться как к разработчикам, так и к пользователям систем искусственного интеллекта высокого риска.

Поставщики рискованного ИИ должны подвергнуть его оценке соответствия перед развертыванием.

Другие обязательства для ИИ с высоким уровнем риска включают использование высококачественных наборов данных, обеспечение прослеживаемости результатов и контроль со стороны человека для минимизации риска.

Критерии приложений с «высоким риском» включают предполагаемое назначение, количество потенциально затронутых людей и необратимость причиненного вреда.

Правила требуют утверждения Европейским парламентом и государствами-членами, прежде чем они станут законом - процесс, который может занять несколько лет.