AI Act: обзор закона ЕС об искусственном интеллекте

🖊️
это перевод текста "High-level summary of the AI Act" авторства представителей Future of Life Institute

Краткий обзор (о чём закон)

Закон об искусственном интеллекте[1] ("ИИ") классифицирует ИИ в соответствии с его риском:

  • Недопустимый риск запрещён (например, системы социального скоринга и манипулятивный ИИ).
  • Большая часть текста посвящена системам искусственного интеллекта ("ИИ-системам") высокого риска, которые подпадают под действие закона.
  • Меньший раздел посвящен ИИ-системам с ограниченным риском, на которые распространяются более легкие обязательства по прозрачности: разработчики и специалисты по внедрению должны убедиться, что конечные пользователи знают, что они взаимодействуют с ИИ (чат-ботами и дипфейками).
  • Минимальный риск не регулируется (включая большинство приложений с ИИ, доступных в настоящее время на едином рынке ЕС, такие как видеоигры с поддержкой ИИ и спам–фильтры – по крайней мере, в 2021 году; ситуация меняется с появлением генеративного ИИ[2]).

Большинство обязательств ложится на провайдеров (разработчиков) ИИ-систем высокого риска.

  • Те, которые намерены быть на рынке ЕС или ввести там в эксплуатацию ИИ-системы высокого риска, независимо от того, находятся ли они сами в ЕС или в третьей стране.
  • А также провайдеры из третьих стран, когда результаты их ИИ-систем высокого риска используются в ЕС.

Специалисты по внедрению – это физические или юридические лица, которые внедряют ИИ-систему в качестве профессионалов, т.е. не затрагиваемые конечные пользователи.

  • У тех, кто внедряет ИИ-системы высокого риска, есть определённые обязательства, хотя и меньшие, чем у провайдеров (разработчиков).
  • Это относится к разработчикам, расположенным в ЕС, и пользователям из третьих стран, когда выходные данные ИИ-системы используются в ЕС.

Искусственный интеллект общего назначения ("GPAI"):

  • Все провайдеры GPAI-моделей должны предоставлять техническую документацию, инструкции по использованию, соблюдать Директиву об авторском праве[3] и публиковать краткое описание содержимого, использованного для обучения моделей.
  • Провайдеры GPAI-моделей со свободной и открытой лицензией должны соблюдать авторские права и публиковать сводные данные об обучении, если только они не представляют системного риска.
  • Все провайдеры GPAI-моделей, которые представляют системный риск – открытые или закрытые – также должны проводить оценку моделей, состязательное тестирование, отслеживать серьёзные инциденты и сообщать о них, а также обеспечивать меры кибербезопасности.

  1. Полное название закона: Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act), его текст доступен здесь - прим. пер. ↩︎

  2. Имеется в виду, общего назначения - прим. пер. ↩︎

  3. Имеется в виду этот документ: Directive (EU) 2019/790 of 17 April 2019 on copyright and related rights in the Digital Single Market 96/9/EC and 2001/29/EC, его текст доступен здесь - прим. пер. ↩︎

Запрещённые системы искусственного интеллекта (глава II, статья 5)

ИИ-системы:

  • использование подсознательных, манипулятивных или вводящих в заблуждение методов для искажения поведения и затруднения принятия обоснованных решений, причиняя значительный вред.
  • использование уязвимостей, относимых к возрасту, инвалидности или социально-экономическим обстоятельствам для искажения поведения, причинения значительного вреда.
  • социальный скоринг, т.е. оценка или классификация отдельных лиц или групп на основе социального поведения или личностных черт, приводящая к пагубному или неблагоприятному обращению с этими людьми.
  • оценка риска совершения человеком уголовных преступлений исключительно на основе данных о профиле или личностных чертах, за исключением случаев, когда она используется для усиления оценки человека на основе объективных, поддающихся проверке фактов, непосредственно связанных с преступной деятельностью.
  • составление баз данных по распознаванию лиц путем нецелевого сбора изображений лиц из Интернета или записей с камер видеонаблюдения.
  • выводы об эмоциях на рабочих местах или в учебных заведениях, за исключением медицинских целей или соображений безопасности.
  • системы биометрической категоризации, использующие конфиденциальные признаки (раса, политические взгляды, членство в профсоюзах, религиозные или философские убеждения, сексуальная жизнь или ориентация), за исключением маркировки или фильтрации законно полученных наборов биометрических данных или случаев, когда биометрические данные классифицируют правоохранительные органы.
  • удалённая биометрическая идентификация в режиме реального времени ("RBI") в общедоступных местах для правоохранительных органов, за исключением случаев, когда:
    • целенаправленный поиск пропавших без вести, жертв похищений и людей, ставших жертвами торговли людьми или сексуальной эксплуатации;
    • предотвращение конкретной, существенной и неминуемой угрозы жизни или физической безопасности или предсказуемого террористического акта; или
    • выявление подозреваемых в совершении тяжких преступлений (например, убийств, изнасилований, вооруженных ограблений, незаконного оборота наркотиков и оружия, организованной преступности, экологических преступлений и т.д.).

Заметки об удалённой биометрической идентификации:

  • Использование RBI с поддержкой ИИ в режиме реального времени разрешено только в тех случаях, когда неиспользование этого инструмента может привести к причинению вреда, особенно в отношении серьезности, вероятности и масштаба такого вреда, и должно учитывать права и свободы пострадавших лиц.
  • Перед развёртыванием[1] полиция должна провести её оценку воздействия на основные права человека и зарегистрировать её в базе данных ЕС, хотя в надлежащим образом обоснованных случаях срочности развёртывание может быть начато без регистрации, при условии, что она будет зарегистрировано позже без неоправданных задержек.
  • Перед развёртыванием полиция также должна получить разрешение от судебного органа или независимого административного органа[2], хотя в должным образом обоснованных случаях срочности развёртывание может начаться и без разрешения, при условии, что разрешение будет запрошено в течение 24 часов. Если разрешение отклонено, развёртывание должно быть немедленно прекращено с удалением всех данных, результатов и выходных данных.

  1. такой ИИ-системы - прим. пер. ↩︎

  2. Независимые административные органы могут подвергаться большему политическому влиянию, чем судебные власти (Hacker, 2024). ↩︎

Системы искусственного интеллекта с высокого риска (глава III)

Правила классификации систем искусственного интеллекта высокого риска (статья 6)

Системы искусственного интеллекта высокого риска – это те, которые:

  • используются в качестве компонента безопасности или продукта, подпадающего под действие законов ЕС, указанных в Приложении I, И требующего прохождения оценки соответствия третьей стороной в соответствии с этими законами, включенными в Приложение I; ИЛИ
  • подпадают под случаи использования Приложения III (ниже), за исключением случаев, когда:
    • система искусственного интеллекта выполняет узкую процедурную задачу;
    • улучшает результат ранее завершённой деятельности человека;
    • обнаруживает схемы принятия решений или отклонения от предыдущих схем принятия решений и не предназначена для замены или влияния на ранее проведенную оценку персонала без надлежащей проверки со стороны человека; или
    • выполняет подготовительную задачу к оценке, соответствующей целям вариантов использования, перечисленных в Приложении III.
  • Комиссия[1] может дополнить или изменить вышеуказанные условия делегированными подзаконными актами, если есть конкретные доказательства того, что ИИ-система, подпадающая под действие Приложения III, не представляет существенного риска для здоровья, безопасности и основных прав. Она также может исключить любое из условий, если есть конкретные доказательства того, что это необходимо для защиты людей.[2]
  • ИИ-системы всегда считаются высокорискованными, если они профилируют людей, то есть осуществляют автоматизированную обработку персональных данных для оценки различных аспектов жизни человека, таких как производительность работы, экономическое положение, здоровье, предпочтения, интересы, надёжность, поведение, местоположение или передвижение.
  • Провайдеры, чьи ИИ-системы подпадают под примеры Приложения III, которые считают, что их системы не относимы к системам высокого риска, должны задокументировать такую оценку, прежде чем выводить их на рынок или вводить в эксплуатацию.
  • Через 18 месяцев после вступления в силу Комиссия предоставит рекомендации по определению того, что является ИИ-системой высокого риска, со списком практических примеров использования с высоким и невысоким риском.

  1. Имеется в виду Европейская комиссия - прим. пер. ↩︎

  2. Этого абзаца нет в оригинальном тексте на странице источника, но есть в файле по ссылке "View as PDF" – прим. пер. ↩︎

Требования к провайдерам систем искусственного интеллекта высокого риска (статьи 8-17)

Провайдеры ИИ-системы высокого риска должны:

  • Создать систему управления рисками на протяжении всего жизненного цикла ИИ-системы высокого риска.
  • Осуществлять управление данными, обеспечивая, чтобы наборы данных для обучения, валидации и тестирования были актуальными, достаточно репрезентативными и, насколько это возможно, не содержали ошибок и были полными в соответствии с намеченной целью.
  • Составить техническую документацию, подтверждающую соответствие требованиям, и предоставлять компетентным органам информацию для оценки этого соответствия.
  • Спроектировать свою ИИ-систему высокого риска для ведения учёта так, чтобы она могла автоматически регистрировать события, имеющие отношение к выявлению рисков на национальном уровне, и существенные изменения на протяжении всего жизненного цикла системы.
  • Предоставить инструкции по использованию последующим разработчикам, чтобы обеспечить их соответствие требованиям.
  • Спроектировать свою ИИ-систему высокого риска так, чтобы разработчики могли осуществлять контроль со стороны человека.
  • Разработать свою ИИ-систему высокого риска для достижения надлежащего уровня точности, надёжности и кибербезопасности.
  • Создать систему менеджмента качества для обеспечения соответствия требованиям.

Варианты использования по Приложению III

Незапрещённые биометрические данные

  • Системы удаленной биометрической идентификации, исключающие биометрическую верификацию, которые подтверждают, что человек является тем, за кого себя выдаёт.
  • Биометрические системы категоризации, позволяющие получать конфиденциальные или защищённые атрибуты или характеристики.
  • Системы распознавания эмоций.

Критическая инфраструктура

  • Компоненты безопасности в управлении и эксплуатации критически важной цифровой инфраструктуры, дорожном движении и обеспечении водой, газом, отоплением и электричеством.

Образование и профессиональная подготовка

  • Системы искусственного интеллекта, определяющие доступ, зачисление или распределение в образовательные и профессионально-технические учебные заведения на всех уровнях.
  • Оценка результатов обучения, в том числе тех, которые используются для управления учебным процессом студентов.
  • Оценка соответствующего уровня образования для конкретного человека.
  • Мониторинг и выявление запрещённого поведения учащихся во время тестов.

Занятость, управление работниками и доступ к самозанятости

  • Системы искусственного интеллекта, используемые для подбора персонала, в частности для таргетированных объявлений о вакансиях, анализа и фильтрации заявок, а также оценки кандидатов.
  • Продвижение по службе и расторжение контрактов, распределение задач на основе личностных качеств или характеристик и поведения, а также мониторинг и оценка результатов работы.

Доступ к основным государственным и частным услугам и пользование ими

  • Системы искусственного интеллекта, используемые государственными органами для оценки права на получение льгот и услуг, включая их распределение, сокращение, отмену или восстановление.
  • Оценка кредитоспособности, за исключением случаев выявления финансового мошенничества.
  • Оценка и классификация экстренных вызовов, включая определение приоритетности отправки полиции, пожарных, медицинской помощи и служб срочной сортировки пациентов.
  • Оценка рисков и ценообразование в сфере медицинского страхования и страхования жизни.

Правоохранительные органы

  • Системы искусственного интеллекта, используемые для оценки риска человека стать жертвой преступления.
  • Детекторы лжи.
  • Оценка достоверности доказательств в ходе уголовного расследования или судебного преследования.
  • Оценка риска совершения правонарушений или повторных правонарушений физическим лицом основана не только на составлении профиля или оценке личностных черт или преступного поведения в прошлом.
  • Профилирование при раскрытии преступлений, расследованиях или судебном преследовании.

Управление миграцией, предоставлением убежища и пограничным контролем

  • Детекторы лжи.
  • Оценка нелегальной миграции или рисков для здоровья.
  • Рассмотрение ходатайств о предоставлении убежища, виз и видов на жительство, связанных с ними жалоб о соответствии требованиям по таким вопросам.
  • Обнаружение, распознавание или идентификация физических лиц, за исключением проверки проездных документов.

Отправление правосудия и демократические процессы

  • Системы искусственного интеллекта, используемые для исследования и интерпретации фактов и применения закона к конкретным фактам или для альтернативного разрешения споров.
  • Влияние на результаты выборов и референдумов или поведение избирателей, за исключением результатов, которые напрямую не взаимодействуют с людьми, таких как инструменты, используемые для организации, оптимизации и структурирования политических кампаний.

Искусственный интеллект общего назначения (GPAI) (глава V)

Модель GPAI – это модель искусственного интеллекта (в том числе при обучении на большом объеме данных с использованием масштабного самоконтроля), которая обладает значительной универсальностью и способна компетентно выполнять широкий спектр различных задач независимо от того, как модель представлена на рынке, и которая может быть интегрирована в различные последующие системы или приложения. Это не распространяется на модели искусственного интеллекта, которые используются перед выпуском на рынок для исследований, разработок и создания прототипов.

Система GPAI – это ИИ-система, основанная на модели искусственного интеллекта общего назначения (модели GPAI), которая способна служить различным целям, как для непосредственного использования, так и для интеграции в другие ИИ-системы.

Системы GPAI могут использоваться как ИИ-системы высокого риска или быть интегрированы в них. Провайдеры систем GPAI должны сотрудничать с провайдерами таких ИИ-систем высокого риска, чтобы обеспечить соответствие последних требованиям.

Все провайдеры моделей GPAI обязаны (статья 53):

  • Составить техническую документацию, включая процесс обучения и тестирования, а также результаты оценки.
  • Составить информацию и документацию для предоставления последующим провайдерам, которые намерены интегрировать модель GPAI в свою собственную систему искусственного интеллекта, чтобы последние понимали возможности и ограничения и могли их соблюдать.
  • Разработать политику соблюдения Директивы об авторском праве.
  • Опубликовать достаточно подробное резюме о содержимом, используемом для обучения модели GPAI.

Модели GPAI со свободной и открытой лицензиями – те, параметры которых, включая веса, архитектуру модели и использование модели, являются общедоступными, что позволяет осуществлять доступ, использование, модификацию и распространение модели, должны соответствовать только двум последним обязательствам, указанным выше, если только модель GPAI со свободной и открытой лицензией не является системной.

Модели GPAI считаются системными, когда совокупный объем вычислений, используемых для их обучения, превышает 10^25 операций с плавающей запятой в секунду (FLOPS) (статья 51). Провайдеры должны уведомить Комиссию в течение 2 недель, если их модель соответствует этому критерию (статья 52). Провайдер может привести аргументы в пользу того, что, несмотря на соответствие критериям, его модель не представляет системных рисков. Комиссия может самостоятельно или с помощью квалифицированного предупреждения от научной группы независимых экспертов принять решение о том, что модель обладает высокой эффективностью, что делает её системной.

В дополнение к четырем вышеперечисленным обязательствам провайдеры моделей GPAI, подверженных системному риску, также должны (статья 55):

  • Выполнять оценку моделей, включая проведение и документирование состязательного тестирования для выявления и снижения системных рисков.
  • Оценивать и снижать возможные системные риски, включая их источники.
  • Отслеживать, документировать и сообщать о серьезных инцидентах и возможных мерах корректировки в Службу ИИ[1] и соответствующие национальные компетентные органы без неоправданных задержек.
  • Обеспечить надлежащий уровень защиты от кибербезопасности.

Все провайдеры моделей GPAI могут продемонстрировать соблюдение своих обязательств, если они добровольно придерживаются кодексов практики до опубликования Европейских гармонизированных стандартов[2], соблюдение которых приведёт к презумпции соответствия (статья 56). Провайдеры, которые не придерживаются кодексов практики, должны продемонстрировать альтернативные адекватные меры соблюдения требований для получения одобрения Комиссии.

Кодексы практики (статья 56)

  • Будут учитывать международные подходы.
  • Будут охватывать вышеуказанные обязательства, но не обязательно ограничиваться ими, в частности, соответствующая информация для включения в техническую документацию для органов власти и последующих провайдеров, определение типа и природы системных рисков и их источников, а также методы управления рисками, учитывающие конкретные проблемы при устранении рисков в связи с тем, как они могут возникать, и возникающие по всей цепочке создания стоимости.
  • Служба ИИ может пригласить провайдеров моделей GPAI, соответствующие национальные компетентные органы для участия в разработке кодексов, в то время как гражданское общество, промышленность, научные круги, последующие провайдеры и независимые эксперты могут поддержать этот процесс.

  1. В оригинале этот орган называется "AI Office" (его официальный сайт) - прим. пер. ↩︎

  2. Более подробно про общие сведения о таких стандартах смотрите здесь - прим. пер. ↩︎

Управление (глава VI)

  • В рамках Комиссии будет создана Служба ИИ для мониторинга эффективного внедрения и соответствия провайдеров моделей GPAI требованиям (статья 64).
  • Последующие провайдеры могут подать жалобу на нарушение прав предшествующими провайдерами в Службу ИИ (статья 89).
  • Служба ИИ может проводить оценку модели GPAI для (статья 92):
    • оценки соответствия требованиям в тех случаях, когда недостаточно информации, собранной по запросу в рамках её полномочий.
    • Расследования системных рисков, в частности, после получения квалифицированного отчёта научной группы независимых экспертов (статья 90).

Временные рамки

  • После вступления в силу Закон об искусственном интеллекте будет применяться в следующем порядке:
    • 6 месяцев для запрещённых ИИ-систем.
    • 12 месяцев для GPAI.
    • 24 месяца для ИИ-систем высокого риска в соответствии с Приложением III.
    • 36 месяцев для ИИ-систем высокого риска в соответствии с Приложением I.
  • Кодексы практики должны быть готовы через 9 месяцев после его вступления в силу.