Шаги регулирования ИИ в Нидерландах

Нидерланды изменяют регулирование алгоритмов систем ИИ. Причина: скандал из-за работы алгоритма налоговой службы.

🖊️
это перевод текста "AI Regulation Around the World: The Netherlands" авторства Маркуса Гразетте (Marcus Grazette), представителя Holistic AI

Предлагаемый Европейским союзом Закон об искусственном интеллекте (EU AI Act) направлен на гармонизацию требований к системам искусственного интеллекта (ИИ) по всему ЕС с его подходом, основанным на оценке рисков. В преддверии этого некоторые страны, такие как Нидерланды, выдвигают особые национальные требования.

FAQ по регулированию Китаем рекомендательных веб-сервисов
Разъяснения для компаний о применении новых правил (действуют с 1 марта 2022) регулирования рекомендательных Интернет-сервисов в Китае.

А про то, как регулируются алгоритмы в Китае, можно узнать здесь

Голландский подход сформировался после скандала вокруг предвзятого алгоритма, который их налоговая служба использовала для оценки требований о выплате пособий. Налоговая инспекция внедрила эту систему в 2013 году, и после того, как гражданское общество выразило обеспокоенность, два официальных расследования в 2020 и 2021 годах выявили систематическую предвзятость, затронувшую 1,4 миллиона человек.

В отчете Amnesty International об этом скандале документально зафиксирован ущерб, причиненный людям в результате: некоторые потеряли свои дома, сбережения и ухудшили здоровье из-за стресса. В 2021 году тогдашний премьер-министр Марк Рютте принёс официальные извинения, и весь его кабинет ушел в отставку из-за скандала.

Нидерланды вводят новый законодательный режим

В ответ голландское правительство усиливает надзор за алгоритмами. Они придерживается нового законодательного режима, обеспечивающего проверку систем на предмет прозрачности и дискриминации. Голландское управление по защите данных («Autoriteit Persoonsgegevens» или «AP») получит финансирование для создания новой надзорной функции. Александра ван Хаффелен, государственный секретарь по цифровизации, в декабре 2022 года проинформировала парламент о новом подходе.

Регулятор по защите данных (AP) получит дополнительно 1 миллион евро в 2023 году на надзор за алгоритмами, а к 2026 году он увеличится до 3,6 миллиона евро. Это финансирование является дополнением к будущему требованию об управлении ИИ в соответствии с Законом ЕС об ИИ (EU AI Act). Первоначально AP сосредоточит свое внимание на:

  • Выявление, анализ и обмен информацией о межсекторальных рисках.
  • Составление плана надзорной деятельности на основе сотрудничества с существующей нормативной экосистемой.
  • Разработка общего подхода к стандартам и обзор правовой базы.

Конкретный подход всё ещё находится в стадии разработки, но направление движения уже ясно. Голландское правительство хочет добиться большей прозрачности в отношении систем ИИ, используемых в государственном секторе. Предложения включают в себя:

  • Юридическое требование использовать систему оценки алгоритмов Счетной палаты Нидерландов (Algemene Rekenkamer). Фреймворк представляет собой структурированный опросник, основанный на этических рекомендациях Группы экспертов ЕС высокого уровня по ИИ для ИИ, заслуживающего доверия (EU’s High Level Expert Group on AI’s Ethical Guidelines for Trustworthy AI).
  • Общедоступный общенациональный реестр систем искусственного интеллекта с высокой степенью риска, содержащий информацию о целях и воздействии, подотчетности, используемых наборах данных и их обработке, рисках и мерах по их снижению, включая информацию о контроле со стороны человека и мерах по недопущению дискриминации, а также о возможности объяснения.
Responsible Algorithm Use: The Dutch National and Amsterdam City Algorithm Registers
Artificial intelligence systems rely on algorithms to instruct them on how to analyze data, perform tasks, predict patterns, evaluate trends, calculate accuracy, optimize processes and make decisio…

Больше деталей про реестры доступно здесь

Система оценки алгоритма

Скандал с налоговыми органами Нидерландов и публичные дебаты в середине 2020 года об автоматизированных решениях в голландском приложении для уведомления о covid-19 побудили Счетную палату Нидерландов вмешаться. Палата провела аудит ряда используемых в настоящее время автоматизированных систем и опубликовала отчёт в начале 2021 года.

В своём отчете Палата сосредоточила внимание на алгоритмах, выполняющих как прогностическую, так и предписывающую функцию и оказывающих “существенное влияние на поведение правительства или на решения, принимаемые по конкретным делам, гражданам или предприятиям”. В Палате разработали и протестировали систему аудита, состоящую из пяти компонентов: (1) подотчетность, (2) модель и данные, (3) конфиденциальность, (4) ИТ-контроль и (5) этика. Эта система тесно согласуется с рекомендациями Группы экспертов ЕС высокого уровня по ИИ и отражает наш подход[1] к аудиту ИИ.

Палата установила, что:

  • Правительственным ведомствам и организациям, работающим с ними, не хватало всестороннего обзора используемых ими алгоритмов.
  • Примерно в четверти случаев рассмотренные алгоритмы использовались для содействия принятию решений, например, путем выделения случаев для дальнейшего расследования.
  • В трех случаях в процессе разработки не были должным образом учтены правовые и этические нормы. Палата отметила, что процесс разработки, как правило, был сосредоточен на специалистах по обработке данных, программистах и экспертах по вопросам конфиденциальности, но юридические консультанты и политики, как правило, оставались в стороне.

Палата пришла к выводу, что “во многих случаях не предпринимается никаких действий для ограничения этических рисков, таких как искажения в выбранных данных”. Аудит выявляет пробелы и укрепляет доверие, предоставляя рекомендации по улучшению.


  1. В этом тексте под "мы" и "наш" имеется в виду автор оригинальной статьи и иной коллектив компании "Holistic AI" – прим. пер. ↩︎

Что это означает для бизнеса?

В настоящее время эти предложения распространяются на государственный сектор. Однако мы считаем, что они окажут влияние на бизнес двумя важными способами:

  • Компании, поставляющие системы искусственного интеллекта в государственный сектор, скорее всего, столкнутся с требованиями своих клиентов продемонстрировать, что их системы соответствуют предъявляемым требованиям.
  • Повышение осведомленности общественности о системах искусственного интеллекта и о том, как они используются, может создать спрос на то, чтобы частные компании соответствовали уровню прозрачности, ожидаемому в государственном секторе.

Компаниям следует подумать о том, как они могут продемонстрировать, что их системы справедливы, надежны и объяснимы. Мы считаем, что AI assurance может предоставить это доказательство. Аудит может помочь компаниям выполнить требования GDPR, чтобы показать, что обработка данных является справедливой, и опередить требования по оценке рисков, содержащиеся в предстоящем Законе ЕС об ИИ.

Introduction new algorithm regulator and implications for financial sector
As per 1 January 2023, a new regulator for algorithms has been introduced in the Netherlands.

Что меняется для финансового сектора в связи с таким регулированием