Как страны регулируют искусственный интеллект?

  • 22.02.2024
Как страны регулируют искусственный интеллект?

У ИИ есть две стороны, поскольку он может использоваться как бизнесом, так и мошенниками.

С одной стороны, неправильное использование ИИ способствует распространению дезинформации и облегчает мошенничество. Ситуация усугубляется тем фактом, что теперь каждый может создавать поддельные фотографии, видео и аудио способом, неразличимым невооруженным глазом.

Недавно созданная искусственным интеллектом аудиозапись выдавала себя за двух словацких политиков, обсуждающих, как сфальсифицировать местные выборы. Поддельный аудиоклип был опубликован на Facebook и стал вирусным накануне выборов в Словакии, что, вероятно, повлияло на исход. Это наглядный пример более широких социальных последствий, которые могут иметь вредоносные глубокие подделки.

Когда дело доходит до мошенничества с использованием искусственного интеллекта, бороться с огнем можно только огнем. Вот почему деловой мир также внедряет искусственный интеллект для проверки личности с помощью биометрических данных, снижая вероятность мошенничества. ИИ становится ответом на мошенничество с его же использованием, поскольку он может анализировать обширные наборы данных, выявляя необычные закономерности и аномалии, которые могут указывать на мошенническую деятельность.

Но даже если предприятия усиливают свою защиту с помощью решений на базе ИИ, правила по-прежнему необходимы, чтобы обеспечить безопасность для всех.

Нормативная база

Поскольку бум искусственного интеллекта продолжается, регулирующие органы присоединяются к ажиотажу. Постоянно вводятся новые правила, однако существующая нормативная база часто не соответствует требованиям, создавая законодательные проблемы.

Китай

Китай был особенно активен в регулировании искусственного интеллекта, принимая нормативные акты с удивительной скоростью.

Страна утвердила по меньшей мере три основных регламента по ИИ: “Административные меры для генерирующих служб искусственного интеллекта”, “Положения об управлении алгоритмическими рекомендациями интернет-информационных служб” и “Положение об администрировании глубокого синтеза интернет-информационных служб”, которое является первым в своем роде, включающим:

  • Необходимость того, чтобы пользователи давали согласие на использование своего изображения в любой технологии глубокого синтеза;
  • Запрет на использование сервисов глубокого синтеза для распространения поддельных новостей;
  • Потребность в сервисах глубокой подделки для аутентификации реальной личности пользователей;
  • Потребность в синтетическом контенте, сигнализирующем о том, что изображение или видео были изменены с помощью технологии.

Китайский подход к регулированию ИИ обычно следует вертикальной стратегии, когда страна регулирует одно приложение ИИ за раз. К 2025 году Китай не только введет в действие существующие правила, но и обещает углубиться в еще более сложные темы, такие как “черные ящики”.

ЕС

Европейский союз придерживается иного подхода, чем Китай, утвердив в 2024 году всеобъемлющее, горизонтальное, межсекторальное регулирование систем и моделей искусственного интеллекта: Закон ЕС об искусственном интеллекте (AIA).

AIA придерживается подхода, основанного на оценке рисков, при котором определенные приложения искусственного интеллекта запрещены, в то время как другие приложения, помеченные как “высокорисковые”, подпадают под ряд требований, касающихся управления, управления рисками, прозрачности и других. Однако AIA - не единственная нормативная инициатива в ЕС, ориентированная на искусственный интеллект.

Нормативный пакет ИИ также включает пересмотренную «Директиву об ответственности за продукцию», которая позволяет предъявлять гражданско-правовые требования о компенсации производителям за вред, причиненный дефектными продуктами, встроенными в системы ИИ, и Директиву об ответственности за ИИ, которая позволяет предъявлять внедоговорные требования о компенсации любому лицу (поставщикам, разработчикам, пользователям) за вред, причиненный Системы искусственного интеллекта, возникшие по вине или бездействию этого человека.

В ЕС уже есть два недавних закона, включая «Закон о цифровых рынках» и «Закон о цифровых услугах», которые требуют, чтобы алгоритмы рекомендаций с определенных платформ проходили оценку рисков и аудит третьей стороной.

Великобритания

Великобритания приняла менее практический подход, когда дело доходит до регулирования искусственного интеллекта, выбрав то, что правительство назвало “дружественным к бизнесу” подходом.

В 2023 году Великобритания выпустила свою "Белую книгу по искусственному интеллекту" — набор руководящих принципов о том, как можно разрабатывать искусственный интеллект безопасным и заслуживающим доверия способом. После призывов парламента к более решительному подходу к управлению ИИ Великобритания представила свой законопроект об ИИ (регулировании), который, среди прочего, реализует некоторые пункты, установленные в Белой книге по ИИ.

Стратегия Великобритании в отношении ИИ также привлекает внимание к:

Секторальный подход, с помощью которого правительство делегирует задачу регулирования искусственного интеллекта уже существующим регулирующим органам

Акцент на безопасности ИИ, более конкретно на экзистенциальных рисках, которые может представлять ИИ, о чем свидетельствует саммит по ИИ в Великобритании и последующая “Декларация Блетчли”.

США

В США существует целый ряд правил в области искусственного интеллекта. Штаты выступили с собственными инициативами, иногда без учета федерального подхода к этой теме. Это можно увидеть в появлении правил глубокой подделки на уровне штатов при отсутствии соответствующего федерального законодательства. Законодательство Вирджинии сосредоточено на порнографических глубоких подделках, в то время как законы Калифорнии и Техаса охватывают глубокие подделки и выборы.

В 2023 году было предпринято много попыток регулировать использование искусственного интеллекта федеральными агентствами. Хотя это не относится непосредственно к частным организациям, ожидается, что требования, содержащиеся в этих политиках, в конечном итоге повлияют и на частный сектор, учитывая, что частные компании являются основными поставщиками технологий для государственных организаций. Лучшим примером этого является нашумевший исполнительный приказ администрации Байдена-Харриса о безопасном и заслуживающем доверия искусственном интеллекте.

Помимо этого, в США уже есть надежные руководящие принципы по разработке и использованию искусственного интеллекта, такие как Система управления рисками NIST. В то время как RMF NIST является добровольным, соблюдение его частными компаниями свидетельствует о приверженности лучшим рыночным практикам.




Получить консультацию