21 апреля Еврокомиссия опубликовала свод строгих правил, по-новому регулирующих использование искусственного интеллекта. Это первый документ подобного рода. В нем ИИ определяется как технология, являющаяся одним из самых значительных научных прорывов, сделанных за последнее время. Однако ее применение сопряжено с рядом этических проблем. Поэтому ЕС решил обязать частные компании и правительства Европы обеспечить гуманный подход при использовании ИИ.

Законопроект, представленный на пресс-конференции в Брюсселе, ввел ограничения на применение искусственного интеллекта в различных сферах деятельности, включая автоматическое управление транспортом, найм специалистов на работу, отбор детей при приеме в школу, оценивание результатов тестов.

Законодатели ЕС уделили внимание и использованию ИИ правоохранительными и судебными органами, деятельность которых связана с высокими рисками, поскольку может представлять угрозу безопасности и основным правам человека.

“ЕС возглавит разработку новых глобальных правил, которые гарантированно позволят нам доверять искусственному интеллекту”,  —  заявила Маргрет Вестагер, исполнительный вице-президент Еврокомиссии, отвечающий за цифровую политику.

Некоторые приложения, такие как системы массового слежения в общественных местах, если только они не используются в целях национальной безопасности, собираются полностью запретить.

Эти правила и нормы будут иметь далеко идущие последствия для крупных технологических компаний, таких как Amazon, Google, Facebook и Microsoft, а также для десятков других компаний, использующих искусственный интеллект в здравоохранении, страховании и финансах. Кроме того, законопроект ЕС обращен к правительствам, которые внедряют ИИ-технологии в уголовном правосудии и в сфере распределения госуслуг.

Европейский подход к искусственному интеллекту

В предлагаемой Еврокомиссией правовой базе не предусматривается пересмотр самой технологии искусственного интеллекта. Но ЕС будет учитывать, как ИИ используется в приложениях и для чего.

Законопроект предполагает пропорциональный риск-ориентированный подход: чем выше риск, который могут вызвать конкретные алгоритмы ИИ, тем строже будут правила для всех государств-членов ЕС.

Недопустимый риск

Системы ИИ, которые представляют явную угрозу безопасности, благосостоянию и правам людей, будут запрещены. К недопустимым относятся приложения ИИ, которые манипулируют поведением человека, лишая его свободы выбора, и системы, позволяющие правительствам влиять на “рейтинг социального доверия”.

“…например, игрушки, которые используют голосовые подсказки, чтобы манипулировать ребенком, заставляя его совершать что-то опасное. Такому применению нет места в Европе. Поэтому мы предлагаем запретить их”,  —  Маргрет Вестагер.

Высокий риск

Высокорискованными считаются случаи использования ИИ, связанные с такими видами деятельности, как:

  • жизнеобеспечивающая инфраструктура;
  • профессиональное образование и обучение;
  • безопасность продуктов и их компонентов;
  • занятость и управление персоналом;
  • основные государственные и частные услуги (оценка кредитного доверия);
  • правоохранительная деятельность (тесты на надежность);
  • миграционный менеджмент;
  • решения о выдаче политического убежища;
  • охрана государственной границы;
  • правосудие.

Во всех этих случаях использование систем ИИ будет ограничиваться определенными обязательствами до того, как они выйдут на рынок.

“Системы, которые будут оценивать, достаточно ли кто-то достоин получить ипотеку в банке. Или программное обеспечение, которое используется в самоуправляемых автомобилях и медицинских устройствах и которое таит в себе новые риски для нашей безопасности и здоровья. Эти системы искусственного интеллекта будут подчинены новому своду пяти строгих обязательств, потому что потенциально могут оказать огромное влияние на нашу жизнь”,  —  Маргрет Вестагер.

Ограниченный риск

Речь идет о технологиях типа чат-ботов с особыми требованиями к прозрачности использования.

“…применение таких средств ИИ, как чат-бот, который помогает нам забронировать билет или найти ближайший магазин, чтобы купить то, что мы хотим. Они также будут разрешены, но при условии соблюдения обязательств по прозрачности”,  —  Маргрет Вестагер.

Без риска

Неограниченно применять можно такие безрисковые приложения, как видеоигры или системы со спам-фильтрами.

“Наша правовая база позволяет свободно использовать такие приложения, без каких-либо ограничений, за исключением правовых норм, принятых ранее для защиты прав потребителей”,  —  Маргрет Вестагер.

Как новые правила отразятся на компаниях

Обсуждение и внедрение новых правовых актов в сфере ИИ займет несколько лет. Компании, уклоняющиеся от их выполнения, могут столкнуться со штрафами в размере до 6 % от мировых продаж.

Искусственный интеллект, способный самостоятельно выполнять задачи, усваивая огромные массивы данных, рассматривается технологами, бизнес-лидерами и государственными чиновниками как одна из самых передовых технологий в мире.

Однако по мере усложнения систем ИИ становится все труднее определить, почему они принимают те или иные решения. По мере того, как компьютеры становятся все мощнее, эта проблема только усугубляется. Исследователи высказывают опасения по поводу использования ИИ с этической точки зрения, утверждая, что искусственный разум может закрепить социальное неравенство, вторгнуться в частную жизнь или привести к сплошной автоматизации труда.

“Что касается искусственного интеллекта, то доверие к нему является обязательным, а не желательным,  —  сказала Маргрет Вестагер.  —  На этих исторических принципах ЕС возглавит разработку новых глобальных правил, которые гарантированно позволят нам доверять искусственному интеллекту”.

Заключение

Вводя этот законопроект, Европейский Союз, по-видимому, пытается утвердиться в роли самого беспристрастного в мире “сторожевого пса” технологической индустрии.

Ранее ЕС добился введения во всем мире строжайших правил конфиденциальности данных, а теперь готовит дополнения в законодательство о защите конкуренции и цензуре информационных материалов.

Компаниям следует активно готовиться к нововведениям и обеспечить доступ внешним аудиторам и сторонним экспертам к приложениям ИИ, которые попадают в зону высокого риска. Придется доказывать проверяющим, что эти приложения разработаны в соответствии с принципами, предложенными ЕС.

Со временем эти правила, как и другие глобальные законодательные инициативы ЕС, наверняка будут действовать не только на территории Европы. Не исключено, что другие страны и регионы тоже начнут вводить политику “ответственного ИИ” в соответствии с требованиями Евросоюза.

“Европа, возможно, и не была лидером последней волны цифровизации, но у нее есть все, чтобы возглавить следующую, основанную на производственных показателях. Это привлечет системы искусственного интеллекта в такие отрасли, как обрабатывающая промышленность, экологически чистая энергетика и здравоохранение, где Европа преуспеет. Поэтому мы должны убедиться в том, что делаем все правильно, и как можно скорее. Независимо от того, как быстро развиваются технологии, ИИ всегда должен соответствовать тому, кем мы являемся и за что выступаем”,  —  Маргрет Вестагер.

Читайте также:

Читайте нас в TelegramVK и Яндекс.Дзен


Перевод статьи Jair Ribeiro: This Is How the European Union Is Planning to Regulate A.I. in Europe More Strictly

Предыдущая статьяAurora UI  -  новый визуальный тренд в 2021 году
Следующая статьяСтилизация фотографий под мультфильмы с помощью Python