Как Закон об искусственном интеллекте будет регулировать искусственный интеллект в ЕС и какое влияние это окажет

25/01/24

Когда объявляются результаты, глаза Ли Седоля наполняются слезами. AlphaGo, искусственный интеллект (ИИ), разработанный Google DeepMind, только что одержал победу в игре Го со счетом 4: 1. Это март 2016 года. Компьютерная программа победила восемнадцатого чемпиона мира Ли Седоля в сложной игре, в которую, как считалось, играли только люди, используя свою интуицию и стратегическое мышление. Компьютер победил не благодаря тому, что следовал правилам, заданным ему программистами, а благодаря машинному обучению, основанному на миллионах прошлых игр в Го и игре против самого себя. В этом случае программисты готовят наборы данных и создают алгоритмы, но они не могут знать, какие шаги предложит программа. Искусственный интеллект учится сам. После серии необычных и неожиданных шагов Ли был вынужден смириться».

Этот отрывок из книги «Этика искусственного интеллекта» Марка Кокельберга, бельгийского философа и технолога, в явной и многозначительной форме напоминает о встрече между человеком и его ограничениями. После определенного количества побед, одержанных Седолем, побеждает AlphaGo. Это происходит не в первый раз (приведен пример с Deep Blue), и тем не менее, после ряда необычных и неожиданных ходов, AlphaGo делает то, для чего предназначена: это происходит впервые в Сюда.

И именно здесь мы постигаем синтез феномена искусственного интеллекта (ИИ): это происходит таким образом впервые.

Все средства массовой информации говорили о гонке за искусственным интеллектом, особенно послеesplosioneЧатGPT. Мы много раз говорили об этом в контексте онлайн-защиты, подчеркивая беспрецедентный эволюционный толчок, с которым эти решения сталкиваются в своей истории.

Однако существует параллельное явление, косвенное и связанное с первым, которое рискует остаться незамеченным. Что касается стандартизации этих систем.

Регулирование искусственного интеллекта ни в коем случае не является простой задачей, и, не вдаваясь в технические подробности (а также в многочисленные законодательные брожения, происходящие в азиатских странах и США по этой теме), мы можем сказать, что Европейский Союз после многих лет предыдущей работы поставил в декабре 2023 года будет принят полуопределенный вариант того, что будет представлять собой после завершения технических обсуждений и процедуры одобрения сообществом первый европейский регламент по искусственному интеллекту: AI ACT.

Что это?

«Закон об искусственном интеллекте» представляет собой один из первых и наиболее структурированных законодательных документов на глобальном уровне, направленных на регулирование использования искусственного интеллекта и снижение потенциальных связанных с ним рисков. Окончательный текст закона еще предстоит разработать компетентным специалистам и подвергнуть окончательной доработке. Ожидается, что, если все пройдет беспрепятственно, вступление в силу произойдет в ближайшие два года.

Постановление сосредоточено главным образом на защите прав и свобод личности, устанавливая обязанность компаний, разрабатывающих решения искусственного интеллекта, демонстрировать, что их продукты и процесс их разработки не подвергают людей риску и не ставят под угрозу их добросовестность. Этот нормативный акт охватывает несколько сфер применения искусственного интеллекта, но некоторые из основных моментов включают ограничения на системы биометрической идентификации и обязательство прозрачности в отношении технологических систем, используемых для Chatbot например ЧатGPT.

Фундаментальным элементом Регламента является система классификации рисков, уже принятая в других аналогичных нормативных актах (прежде всего GDPR), которая определяет определенные системы ИИ с определенными характеристиками как «высокие риски», подвергая их строгим мерам по обеспечению соответствия. Это положение станет серьезной проблемой для компаний и учреждений, занимающихся созданием, вводом в эксплуатацию или использованием таких систем.

В число примеров систем высокого риска, включенных в Регламент, входят системы, используемые в таких важнейших секторах, как здравоохранение, транспорт, юстиция и общественная безопасность. Для таких систем потребуются высокие стандарты безопасности, прозрачности и надежности. В частности, для систем высокого риска Закон об искусственном интеллекте устанавливает ряд жестких требований, в том числе:

  • Оценка рисков и соблюдение требований: Системы искусственного интеллекта должны проектироваться и разрабатываться с учетом тщательной оценки рисков. Это включает в себя реализацию мер по управлению и минимизации этих рисков.
  • Прозрачность и информация о пользователях: Системы искусственного интеллекта должны быть прозрачными. Пользователи должны быть проинформированы, когда они взаимодействуют с системой искусственного интеллекта, и им предоставлена ​​достаточная информация о том, как система работает и принимает решения.
  • Человеческий надзор: Закон об искусственном интеллекте подчеркивает важность человеческого надзора за системами искусственного интеллекта, особенно за системами высокого риска. Это может иметь серьезные последствия для военного использования ИИ, где автоматическое принятие решений в критических ситуациях может быть ограничено или требовать явного человеческого контроля.
  • Качество данных: Закон об искусственном интеллекте требует, чтобы данные, используемые системами искусственного интеллекта, управлялись для обеспечения высочайшего качества, снижения риска предвзятости и обеспечения точности и надежности принимаемых решений.
  • Безопасность и надежность: Системы ИИ должны быть безопасными и устойчивыми к попыткам манипулирования или неправильного использования (особенно критический аспект, мягко говоря, в военном контексте).

Еще одно требование, представляющее особый интерес, — это требование, введенное с этической точки зрения: Закон об искусственном интеллекте требует проведения настоящей «этической оценки» (Оценка воздействия на фундаментальные права, FRIA) для систем высокого риска. Также существуют многочисленные взаимодействия по теме безопасности обработки персональных данных, на которую текст Регламента неоднократно ссылается в отношении анализа рисков и воздействий на физических лиц, участвующих в работе этих систем, а также рисков для их данные.

Кроме того, Есть некоторые запрещенные действия. Например, будет запрещено использование ИИ для анализа конфиденциальных биометрических данных, например, для распознавания людей по таким характеристикам, как сексуальная ориентация, этническая принадлежность, религия или политические взгляды. Это положение направлено на предотвращение дискриминации и злоупотреблений. Также будет запрещено неизбирательное использование изображений, взятых из Интернета или с камер видеонаблюдения, для обучения систем распознавания лиц, чтобы защитить частную жизнь людей и предотвратить массовую слежку.

Правоохранительным органам будет разрешено использовать системы биометрического распознавания (по поводу которых в ЕС велась важная битва после дела Clearview) только в исключительные обстоятельства, такие как угроза неизбежного террористического акта или поиск лиц, подозреваемых в тяжких преступлениях или жертв тяжких преступлений.

Закон об искусственном интеллекте запрещает использование искусственного интеллекта для распознавания эмоций людей на рабочих местах и ​​в школах, чтобы сохранить эмоциональную свободу людей. Кроме того, он запрещает практику социальная оценкаили использование ИИ для присвоения оценок на основе поведения или характеристик людей, что приводит к ограничениям или предоставлению гражданских прав. Эта мера направлена ​​на предотвращение явного или скрытого манипулирования поведением людей.

Регламент устанавливает, что высокоэффективные системы искусственного интеллекта с высокими вычислительными возможностями, такие как GPT-4 компании OpenAI, должны гарантировать прозрачность процесса обучения и обмениваться технической документацией по используемым материалам перед их выпуском на рынок. Эти модели должны будут сделать генерируемый ими контент узнаваемым, чтобы предотвратить мошенничество и дезинформацию, а также защитить авторские права на созданные произведения.

Что касается санкций, компании, не соблюдающие эти правила, могут быть оштрафованы на сумму до 7% от их мирового оборота.

Что, несомненно, очень интересно, так это то, что предусмотрено в текущем тексте об использовании систем искусственного интеллекта в военной сфере.

Ведь в тексте прямо предусмотрено (ст. 2, п. 3), что с точки зрения воздействия на военный сектор Закон об ИИ не применяется непосредственно к системам искусственного интеллекта, разработанным или используемым в военных целях.. Однако стандарты и правила, установленные Законом об искусственном интеллекте, могут косвенно влиять на то, как государства-члены ЕС и компании, работающие в Европе, разрабатывают и внедряют системы искусственного интеллекта для военного применения. Это может включать такие аспекты, как прозрачность, человеческий надзор и безопасность системы. Более того, вполне возможно, что Закон об искусственном интеллекте может послужить моделью для будущих военных правил (или стандартов) как на уровне ЕС, так и на глобальном уровне.

Растущая интеграция искусственного интеллекта в оборону требует нормативно-правовой базы, которая бы уравновешивала инновации с этической ответственностью и безопасностью. Сотрудничество между странами, учреждениями и отраслями будет иметь ключевое значение для обеспечения того, чтобы военное использование ИИ развивалось ответственно и в соответствии с международными принципами гуманитарного права.

Закон об искусственном интеллекте пройдет несколько этапов применения, наиболее масштабный из которых реально ожидается во второй половине 2026 года. Необходимо серьезно подготовиться к проектированию систем, находящихся в стадии разработки, чтобы разработать ИИ, соответствующий требованиям с требованиями, предложенными Евросоюзом в этом смысле.

Андреа Пулигедду (Юрист и эксперт в области права и новых технологий)

Номер: статья обязательно имеет информативную направленность, и не углубляется в многочисленные (и сложные) вопросы, стоящие на столе в связи с разработкой и применением Закона об ИИ.Для более глубокого обсуждения темы пишите мне по адресу: Puligheddu@studiolegaleprivacy.com

(www.studiolegaleprivacy.com)