top of page

Как новый Закон ЕС об искусственном интеллекте (ИИ) повлияет на бизнес и потребителей

Введение в DI


Искусственный интеллект ( ИИ ) — это революционная технология, которая изменит отрасли промышленности по всему миру. Он предлагает такие возможности, как анализ данных, прогнозирование тенденций, оптимизация процессов, обещающие изменить образ жизни и работы людей. Однако эти достижения сопряжены со значительными рисками, включая предвзятость, проблемы конфиденциальности данных, безопасности, прав человека и этические проблемы.

Нерегулируемый ИИ может привести к нарушениям прав человека, предвзятым суждениям, нарушению конфиденциальности и отсутствию ответственности. Например, системы искусственного интеллекта, используемые при найме на работу, могут благоприятствовать определенным демографическим группам и увековечивать неравенство. Аналогичным образом, ИИ в правоохранительных органах может несправедливо преследовать группы меньшинств или использовать «реальное» дистанционное распознавание лиц в общественных местах. Эти проблемы указывают на необходимость строгих правил для предотвращения вреда и неправильного использования.


Последствия нерегулируемого ИИ могут быть далеко идущими. Дискриминационная практика может усилить социальное неравенство, а утечка данных или нарушение закона об авторском праве могут подорвать общественное доверие. Отсутствие прозрачности в генеративных моделях искусственного интеллекта может помешать внедрению и доверию к этой новой технологии. Признавая эти риски, в 2021 году в апреле Европейская комиссия предложила Закон об искусственном интеллекте ( Закон ) для создания сбалансированной структуры, которая будет способствовать инновациям, одновременно защищая фундаментальные права и единый рынок. Поэтому очень важно понимать влияние нового Регламента ЕС по искусственному интеллекту и его требований.


Закон ЕС об интеллектуальной собственности


в 2024 году 13 марта Европейский парламент принял Закон об искусственном интеллекте, первое в своем роде всеобъемлющее горизонтальное регулирование, целью которого является создание общей правовой базы для разработки, маркетинга и использования систем искусственного интеллекта на всей территории ЕС. Постановление будет применяться к ЕС, а также затронет разработчиков ИИ, базирующихся за его пределами, поскольку им придется назначить представителя в ЕС, а их ИИ должен будет соответствовать требованиям закона.


Закон принимается в рамках обычной законодательной процедуры и должен быть одобрен Советом и опубликован в Официальном вестнике, чтобы вступить в силу. Ввиду важности общего рынка и ценности его пользователей, как и GDPR, закон установит стандарт мирового уровня для регулирования и внедрения систем искусственного интеллекта.


Закон об искусственном интеллекте вызвал споры о балансе между инновациями и управлением рисками. Критики говорят, что строгие правила могут подавить инновации и нанести вред европейским компаниям по сравнению с США, где создается большинство инноваций в области искусственного интеллекта. Например, некоторые модели искусственного интеллекта, такие как Google Gemini или Meta Llama, пока недоступны в ЕС. Кроме того, горячо обсуждаются ясность и объем категорий высокого риска, а также возможность обеспечения исполнения. Этические вопросы, такие как предвзятость и подотчетность, доминируют в дебатах, поскольку политики изо всех сил пытаются создать структуру, которая способствовала бы доверию к технологиям искусственного интеллекта. Нет никаких сомнений в том, что реализация Закона об искусственном интеллекте будет дорогостоящей. Но ИИ — это основная технология, которую нужно оставить в покое. Это особенно важно, поскольку большинство технологических компаний, владеющих и разрабатывающих модели ИИ, базируются в США и оказывают значительное влияние на пользователей ЕС и их данные.


Риск-ориентированный подход в Законе ЕС об искусственном интеллекте


Закон об искусственном интеллекте дает определение системы искусственного интеллекта и классифицирует системы искусственного интеллекта с различными требованиями в зависимости от уровня риска, который они представляют. Такой подход, основанный на оценке рисков, гарантирует, что меры регулирования будут пропорциональны потенциальному вреду, который могут нанести системы ИИ. Ниже представлен обзор различных категорий риска и соответствующих им требований:


Запрещенный цифровой ввод


Системы искусственного интеллекта, оказывающие вредное воздействие, запрещены. Сюда входят системы искусственного интеллекта, которые:

  • Управляет поведением человека, используя подсознательные методы.

  • Использует уязвимость конкретных групп (например, детей, инвалидов).

  • Классифицирует людей по признаку расы, членства в профсоюзе, политических взглядов, убеждений, сексуальной жизни или сексуальной ориентации.

  • Реализует социальные показатели правительств, что может привести к непропорциональным последствиям.

  • Идентифицирует людей в общественных местах с использованием удаленной биометрии «в реальном времени» в правоохранительных целях (за исключением пропавших без вести лиц, предотвращения угроз безопасности или подозреваемых в серьезных преступлениях).

  • Профилирует людей на основе их личности, чтобы оценить их риск совершения преступных действий.

  • Создавайте базы данных распознавания лиц, собирая данные из Интернета или камер видеонаблюдения.

  • Предсказывает эмоции на работе или в учебных заведениях, за исключением медицинских соображений или безопасности.


ИИ высокого риска


Системы искусственного интеллекта высокого риска оказывают существенное влияние на здоровье, безопасность или основные права человека и должны соответствовать строгим правилам. При оценке того, представляет ли система ИИ значительный риск, важны ее цель и функция. Примеры включают ИИ, используемый в:


  • Критическая инфраструктура (например, энергетика, транспорт).

  • Образование и обучение (например, определение доступа к образованию).

  • Занятость (например, искусственный интеллект, используемый на рабочих местах).

  • Правоохранительные органы (например, системы прогнозирования деятельности полиции).

  • Основные частные и государственные услуги (например, оценка кредитоспособности).


Системы искусственного интеллекта высокого риска будут подлежать оценке соответствия — процедуре, которую поставщик должен будет выполнить перед развертыванием системы искусственного интеллекта в ЕС. Это может быть самооценка или отчет государственного органа. Такие системы искусственного интеллекта должны будут отвечать ряду требований, таких как управление рисками, тестирование, обучение данных, прозрачность, человеческий надзор и кибербезопасность. В некоторых случаях потребуется провести оценку воздействия на фундаментальные права, чтобы убедиться, что система ИИ соответствует законодательству ЕС.


Ограниченный риск DI


Системы искусственного интеллекта с ограниченным риском, которые взаимодействуют с людьми или создают контент, должны соответствовать конкретным обязательствам в отношении информации и прозрачности, например, в отношении водяных знаков. Пользователи должны быть проинформированы, когда они взаимодействуют с системами искусственного интеллекта, такими как чат-боты, системы, генерирующие изображения, аудио и видео (например, дипфейки). Примечательно, что работодатели будут обязаны сообщать сотрудникам и их представителям, используют ли они системы искусственного интеллекта на рабочем месте.


Низкий или минимальный риск DI


Системы искусственного интеллекта с минимальным риском, такие как спам-фильтры, будут регулироваться только действующим законодательством (например, GDPR), и никакие другие обязательства не применяются.


Модели ИИ общего назначения и их обязанности


Постановление также вводит концепцию модели ИИ общего назначения (GPAI). Модели GPAI выполняют множество задач и на них распространяются особые обязательства в соответствии с Законом ЕС об искусственном интеллекте. Это включает в себя комплексное управление рисками, прозрачность операций, строгое управление данными, надзор за людьми и обеспечение надежности и безопасности от киберугроз. Эти меры обеспечивают этичное и ответственное использование моделей GPAI. Регламент также налагает более строгие требования на модели GPAI с «высокоэффективными возможностями», общая вычислительная мощность которых превышает 10^25 операций с плавающей запятой в секунду, что потенциально представляет больший риск для всего рынка. Такие модели должны будут постоянно оценивать и снижать риски и кибербезопасность, сообщать о нарушениях основных прав и принимать меры по исправлению положения.


Кодексы практики и обеспечение соблюдения Закона об интеллектуальной собственности


Для реализации Закона Комиссии следует разработать кодекс поведения или правила для выполнения обязательств поставщиков систем ИИ в соответствии с Регламентом. Если система ИИ будет соответствовать гармонизированным европейским стандартам, которые будут разработаны в будущем, она будет считаться соответствующей.


За соблюдение Закона об интеллектуальной собственности будут отвечать на уровне ЕС и как минимум один национальный орган по надзору за рынком и отчетности в каждом государстве-члене. Европейский совет по искусственному интеллекту (EAIB) будет координировать правоприменение на территории ЕС, предоставляя рекомендации и поддержку. Кроме того, Управление AI ЕС окажет помощь в применении регламента и разработке кодексов практики. Их поддержат консультативный форум, научная группа и независимые эксперты. Нарушение закона влечет за собой крупные штрафы. Компании должны регулярно проводить оценку соответствия и вести техническую документацию для демонстрации соответствия. Одним из заметных ограничений Закона об искусственном интеллекте является то, что его применение будет ограничено, и отдельные лица не будут иметь права предъявлять иск к системе искусственного интеллекта или ее оператору за ущерб или убытки.


Песочница и правоприменение


Закон об искусственном интеллекте включает в себя нормативные «песочницы» для проверки систем искусственного интеллекта на предмет соответствия нормативному надзору, поощряя инновации и обеспечивая при этом соблюдение требований. Закон вступит в силу постепенно: запрет на использование запрещенных систем ИИ будет прекращен через 6 месяцев, части, связанные с GPAI, — через 12 месяцев, а положения о системах ИИ высокого риска — через 24 месяца после вступления Закона в силу и через 36 месяцев после вступления Закона в силу. в силу. переходный период для систем искусственного интеллекта, регулируемых действующим законодательством ЕС о продуктах.



Чтобы соответствовать Регламенту ЕС по искусственному интеллекту, шаги, которые должны предпринять компании, зависят от того, являются ли они поставщиками или пользователями систем искусственного интеллекта. Пользователи систем искусственного интеллекта должны:


  • Усиление защиты данных : защитите свои данные и соблюдайте GDPR.

  • Проведите оценку рисков систем ИИ, чтобы понять уровень их риска.

  • Сообщите сотрудникам и их представителям, если вы внедряете системы искусственного интеллекта на рабочем месте, и оцените, какие изменения в политике необходимы.

  • Оценить, нужна ли политика ИИ,

  • Обеспечьте прозрачность : внедрите меры, чтобы сделать операции ИИ понятными для пользователей.

  • Создайте человеческий контроль : внедрите человеческий контроль для мониторинга и вмешательства при необходимости с помощью систем искусственного интеллекта.

  • Будьте в курсе : будьте в курсе обновлений законодательства, чтобы обеспечить его постоянное соблюдение.


Закон об искусственном интеллекте будет вступать в силу постепенно, а запрещенные системы искусственного интеллекта будут выведены из эксплуатации через 6 месяцев после вступления постановления в силу. Части постановления, касающиеся GPAI и штрафов, будут применяться через 12 месяцев после даты вступления в силу Закона о DI. Аналогичным образом, требования к системам искусственного интеллекта высокого риска начнут применяться через 24 месяца после вступления закона в силу.


Заключение


Регулирование ЕС в области ИИ направлено на то, чтобы сбалансировать инновации с этическим управлением. Классифицируя системы ИИ в соответствии с подходом, основанным на оценке рисков, и устанавливая соответствующие обязательства, Регламент снижает потенциальный вред и способствует повышению доверия к технологиям ИИ. Компании должны активно адаптироваться, чтобы обеспечить соблюдение требований и ответственно использовать ИИ. В Zabulis Legal мы стремимся совершенствоваться и помогать бизнесу адаптироваться в новой и важной области права.

 
 
 

ความคิดเห็น


  • LinkedIn
  • Facebook

@Copyright Zabulis Legal 2020-2024. Zabulis.Legal — это логотип, используемый Винсентасом Забулисом, фрилансером, регулируемым SRA, номер SRA — 666548. Я торгую от своего имени. Адрес головного офиса: 86B Lordship Park, Сток-Ньюингтон, Лондон, N16 5UA. Винсентас Забулис, магистр права (UCL) — внештатный адвокат, деятельность которого регулируется Управлением по регулированию деятельности адвокатов. Вся наша деятельность в Англии осуществляется в качестве регулируемого фрилансера. Веб-сайт Управления по регулированию деятельности солиситоров: www.sra.org.uk/consumers , а применимые стандарты и правила SRA — https://www.sra.org.uk/solicitors/standards-regulations/ . Zabulis.Legal — торговое название Zabulis Legal, APB, юридической фирмы в Литве (ЕС), зарегистрированной под номером компании 306641254 и регулируемой Адвокатурой Литвы. Адрес нашего головного офиса: ул. 18А-7, 01130, Вильнюс, Литва. Юридические услуги оказывают адвокаты или адвокаты юрисдикции, где зарегистрирована юридическая практика. Закрытую юридическую деятельность осуществляет юридическая фирма.   Сайт Литовской адвокатуры: www.advokatura.lt/en/.

bottom of page