Технология ИИ за последние несколько лет значительно эволюционировала, и, как и любая другая инновация, она должна предстать перед общественным и государственным обсуждением. Именно поэтому крайне важно создать и адаптировать правила, которые установят определенные границы и в то же время не будут препятствием для разработчиков.

Что такое Акт об искусственном интеллекте ЕС?

Европейская комиссия опубликовала первый акт в 2021 году, в котором были объяснены основы использования ИИ и ответственность за возможные будущие опасности. Кроме того, было подчеркнуто, что любая технология ИИ, которая появится (или уже появилась) в Европейском Союзе, должна разрабатываться с полной ответственностью и осознанием социального воздействия, а также с уважением к ценностям и правилам, действующим в Европе.

За последние годы документ был обновлён несколько раз, и последняя публикация была в 2023 году. Такие адаптации неизбежны, так как технология ИИ продолжает развиваться.

Поэтому планируется создание единого портала законов об ИИ, где каждый сможет проверить последние обновления и адаптировать их к своим бизнес-правилам. Кроме того, будет возможность подавать жалобы на системы ИИ, которые неправомерно использовали и повлияли на их данные.

Основные моменты регулирования использования ИИ в ЕС

Теоретически, регулирование ЕС должно включать подробное объяснение правильного использования технологий ИИ, таких как:

  • Прозрачность: открытый исходный код, доступный для сообщества разработчиков ИИ.
  • Качество данных: подробная информация о лучших практиках подготовки данных.
  • Защита пользователей: напоминание о конфиденциальности данных и последствиях их утечки или ненадлежащего использования.
  • Человеческий надзор: контроль за развитием ИИ среди общества.
  • Ответственность: принятие ответственности за действия и решения.
eu-regulations

Кроме того, важным аспектом является этика ИИ и её основные требования.

Уровни риска использования технологий ИИ

  1. Неприемлемый риск:
  • Когнитивное поведенческое манипулирование людьми или конкретными уязвимыми группами.
  • Социальный рейтинг: классификация людей на основе поведения, социально-экономического статуса или личных характеристик.
  • Биометрическая категоризация людей.
  1. Высокий риск:

Системы ИИ, подпадающие под конкретные области, которые должны быть зарегистрированы в базе данных ЕС:

  • Управление и эксплуатация критической инфраструктуры.
  • Образование и профессиональная подготовка.
  • Трудоустройство, управление работниками и доступ к самозанятости.
  • Доступ к основным частным услугам и государственным услугам и пособиям.
  • Правоохранительные органы.
  • Управление миграцией, предоставлением убежища и контролем на границах.
  • Помощь в юридической интерпретации и применении закона.
  1. Ограниченный риск:
  • Информация о том что контент был сгенерирован ИИ.
  • Проектирование модели для предотвращения генерации незаконного контента.
  • Публикация кратких обзоров использованных для обучения данных, защищенных авторским правом.
  1. Минимальный риск:

Закон направлен на предоставление стартапам и малым и средним предприятиям возможностей для разработки и обучения моделей ИИ до их выпуска в широкую публику.

Кроме того, каждый уровень риска должен содержать конкретную информацию/документацию о процессе оценки и примерах лучших практик, таких как:

  • Тщательное тестирование.
  • Надлежащая документация.
  • Чёткие бизнес-цели.
  • Защита данных.

Этика ИИ является необходимостью в современном мире?

Регулирование может также содержать подробные инструкции по внедрению ИИ ("что делать и чего не делать"), которые соответствуют принципам права ЕС.

Когда регулирование достигнет финальной стадии, комитет ЕС также планирует предусмотреть штрафы для компаний/разработчиков, которые неправомерно использовали технологии ИИ или создали угрозу для общества в широком масштабе.

Что дальше?

Во-первых, регулирование должно быть проголосовано и принято в комитете ЕС. К сожалению, такие дебаты часто длятся месяцами или даже годами. Следующим шагом будет внедрение регулирования в каждой европейской стране.

После этого у компаний/разработчиков будет 2 года на обновление своих правил и услуг до новых стандартов. И только после ещё 6 месяцев правительство начнет проверять и запрещать услуги ИИ, которые не соответствуют новым законам.

Почему необходимо такое регулирование?

Во-первых, в настоящее время технология ИИ регулируется только частично, и остаются аспекты, которые не охвачены законом. С одной стороны, это открывает **множество возможностей **для разработчиков. Но, к сожалению, в неправильных руках такая свобода может быть использована как оружие, что может поставить под угрозу весь процесс защиты данных.

Кроме того, следует учитывать следующие утверждения:

  • Защита фундаментальных прав человека: конфиденциальность, недискриминация и автономия.
  • Безопасность и надежность: регулирование может установить стандарты и требования для безопасности и надежности систем ИИ.
  • Прозрачность и подотчетность: требования к объяснению процессов принятия решений ИИ, раскрытию источников данных и методов обучения, а также назначению ответственности за результаты, связанные с ИИ.
  • Этические соображения: ИИ вызывает различные этические вопросы, включая вопросы справедливости, предвзятости, подотчетности и влияния на рабочие места и общество.
  • Стимулирование инноваций и конкурентоспособности: ясное и последовательное регулирование может предоставить бизнесу и потребителям уверенность и доверие. Это также может помочь обеспечить равные условия для компаний, работающих на рынке ЕС.
  • Глобальное лидерство: разрабатывая и внедряя надежное регулирование ИИ, ЕС может занять позицию мирового лидера в ответственной управлении ИИ.

Author

Julia Mykhailiuk

Marketing Specialist