Развитие технологий ИИ в последние годы прошло значительную эволюцию, представив миру новаторские инновации. Однако этот прогресс должен сопровождаться общественным и государственным надзором. Установление регуляторных рамок становится важным для достижения тонкого баланса: установления необходимых границ без подавления креативности разработчиков.

Регулирование использования технологий ИИ в США — основная информация

На данный момент правительство США только начало рассматривать идею подготовки таких регулирований. Кроме того, Белый дом рекомендовал федеральным агентствам контролировать все, что связано с технологиями ИИ для государственных целей. Они будут отвечать за:

  • проведение оценки рисков
  • внедрение конкретных мер защиты
  • подробное публичное раскрытие информации всякий раз, когда правительство США использует технологии ИИ
  • назначение главных офицеров по ИИ

В отличие от европейского правительства, Соединенные Штаты решили обойти процесс подготовки официального документа и сосредоточиться на назначении конкретных задач федеральным агентствам.

Кроме того, правительство США планирует нанять около 100 профессионалов в области ИИ, которые будут продвигать обучение по безопасному использованию ИИ.

Ключевые моменты для подготовки регулирования в США

В январе 2023 года NIST, агентство Министерства торговли США, добровольно опубликовало документ со стандартами ИИ, но они подчеркнули, что документ не является обязательным. Однако он может быть источником полезной информации о разработке/использовании/проектировании продуктов ИИ с учетом этических стандартов и осведомленности. Подобный документ был также опубликован в Разделе 5301.

Так как все упомянутые институты в настоящее время сотрудничают с правительством США, существует высокая вероятность того, что в окончательное регулирование ИИ в США будут включены положения из вышеуказанных документов.

Что должно быть включено в этот документ?

Основываясь на уже опубликованных в США оценках рисков, кейс-стади и практических советах по технологиям ИИ, регулирование в США, несомненно, может содержать информацию о:

  1. Требования к безопасности: мониторинг в реальном времени, аварийные остановки или другие меры вмешательства в работу системы ИИ для предотвращения угрозы жизни, здоровью или имуществу людей

  2. Оценка безопасности: протоколы для предотвращения, защиты от или реагирования на атаки на систему ИИ

  3. Учебные материалы/Кейс-стади: понимание и правильное использование механизмов системы ИИ

  4. Конфиденциальность: защита автономии человека путем обеспечения анонимности, конфиденциальности и контроля

  5. Данные с открытым исходным кодом: доступная информация о системе ИИ

  6. Система валидации: демонстрация через постоянное тестирование или мониторинг, что система ИИ работает так, как задумано

  7. Этические заявления: разработка технологий ИИ должна быть совместима с основами человеческого закона и защиты данных

  8. Список задач для начинающих стартапов, который может включать:

    • достаточные знания о системе ИИ
    • информация о том, как внедрять тестирование, оценку, проверку и процессы валидации для информирования управленческих решений
    • предложения по развитию организационной культуры, включающей управление рисками ИИ
    • оценка рисков

Так как рынок США, несомненно, является лидером среди разработок в области технологий ИИ, такое регулирование должно быть проведено как можно скорее. Это определенно поможет предотвратить растущий список опасностей ИИ в предстоящие годы.

Author

Julia Mykhailiuk

Marketing Specialist