최근 몇 년 동안 AI 기술의 발전은 눈부신 진화를 거듭하며 세계에 혁신적인 변화를 선사하고 있습니다. 그러나 이러한 진보는 공공 및 정부의 감독과 동반되어야 합니다. 규제 프레임워크를 설정하는 것은 필요한 경계를 설정하면서 개발자의 창의성을 억제하지 않는 섬세한 균형을 이루는 데 있어 매우 중요합니다.

미국의 AI 기술 사용에 대한 기본 정보

현재 미국 정부는 이러한 규정을 준비하는 아이디어를 고려하기 시작했습니다. 그 외에도 백악관은 연방 기관들에게 정부 목적으로 AI 기술과 관련된 모든 것을 통제하도록 권고했습니다. 그들은 다음을 담당하게 됩니다:

  • 위험 평가 수행
  • 구체적인 안전 조치 실행
  • 미국 정부가 AI 기술을 사용할 때마다 자세한 공개 정보 제공
  • 최고 AI 책임자 지정

유럽 정부와 달리, 미국은 공식 문서 준비 과정을 생략하고 연방에 특정 임무를 할당하는 데 집중하기로 결정했습니다.

또한, 미국 정부는 AI 사용의 안전 교육을 촉진할 약 100명의 AI 전문가를 고용할 계획입니다.

미국 AI 기술 규제 준비의 핵심 사항

2023년 1월, 미국 상무부의 기관인 NIST는 자발적으로 AI 표준 문서를 발표했지만, 해당 문서가 의무적이지 않다는 사실을 강조했습니다. 그러나 이 문서는 윤리적이고 인식의 기준을 갖춘 AI 제품의 개발/사용/설계에 대한 유용한 정보의 원천이 될 수 있습니다. 비슷한 문서가 섹션 5301에 의해서도 발표되었습니다.

위에서 언급한 모든 기관이 현재 미국 정부와 협력하고 있기 때문에, 최종 미국 AI 기술 규제에 위 문서들의 내용이 포함될 가능성이 높습니다.

이 문서에는 무엇이 포함되어야 하나요?

미국에서 이미 발표된 위험 평가/사례 연구/실용적인 조언을 바탕으로, 미국 규제는 다음과 같은 정보를 포함할 수 있습니다:

  1. 안전 요구 사항: 인간의 생명, 건강 또는 재산을 위협하지 않도록 AI 시스템의 실시간 모니터링, 백스톱 또는 기타 개입
  2. 보안 평가: AI 시스템에 대한 공격을 피하고, 보호하며, 대응하기 위한 프로토콜
  3. 튜토리얼/사례 연구: AI 시스템의 메커니즘을 이해하고 제대로 사용하는 방법
  4. 개인 정보 보호: 익명성, 기밀성 및 통제를 보호함으로써 인간의 자율성을 보호
  5. 오픈 소스 데이터: AI 시스템에 대한 접근 가능한 정보
  6. 검증 시스템: 지속적인 테스트 또는 모니터링을 통해 AI 시스템이 의도한 대로 작동하는지 확인
  7. 윤리적 진술: AI 기술 개발이 인간 법과 데이터 보호의 기초와 호환될 수 있음
  8. 스타트업 초보자를 위한 할 일 목록은 다음을 포함할 수 있습니다:
  • AI 시스템에 대한 충분한 지식
  • 관리 결정을 안내하기 위한 테스트, 평가, 검증 및 검증 과정 구현에 대한 정보
  • AI 위험 관리를 포함하는 조직 문화 개발 제안
  • 위험 평가

미국 시장이 분명히 AI 기술 개발 분야의 선두주자인 만큼, 이러한 규제는 가능한 한 빨리 이루어져야 합니다. 이는 향후 몇 년 동안 증가하는 AI 위험 목록을 예방하는 데 분명히 도움이 될 것입니다.

Author

Julia Mykhailiuk

Marketing Specialist