미리 보기:
최근 몇 년 동안 AI 기술의 발전은 눈부신 진화를 거듭하며 세계에 혁신적인 변화를 선사하고 있습니다. 그러나 이러한 진보는 공공 및 정부의 감독과 동반되어야 합니다. 규제 프레임워크를 설정하는 것은 필요한 경계를 설정하면서 개발자의 창의성을 억제하지 않는 섬세한 균형을 이루는 데 있어 매우 중요합니다.
미국의 AI 기술 사용에 대한 기본 정보
현재 미국 정부는 이러한 규정을 준비하는 아이디어를 고려하기 시작했습니다. 그 외에도 백악관은 연방 기관들에게 정부 목적으로 AI 기술과 관련된 모든 것을 통제하도록 권고했습니다. 그들은 다음을 담당하게 됩니다:
- 위험 평가 수행
- 구체적인 안전 조치 실행
- 미국 정부가 AI 기술을 사용할 때마다 자세한 공개 정보 제공
- 최고 AI 책임자 지정
유럽 정부와 달리, 미국은 공식 문서 준비 과정을 생략하고 연방에 특정 임무를 할당하는 데 집중하기로 결정했습니다.
또한, 미국 정부는 AI 사용의 안전 교육을 촉진할 약 100명의 AI 전문가를 고용할 계획입니다.
미국 AI 기술 규제 준비의 핵심 사항
2023년 1월, 미국 상무부의 기관인 NIST는 자발적으로 AI 표준 문서를 발표했지만, 해당 문서가 의무적이지 않다는 사실을 강조했습니다. 그러나 이 문서는 윤리적이고 인식의 기준을 갖춘 AI 제품의 개발/사용/설계에 대한 유용한 정보의 원천이 될 수 있습니다. 비슷한 문서가 섹션 5301에 의해서도 발표되었습니다.
위에서 언급한 모든 기관이 현재 미국 정부와 협력하고 있기 때문에, 최종 미국 AI 기술 규제에 위 문서들의 내용이 포함될 가능성이 높습니다.
이 문서에는 무엇이 포함되어야 하나요?
미국에서 이미 발표된 위험 평가/사례 연구/실용적인 조언을 바탕으로, 미국 규제는 다음과 같은 정보를 포함할 수 있습니다:
- 안전 요구 사항: 인간의 생명, 건강 또는 재산을 위협하지 않도록 AI 시스템의 실시간 모니터링, 백스톱 또는 기타 개입
- 보안 평가: AI 시스템에 대한 공격을 피하고, 보호하며, 대응하기 위한 프로토콜
- 튜토리얼/사례 연구: AI 시스템의 메커니즘을 이해하고 제대로 사용하는 방법
- 개인 정보 보호: 익명성, 기밀성 및 통제를 보호함으로써 인간의 자율성을 보호
- 오픈 소스 데이터: AI 시스템에 대한 접근 가능한 정보
- 검증 시스템: 지속적인 테스트 또는 모니터링을 통해 AI 시스템이 의도한 대로 작동하는지 확인
- 윤리적 진술: AI 기술 개발이 인간 법과 데이터 보호의 기초와 호환될 수 있음
- 스타트업 초보자를 위한 할 일 목록은 다음을 포함할 수 있습니다:
- AI 시스템에 대한 충분한 지식
- 관리 결정을 안내하기 위한 테스트, 평가, 검증 및 검증 과정 구현에 대한 정보
- AI 위험 관리를 포함하는 조직 문화 개발 제안
- 위험 평가
미국 시장이 분명히 AI 기술 개발 분야의 선두주자인 만큼, 이러한 규제는 가능한 한 빨리 이루어져야 합니다. 이는 향후 몇 년 동안 증가하는 AI 위험 목록을 예방하는 데 분명히 도움이 될 것입니다.
계속 읽기
일반
누군가가 당신의 작품을 표절하고 있나요? 이미지 검색에 대해 알아야 할 모든 것.
우리가 온라인에 게시하는 이미지는 지속적인 인상을 남깁니다. 일부는 우리가 직접 업로드하고 다른 일부는 다른 사람들이 게시합니다. 그래서 이미지 검색 엔진이 매우 유용한 도구입니다. 이 엔진은 표절된 이미지를 식별하고, 우리 자신이나 특정 장소의 사진을 찾고, 심지어 물체, 동물, 식물에 대해 더 많이 배울 수 있도록 도와줍니다. 이러한 서비스의 가능성과 응용은 무궁무진합니다. 이 기사에서는 Lenso.ai와 같은 이미지 검색 엔진이 어떻게 작동하는지 살펴보겠습니다. 또한 이러한 엔진의 사용 사례와 신뢰성의 중요성에 대해 자세히 알아보겠습니다.