O avanço da tecnologia de IA passou por uma evolução notável nos últimos anos, apresentando ao mundo inovações revolucionárias. No entanto, esse progresso deve ser acompanhado por supervisão pública e governamental. Estabelecer quadros regulatórios torna-se fundamental para alcançar um equilíbrio delicado: estabelecer limites necessários sem sufocar a criatividade dos desenvolvedores.

Regulamentação nos EUA para o uso da tecnologia de IA - informações básicas

No momento, o governo dos EUA apenas começou a considerar a ideia de preparar tais regulamentações. Além disso, a Casa Branca recomendou que as agências federais controlem tudo que está relacionado à tecnologia de IA para fins governamentais. Elas serão responsáveis por:

  • realizar avaliações de risco
  • implementar salvaguardas concretas
  • divulgações públicas detalhadas sempre que o governo dos EUA usar tecnologia de IA
  • designar diretores principais de IA

Ao contrário do governo europeu, os Estados Unidos decidiram omitir o processo de preparação de um documento oficial e focar na atribuição de tarefas específicas aos federais.

Além disso, o governo dos EUA planeja contratar cerca de 100 profissionais de IA que promoveriam o tutorial de segurança do uso da IA.

Pontos chave para a preparação da regulamentação dos EUA

Em janeiro de 2023, o NIST, uma agência do Departamento de Comércio dos EUA, publicou voluntariamente o documento de padrões de IA, mas enfatizaram o fato de que o documento não é obrigatório. No entanto, ele pode ser uma fonte de informações úteis sobre o desenvolvimento/uso/projeto de produtos de IA com padrões éticos e de conscientização. Um documento semelhante também foi publicado pela Seção 5301.

Como todas as instituições mencionadas estão atualmente cooperando com o governo dos EUA, há uma alta probabilidade de que a regulamentação final dos EUA para a tecnologia de IA inclua declarações dos documentos acima mencionados.

O que deve ser incluído nesses documentos?

Baseado no que já foi publicado nos EUA sobre avaliação de riscos/estudos de caso/conselhos práticos para a tecnologia de IA, a regulamentação dos EUA definitivamente pode conter informações sobre:

  1. Requisitos de segurança: monitoramento em tempo real, dispositivos de parada ou outras intervenções do sistema de IA para prevenir o perigo à vida, saúde ou propriedade humana.
  2. Avaliação de segurança: protocolos para evitar, proteger contra ou responder a ataques contra o sistema de IA.
  3. Tutoriais/Estudo de caso: entendimento e uso adequado dos mecanismos de um sistema de IA.
  4. Privacidade: proteção da autonomia humana, protegendo anonimato, confidencialidade e controle.
  5. Dados de código aberto: informações acessíveis sobre o sistema de IA.
  6. Sistema de validação: demonstração por meio de testes ou monitoramento contínuo para confirmar que o sistema de IA funciona conforme o previsto.
  7. Declarações éticas: o desenvolvimento da tecnologia de IA pode ser compatível com a base da lei humana e proteção de dados.
  8. Lista de tarefas para iniciantes em startups, que pode incluir:
  • conhecimento suficiente sobre um sistema de IA,
  • informações sobre como implementar testes, avaliações, verificações e processos de validação para informar decisões de gestão,
  • sugestão para desenvolver uma cultura organizacional que incorpore a gestão de riscos de IA,
  • avaliações de riscos.

Como o mercado dos EUA é indubitavelmente um líder no desenvolvimento de tecnologia de IA, tal regulamentação deve ser conduzida o mais rápido possível. Isso definitivamente ajudaria a prevenir a crescente lista de perigos da IA para os próximos anos.

Author

Julia Mykhailiuk

Marketing Specialist