A tecnologia de IA tem evoluído extremamente nos últimos anos e, como qualquer outra inovação, deve estar em conformidade com a aceitação pública e governamental. Por isso, é crucial fornecer e adaptar regulamentações que estabeleçam alguns limites e, ao mesmo tempo, não sejam um obstáculo para os desenvolvedores.

O que é o Ato de Inteligência Artificial da UE?

A Comissão Europeia publicou o primeiro ato em 2021, onde explicou a base do uso de IA e responsabilidade por possíveis perigos futuros. Além disso, foi enfatizado que qualquer tecnologia de IA que apareça (ou já esteja presente) na União Europeia deve ser desenvolvida com total responsabilidade e consciência do impacto social e respeito pelos valores e regras que perduram na Europa.

Ao longo dos anos,o documento foi atualizado várias vezes, sendo a última publicação em 2023. Tais adaptações são inevitáveis, pois a tecnologia de IA ainda está em andamento.

Por isso, há um plano para conduzir um portal de lei uniforme de IA, onde todos podem verificar a atualização mais recente e adequá-la às suas próprias regulamentações empresariais. Além disso, haverá possibilidade de enviar reclamações sobre sistemas de IA que foram mal utilizados e afetaram seus dados.

Regulamentação da UE para o uso da tecnologia de IA - pontos chave

Teoricamente, a regulamentação da UE deve incluir uma explicação detalhada do uso adequado da tecnologia de IA, como:

  • Transparência: código-fonte aberto disponível para a comunidade de desenvolvedores de IA
  • Qualidade dos dados: informações detalhadas sobre as melhores práticas de preparação de dados
  • Proteção do usuário: lembrete sobre privacidade de dados e consequências quando estes são vazados ou usados inapropriadamente
  • Supervisão humana: controle sobre o desenvolvimento de IA entre a sociedade
  • Responsabilidade: aceitação da responsabilidade por ações e decisões
eu-regulations

Além disso, há um grande aspecto da ética em IA e seus requisitos básicos.

O documento também deve divulgar 4 níveis de risco no uso da tecnologia de IA:

  1. Inaceitável:
  • Manipulação comportamental cognitiva de pessoas ou grupos específicos vulneráveis
  • Pontuação social: classificação de pessoas com base em comportamento, status socioeconômico ou características pessoais
  • Categorização biométrica de pessoas
  1. Alto

Sistemas de IA que se enquadram em áreas específicas que terão de ser registrados em um banco de dados da UE:

  • Gestão e operação de infraestrutura crítica
  • Educação e formação profissional
  • Emprego, gestão de trabalhadores e acesso ao autoemprego
  • Acesso e usufruto de serviços privados essenciais e serviços públicos e benefícios
  • Aplicação da lei
  • Gestão de migração, asilo e controle de fronteiras
  • Assistência na interpretação e aplicação da lei
  1. Limitado
  • Divulgação de que o conteúdo foi gerado por IA
  • Projetar o modelo para evitar que gere conteúdo ilegal
  • Publicar resumos de dados protegidos por direitos autorais usados para treinamento
  1. Mínimo

A lei visa oferecer oportunidades para startups e pequenas e médias empresas desenvolverem e treinarem modelos de IA antes de sua liberação para o público geral.

Além disso, cada um dos níveis de risco deve conter informações/documentação específicas sobre o processo de avaliação e exemplos de boas práticas, como:

  • Testes rigorosos
  • Documentação adequada
  • Objetivos comerciais claros
  • Proteção de dados

Considere se a ética em IA é uma necessidade no mundo moderno?

Também, a regulamentação pode conter instruções detalhadas de implementação de IA (“o que fazer e o que não fazer”), que esteja em conformidade com o princípio de lei da UE.

Assim que a regulamentação estiver na fase final, o comitê da UE também planeja fornecer multas para empresas/desenvolvedores que usaram mal a tecnologia de IA ou que levaram a ameaças sociais em larga escala.

Qual é o próximo passo?

Primeiramente, a regulamentação deve ser votada e aceita no comitê da UE. Infelizmente, tais debates muitas vezes duram meses ou até anos. O próximo passo inclui a implementação da regulamentação em cada país europeu.

Depois disso, empresas/desenvolvedores terão 2 anos para atualizar suas regulamentações e serviços para os novos padrões. E somente após outros 6 meses, o governo verificará e banirá serviços de IA que não se adaptaram à nova lei.

Por que tal regulamentação deve ser fornecida?

Primeiramente, atualmente a tecnologia de IA é apenas parcialmente regulamentada, e ainda há alguns aspectos que permanecem sob a lei. De um ponto de vista, isso abre um monte de possibilidades para desenvolvedores. Mas infelizmente, nas mãos erradas, tal liberdade poderia ser usada como arma. E isso poderia colocar em risco todo o processo de proteção de dados.

Além disso, a seguinte declaração deve ser considerada:

  • Proteção dos direitos humanos fundamentais: privacidade, não discriminação e autonomia.
  • Segurança e confiabilidade: a regulamentação pode estabelecer padrões e requisitos para a segurança e confiabilidade dos sistemas de IA.
  • Transparência e responsabilidade: requisitos para explicar processos de tomada de decisão de IA, divulgar fontes de dados e métodos de treinamento e atribuir responsabilidade por resultados relacionados à IA.
  • Considerações éticas: a IA levanta várias preocupações éticas, incluindo questões relacionadas à justiça, viés, responsabilidade e o impacto em empregos e na sociedade.
  • Promoção da inovação e competitividade: uma regulamentação clara e consistente pode proporcionar certeza e confiança para empresas e consumidores. Também pode ajudar a garantir um campo de atuação equilibrado para empresas que operam no mercado da UE.
  • Liderança global: ao desenvolver e implementar uma regulamentação robusta para IA, a UE pode se posicionar como líder global em governança responsável de IA.

Author

Julia Mykhailiuk

Marketing Specialist