El avance de la tecnología de IA ha experimentado una evolución notable en los últimos años, presentando al mundo innovaciones revolucionarias. Sin embargo, este progreso debe ir acompañado de supervisión pública y gubernamental. Establecer marcos regulatorios se vuelve primordial para lograr un equilibrio delicado: establecer límites necesarios sin sofocar la creatividad de los desarrolladores.

Regulación de EE. UU. para el uso de tecnología de IA - información básica

En este momento, el gobierno de EE. UU. solo ha comenzado a considerar la idea de preparar tales regulaciones. Además, la Casa Blanca recomendó que las agencias federales controlan todo lo relacionado con la tecnología de IA para fines gubernamentales. Ellos estarán a cargo de:

  • realizar evaluaciones de riesgos
  • implementar salvaguardias concretas
  • divulgaciones públicas detalladas siempre que el gobierno de EE. UU. utilice tecnología de IA
  • designar oficiales principales de IA

A diferencia del gobierno europeo, Estados Unidos decidió omitir el proceso de preparar un documento oficial y centrarse en asignar tareas específicas a los federales.

Además, el gobierno de EE. UU. planea contratar a unos 100 profesionales de IA que promoverán el tutorial de seguridad para el uso de la IA.

Puntos clave para la preparación de la regulación de EE. UU.

En enero de 2023, el NIST, una agencia del Departamento de Comercio de EE. UU., publicó voluntariamente el documento de estándares de IA, pero enfatizaron el hecho de que el documento no es obligatorio. Sin embargo, podría ser una fuente de información útil sobre el desarrollo/uso/diseño de productos de IA con estándares éticos y de conciencia. Un documento similar también ha sido publicado por la Sección 5301.

Dado que todos los institutos mencionados actualmente están cooperando con el gobierno de EE. UU., hay una alta probabilidad de que la regulación final de EE. UU. para la tecnología de IA incluya declaraciones de los documentos mencionados anteriormente.

¿Qué debería incluirse en estos documentos?

Basado en lo ya publicado en EE. UU. sobre evaluación de riesgos/estudios de casos/consejos prácticos para la tecnología de IA, la regulación de EE. UU. definitivamente puede contener información sobre:

  1. Requisitos de seguridad: monitoreo en tiempo real, paradas de emergencia u otra intervención del sistema de IA para prevenir el peligro para la vida, la salud o la propiedad humana.
  2. Evaluación de seguridad: protocolos para evitar, proteger contra o responder a ataques contra el sistema de IA.
  3. Tutoriales/Estudios de caso: comprensión y uso adecuado de los mecanismos de un sistema de IA.
  4. Privacidad: salvaguardar la autonomía humana protegiendo el anonimato, la confidencialidad y el control.
  5. Datos de código abierto: información accesible sobre el sistema de IA.
  6. Sistema de validación: demostración a través de pruebas o monitoreo continuo para confirmar que el sistema de IA funciona como se pretende.
  7. Declaraciones éticas: el desarrollo de tecnología de IA puede ser compatible con la base de la ley humana y la protección de datos.
  8. Lista de tareas para principiantes de start-ups, que puede incluir:
  • conocimiento suficiente sobre un sistema de IA
  • información sobre cómo implementar pruebas, evaluaciones, verificaciones y procesos de validación para informar decisiones de gestión
  • sugerencia para desarrollar una cultura organizacional que incorpore la gestión de riesgos de IA
  • evaluaciones de riesgos

Dado que el mercado de EE. UU. es indudablemente líder en el desarrollo de tecnología de IA, tal regulación debería realizarse lo antes posible. Eso definitivamente ayudaría a prevenir la creciente lista de peligros de la IA para los próximos años.

Author

Julia Mykhailiuk

Marketing Specialist