Reglas mundiales para la inteligencia artificial: primer intento
Inicio TemasEconomía y Sociedad Reglas mundiales para la inteligencia artificial: primer intento

Reglas mundiales para la inteligencia artificial: primer intento

Escrito por Olga Lucía Camacho

Foto: Freepik

La asamblea general de la ONU discutió sobre el uso de inteligencia artificial y sugirió varias regulaciones. Pero la reunión dejó más preguntas que respuestas.

Lucía Camacho G.*

Primeros pasos

Este 21 de marzo, la Asamblea General de la ONU aprobó por unanimidad la resolución no vinculante sobre ‘sistemas de inteligencia artificial seguros, protegidos y fiables’. 

Esta resolución se publica en un momento crítico en las discusiones sobre regulación y gobernanza de la IA, donde los esfuerzos regulatorios nacionales (como el de la Unión Europea o Estados Unidos) y de gobernanza multilateral de la IA (G20, CEPAL, BRICS, entre otros) compiten entre sí y avanzan a ritmos desiguales pero con un propósito  en apariencia común: abordar los impactos de la IA en distintas esferas.

la resolución de la Asamblea General es el primer acuerdo político de alcance global que interpela a los Estados ‘y a otros interesados’–que, desde luego, son las empresas de IA—a que se “abstengan” o “dejen de usar” sistemas de IA cuyo funcionamiento es imposible ajustar al derecho internacional

La resolución de la Asamblea contribuye particularmente a los procesos de gobernanza de la IA que están teniendo lugar en la ONU. Allí, hay dos iniciativas paralelas sobre el  futuro de las tecnologías digitales en general, incluida la IA: el Pacto Global Digital y la Cumbre del Futuro

Ambos procesos están en curso de definir los consensos sobre cómo abordar los riesgos de la IA para la humanidad, y sus resultados serán conocidos a mediados de este año. Sin embargo, conviene adelantar que, en las discusiones en el Pacto Global, hay voces que encuentran dificultades para ser oídas. Habrá que ver qué sucede en la Cumbre.

En todo caso, la diferencia entre las estrategias nacionales, los distintos procesos multilaterales y lo que está sucediendo en la ONU está en el enfoque para enfrentar los impactos, o sea, en las estrategias, mecanismos y acciones a cargo de los distintos actores para sortear los problemas asociados con la adopción de sistemas de IA. 

Pero una cosa parece evidente, y es que no hacer nada no parece una opción inteligente al tratarse de la IA.

Foto: X: United Nations Geneve - La resolución aprobada por la ONU aborda los impactos de la inteligencia artificial; es decir, las estrategias, mecanismos y acciones a cargo de diferentes actores para manejar los riesgos de las IA para la humanidad.

Ambigüedad en protección de derechos

En todo el entramado de esfuerzos regulatorios y de gobernanza de la IA, la resolución de la Asamblea General es el primer acuerdo político de alcance global que interpela a los Estados ‘y a otros interesados’–que, desde luego, son las empresas de IA—a que se “abstengan” o “dejen de usar” sistemas de IA cuyo funcionamiento es imposible ajustar al derecho internacional, o que conllevan “riesgos indebidos” para los derechos humanos.

Pero la buena intención se diluye cuando se examina la resolución. ¿Cuáles son los sistemas de IA que deben dejar de ser utilizados?, ¿cuál es el nivel de riesgo para los derechos humanos que justificaría dicha medida?, ¿qué es un ‘riesgo indebido’?, o ¿la abstención y cese debería estar acompañada por la eliminación de esos sistemas de IA? La resolución no da muchas luces sobre estas cuestiones.

Eso sí, su contenido parece sugerir que el despliegue de sistemas de IA que afectará negativamente el trabajo, la protección de la propiedad intelectual de creadores, artistas y medios, la privacidad y protección de datos de las personas, o la calidad de la información, deben ser mitigados y sorteados mediante soluciones poco creativas. 

Algunas de esas soluciones posibles incluyen los análisis de impacto, la alfabetización mediática, la investigación sobre impactos en derechos, el uso de marcas de agua para identificar el contenido sintético. 

la buena intención se diluye cuando se examina la resolución. ¿Cuáles son los sistemas de IA que deben dejar de ser utilizados?, ¿cuál es el nivel de riesgo para los derechos humanos que justificaría dicha medida?, ¿qué es un ‘riesgo indebido’?, o ¿la abstención y cese debería estar acompañada por la eliminación de esos sistemas de IA? La resolución no da muchas luces sobre estas cuestiones.

En otras palabras, los usos que significarían riesgos reales para estos derechos no quedarían, en principio, amparados bajo la fórmula de la ‘abstención o el cese’. A este meollo se sumaría el de la indefinición de múltiples conceptos claves en la resolución como el de ‘uso indebido de la IA’, y ‘sistemas seguros, protegidos y fiables’. 

Habrá que ver qué logran aportar futuras resoluciones de la Asamblea General que busca alcanzar mejores acuerdos, aún en la superficialidad de su estrategia para abordar esta situación.

¿Qué esperar?

Más allá de esta resolución, hay varias preguntas que todavía no encuentran respuesta clara en su contenido. Por ejemplo ¿de qué manera se articularán los procesos de regulación nacional y los otros procesos de gobernanza multilateral con el enfoque propuesto por la ONU?, o ¿cómo ampliar la participación de los países de América Latina en las discusiones sobre la gobernanza de la IA que tienen lugar en la ONU? 

Mientras tanto, conviene examinar de cerca el desarrollo de otras discusiones en torno a esta tecnología que están recibiendo menos atención, como la de regulación y gobernanza de la IA en el dominio militar

El otro tema es el interés inusitado de las grandes empresas de IA para impulsar la revitalización de la energía nuclear como fuente de suministro de energía eléctrica para la IA. Estos son asuntos que deberían estar también en el centro de la discusión sobre el impacto tanto social como ambiental de una tecnología de interés social.

Artículos Relacionados

Dejar un comentario

*Al usar este formulario de comentarios, usted acepta el almacenamiento y manejo de sus datos por este sitio web, según nuestro Aviso de privacidad

Este sitio web utiliza cookies para mejorar tu experiencia. Leer políticas Aceptar

Política de privacidad y cookies