Nuevas armas, nuevas reglas: regular la Inteligencia Artificial en el ámbito militar
Inicio TemasArte y Cultura Nuevas armas, nuevas reglas: regular la Inteligencia Artificial en el ámbito militar

Nuevas armas, nuevas reglas: regular la Inteligencia Artificial en el ámbito militar

Escrito por Lucia Camacho

Las armas y la guerra ya están aprovechando la Inteligencia Artificial (IA); por eso urge una conversación global sobre el peligro y las regulaciones necesarias para controlarlo.

Lucía Camacho*

Se están usando en Gaza

Lavanda, Gospel y ‘Where’s Daddy? (o ‘¿Donde está papá?’, en español), son sistemas de inteligencia artificial (IA) que identifican, a gran velocidad y escala, ‘objetivos militares legítimos’. 

El primero, identifica combatientes; el segundo, lugares o edificios en donde los combatientes podrían estar ocultos; y el tercero, predice o identifica las casas en las que dichos combatientes habitan o podrían habitar. Según información publicada por NPR y la Revista +972, estos tres sistemas de IA son usados por Israel en Gaza, desde el 2023.

Las predicciones y decisiones de estos sistemas de IA empezaron a ser tratadas desde el año pasado como órdenes que miembros del ejército israelí debían autorizar y ejecutar de manera automática, sin importar su nivel de precisión caso a caso, ni la legitimidad–o no—del objetivo identificado. Una fuente que declaró para +972 afirmó que ‘la máquina lo hace fríamente, y eso es lo que lo hace más fácil’. 

El uso de la IA en ese contexto es un factor determinante en la escalada de ataques indiscriminados contra la población civil ¿La razón? Su cuestionable nivel de efectividad. Lavanda logra solo un 90 % de aciertos. Y, si bien no hay información pública sobre Gospel y ‘¿Dónde está papá?’, los medios citados coinciden en que la baja supervisión humana ha significado la validación del error de tecnologías que, por su diseño, son propensas a fallar.

Mientras su uso en Gaza ha sido condenado por la ONU, desde el año pasado se han impulsado dos iniciativas de ‘uso responsable’ de la IA en el dominio militar. Una liderada por Estados Unidos y otra por Países Bajos ¿qué busca cada una y en qué se centra el debate por la regulación de la IA en ese ámbito crítico?, más aún ¿qué recogen esas iniciativas de las lecciones que va dejando el uso de la IA por las fuerzas militares de Israel?

Prohibición versus uso responsable

Ambas iniciativas buscan regular el uso responsable de la IA en el dominio militar. Prohibir su uso—incluso su integración con las armas nucleares y sus sistemas de comando, control y comunicación—no hace parte de la conversación por ahora. 

La ‘Declaración política sobre uso responsable de la inteligencia artificial y autonomía en el ámbito militar’, publicada en noviembre de 2023 y elaborada principalmente por los Estados Unidos, se enfoca en dos puntos principales. 

En primer lugar, la declaración enfatiza la adopción de medidas proactivas para minimizar sesgos de la IA y garantizar que su ciclo de vida sea compatible con el derecho internacional humanitario (DIH). De igual forma, en este punto resalta la intención de que estas medidas contribuyan a mejorar el cumplimiento del DIH.  

los medios citados coinciden en que la baja supervisión humana ha significado la validación del error de tecnologías que, por su diseño, son propensas a fallar.

Foto: X: Palestine RCS - El uso de la inteligencia artificial por parte de Israel en Gaza es uno de los motivos por los cuales los ataques indiscriminados contra la población civil han aumentado.

El segundo punto de la Declaración es la supervisión humana de los altos mandos militares, tanto en la fase de desarrollo e implementación como en el uso de esta tecnología. 

La iniciativa de Países Bajos, en colaboración con Corea del Sur, es conocida como REIAM –Responsible AI in the Military Domain. Fue publicada en febrero de 2023 y se enfoca en:

  1. La importancia de profundizar en la comprensión de los impactos de la IA en el contexto militar y en que se debe involucrar a las empresas que desarrollan sistemas de IA para enriquecer el diálogo;
  2. y en la importancia de reducir riesgos técnicos y legales asociados a la IA y asegurar su compatibilidad con las ‘obligaciones del derecho internacional’. 

Esta propuesta está en construcción, pero en su elaboración participan—a diferencia del caso estadounidense—las múltiples partes interesadas, con lo cual se busca dar un tono despolitizado a los consensos más sustanciosos que se logren a futuro.

En todo caso, a ambas iniciativas les hace falta más de una cocción. Por ejemplo, ninguna aborda los aspectos asociados a su uso por los actores civiles que participan en el ámbito militar, como empresas contratistas, grupos civiles armados, entre otros.

Poco dicen sobre el posible uso dual de sistemas de IA para los ámbitos civil y militar, como sucede con el reconocimiento facial que sirve para identificar combatientes, pero también a manifestantes en una protesta pacífica. 

Tampoco exploran de cerca aspectos que deberían ser centrales, como el de transparencia asociada a su uso que pasa inadvertido por el enemigo, pero también para el resto de la sociedad. O a la posible ‘carrera armamentista’ que pueda llegar a replicarse también en este escenario.

Lo que resulta llamativo es que ambas avanzan por fuera de la esfera de las Naciones Unidas, aunque esto tiene una explicación: las conversaciones en la ONU sobre IA en el dominio militar se reducen a su integración a las armas autónomas

La IA en el ámbito militar va más allá de las armas autónomas –como los drones no tripulados, por ejemplo—para permear las cadenas de suministros y logística, las comunicaciones militares, la planificación de los operativos y de producción de información de inteligencia, entre otros. Las armas son apenas un ingrediente de una combinación mucho más compleja.

Los vacíos que urge resolver

Pese a ser propuestas todavía ‘blanditas’ en sus aspiraciones y contenido, a futuro conviene revisar los aprendizajes del uso de sistemas de IA como Lavanda, Gospel o ‘¿Dónde está papá?’ para que las buenas prácticas, principios y normas reflejen la experiencia pasada, y no solo las aspiraciones de sus autores y adherentes.

El uso de sistemas de IA en el dominio militar puede fácilmente alejarse del ‘uso responsable’ si, como en el caso de Israel, la ambición por la cantidad de bajas y la rapidez en la respuesta militar empujan, ya no solo a desplazar el factor humano, sino a deshumanizar la acción militar. 

Tampoco exploran de cerca aspectos que deberían ser centrales, como el de transparencia asociada a su uso que pasa inadvertido por el enemigo, pero también para el resto de la sociedad. O a la posible ‘carrera armamentista’ que pueda llegar a replicarse también en este escenario.

La conversación sobre las nuevas y emergentes tecnologías en el dominio militar debe ser, ante todo, una conversación sobre las doctrinas militares que autorizan, por ejemplo, a bajar los niveles de efectividad en la fuerza letal ejercida por el Estado –y que en Colombia ha dejado dolorosos aprendizajes en el pasado reciente—.

Además, en esta conversación no puede escapar la valoración sobre las consecuencias asociadas a la integración de sistemas de IA con las armas nucleares. Es cierto que la tenencia de este tipo de armas está concentrada en algunos cuantos Estados en el mundo –ninguno de ellos está en América Latina—. Pero las consecuencias de la automatización en su activación y despliegue sí tiene riesgos existenciales que deberían interesarnos a todos 

¿Se imaginan un error en la ubicación del objetivo de una esas armas, que nos ubique en el centro de un ataque? Ni pensarlo. Por eso, debemos exigir que este sea un tema clave en la agenda de los procesos de regulación global de la IA en el ámbito militar.

Artículos Relacionados

Dejar un comentario

*Al usar este formulario de comentarios, usted acepta el almacenamiento y manejo de sus datos por este sitio web, según nuestro Aviso de privacidad

Este sitio web utiliza cookies para mejorar tu experiencia. Leer políticas Aceptar

Política de privacidad y cookies