La integración de la Inteligencia Artificial (IA) en aplicaciones militares ha marcado un punto crítico en los conflictos actuales de Europa y Medio Oriente, destacando el emblemático caso de la Cúpula de Hierro en Israel. Esta incursión abre la discusión sobre la eventual implementación de sistemas autónomos letales en los campos de batalla, lo que plantea una necesidad imperiosa de regulación global, según revela el libro «La carrera militar de la IA: buena gobernanza común en la era de la inteligencia artificial» de Denise García, profesora de ciencias políticas y asuntos internacionales en la Universidad de Northeastern.
Denise García, exmiembro del Panel Internacional para la Regulación de Armas Autónomas, enfatiza las inquietudes que rodean la evolución de la IA en armamentos, cuestionando el futuro de los conflictos y la rendición de cuentas en un contexto de sistemas autónomos que podrían socavar el derecho internacional.
«El mundo debe unirse y crear nuevos bienes públicos globales… un marco para gobernar la IA y reglas acordadas sobre su uso en el ejército», declara García, instando a evitar la militarización acelerada de la IA que añadiría inestabilidad a un sistema internacional ya volátil. «No se debe confiar en la IA para tomar decisiones sobre la guerra», subraya.
VEA: Árboles de Navidad negros con blanco: 7 estilos que se apoderan de esta temporada
El portal de El Heraldo de México destaca que cerca de 4.500 investigadores en IA y robótica coincide con esta preocupación, argumentando que la IA no debería determinar el destino humano, alineándose con directrices parlamentarias europeas y regulaciones de la Unión Europea.
Sin embargo, funcionarios estadounidenses abogan por un paradigma regulatorio que permita a humanos utilizar la IA para decisiones letales, una propuesta que García señala como difícil de implementar.
«Gobernar la IA en el campo militar es un reto monumental; los algoritmos difícilmente comprenderán la complejidad de la guerra», advierte García. Los sistemas de armas de IA no solo amenazan las normas de rendición de cuentas bajo el derecho internacional, sino que complican el procesamiento de crímenes de guerra al atribuir «estatus de combatiente» a tecnologías, según García.
La dificultad en asignar responsabilidades conlleva a una «despersonalización» de la guerra, cuestionando quién será responsable ante la inserción de robots y software en contextos de conflicto. Las actuales aplicaciones de IA y su participación en conflictos militares han generado preocupación, como el control de múltiples sistemas no tripulados o el debate sobre el control humano en la selección de objetivos en la guerra de Ucrania.