Mezclar la IA y el ejército puede ser peligroso: este proyecto de ley podría ayudar





No se puede negar la influencia que la IA ya ha tenido en la tecnología que utilizamos todos los días. Gran parte de la oposición a su ascenso se centra en dónde y cómo se utiliza. Quizás no conozcas las diferentes formas en que la Fuerza Aérea de EE. UU. ya está utilizando la IA, pero sus posibilidades para aumentar la eficiencia y simplificar la logística son enormes. Sin embargo, es vital actuar con cuidado al integrar la IA en asuntos militares. La ley AI Guardrails, presentada por la senadora de Michigan Elissa Slotkin en marzo de 2026, se propone proporcionar exactamente lo que sugiere el nombre: una influencia humana primordial y una decisión final detrás del trabajo de la IA.

Como se detalla en un comunicado de prensa del gobierno, la senadora Slotkin explicó que su proyecto de ley se centraría en tres áreas clave: “Asegurar que un humano esté involucrado cuando se disparan armas autónomas mortales, que la IA no pueda usarse para espiar al pueblo estadounidense y que un humano esté en el camino para lanzar armas nucleares”. Estas medidas no pretenden limitar el avance de la industria de la IA de EE. UU., sino más bien proteger el dominio de la nación en el área (“debemos ganar la carrera de la IA contra China”, añadió el legislador de Michigan), garantizando al mismo tiempo que se desarrolle de una manera segura y práctica.

Después de todo, los fallos, fallos y errores no son nada inauditos en el ámbito de la IA. Por supuesto, el juicio y la toma de decisiones humanos tampoco son infalibles, pero la mejor manera de aprovechar ambos es utilizarlos en conjunto. Así es como el proyecto de ley podría ayudar a Estados Unidos a lograrlo.

Más detalles sobre la Ley de barandillas de IA

En el comunicado de prensa que detalla las medidas incluidas en la ley AI Guardrails, el senador Slotkin declara que restringir la capacidad de la tecnología para atacar con armas autónomas sin supervisión, prohibirle lanzar armas nucleares e impedir su uso para contribuir a la vigilancia generalizada de la población es “sólo sentido común”. Es muy comprensible que estos no sean conceptos nuevos. Por ejemplo, la Directiva 3000.09 del Departamento de Defensa señala que el armamento debe crearse con el concepto de “permitir a los comandantes y operadores ejercer niveles apropiados de juicio humano sobre el uso de la fuerza”. Esta es en parte la razón por la que algunos sistemas de armas con capacidades automatizadas, como el Phalanx CIWS de la Armada, también tendrán modos que “indican” objetivos pero requieren autorización para dispararles, así como modos automáticos (cuando estén habilitados).

En resumen, la intención de este proyecto de ley es hacer que estos tres posibles casos de uso de la IA sean ilegales. En cuanto a por qué, el documento en sí simplemente explica: “Algunas decisiones del mando militar son demasiado arriesgadas y trascendentes para que las decidan las máquinas”. Esto también tiene el efecto de ayudar a garantizar la responsabilidad por cada decisión militar que se tome, aguas que pueden volverse bastante turbias cuando un sistema de IA actúa de manera más independiente.

La medida puede verse como un avance interesante de los cinco principios de la inteligencia artificial ética, que se incorporaron como parte de la estrategia de desarrollo de IA del departamento en febrero de 2020. Afirman que su uso de la IA debe ser equitativo, gobernable, confiable, responsable y rastreable. Dado que el proyecto de ley es nuevo en la agenda al momento de escribir este artículo, aún no se sabe cómo le irá entre los colegas legisladores del Senador de Michigan. Podría ser un paso importante para dirigir el desarrollo de la IA de forma segura en una de sus áreas potencialmente más peligrosas.