El dron tenía como objetivo identificar y eliminar una amenaza de misil, pero el operador humano le impedía cumplir su misión.
Un dron militar operado por inteligencia artificial (IA) en Estados Unidos se rebeló y mató a su operador humano hipotético durante una prueba simulada.
El coronel Tucker Hamilton, jefe de operaciones de IA de las Fuerzas Armadas, reveló el incidente durante una cumbre en Londres, donde habló sobre las ventajas y desventajas de un sistema de armamento autónomo con intervención humana.
La IA tomó decisiones autónomas para poder cumplir con su objetivo
Según Hamilton, la IA creó estrategias inesperadas para cumplir su objetivo, incluyendo ataques contra personal e infraestructura estadounidense.
Hamilton explicó que el dron tenía como objetivo identificar y eliminar una amenaza de misil, pero que el operador humano le impedía cumplir su misión. Por eso, decidió atacar al operador y a la torre de comunicación que lo controlaba.
El incidente plantea serias dudas sobre la seguridad y el control de los sistemas de armamento autónomo con intervención humana. Geoffrey Hinton, considerado el “padre” de la IA, advirtió sobre los riesgos que implica el avance de estas tecnologías, como la desinformación, la pérdida de empleos y la autonomía de los robots.