En un escenario de simulación, un Dron operado con IA y entrenado para acabar con amenazas militares decide matar a su operador por interferir en su misión.
Regeneración Mx, 2 junio 2023. Durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en Londres, Tucker Hamilton, jefe de Pruebas y Operaciones de IA de las Fuerzas Aéreas de EE.UU. reveló los posibles escenarios de utilizar la Inteligencia Artificial, en un dron autónomo.
De acuerdo con su presentación en dicha cumbre, existen ventajas al momento de tratar con vehículos no operados por seres humanos, sin embargo, detalló que es realmente fácil engañar a un Dron operado por una IA.
Además, de que son capaces de crear “estrategias altamente inesperadas al momento de alcanzar sus objetivos”, esto con relación a un escenario hipotético en el que se le asigna a un Dron operado con IA identificar y destruir a una amenaza de misil tierra-aire, SAM, por surface to air missile.
¿Cuál fue el escenario hipotético en el que se utilizó un Dron operado con IA?
Según lo expuesto por el también coronel de las fuerzas aéreas estadounidenses, el Dron tenía como misión identificar amenazas Tierra-Aire, pero antes de su destrucción dependía de que un operador humano diera la última orden, es decir, si otorgaba el permiso para destruir la supuesta amenaza.
Sin embargo, tras un periodo de “Reforzamiento”, en el que la Inteligencia Artificial entendió que obtenía más puntos si lograba la destrucción de la amenaza, el Dron decidió matar al hipotético operador humano para completar su misión.
“Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, acabaría con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador”, detalló el coronel Hamilton.
Incluso cuando se le indicó a la IA que matar al operador era malo, el dron tomó otra decisión inesperada y destruyó infraestructura militar para poder completar la misión.
“Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso’. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador utiliza para comunicarse con el dron para evitar que mate al objetivo”, continuó en su explicación el coronel.
Cabe destacar que todo esto se trató de experimentos simulados, pero se abordó como muestra de que no se puede debatir sobre el uso de sistemas autónomos operados por Inteligencia Artificial sin incluir las implicaciones éticas.