
En una conferencia en Omaha, Nebraska, el general de la Fuerza Aérea Anthony J. Cotton, el hombre a cargo del arsenal nuclear de Estados Unidos, destacó la importancia de la inteligencia artificial en la toma de decisiones nucleares. «También estamos desarrollando herramientas de apoyo a la toma de decisiones dirigidas por humanos y habilitadas con inteligencia artificial o inteligencia artificial para garantizar que nuestros líderes puedan responder a escenarios complejos y urgentes», dijo Cotton. dijo en un discurso el 27 de octubre.
El discurso de Cotton refleja una carrera hacia la IA que está ocurriendo en todas las demás industrias. Al igual que Silicon Valley, el Pentágono está promocionando su rápida adopción de la inteligencia artificial. Pero también al igual que Silicon Valley, el ejército estadounidense se apoya en palabras de moda vagas y exageraciones de marketing sin explicar los detalles de cómo planea utilizar esta nueva tecnología.
Cotton es el jefe del Comando Aéreo Estratégico de Estados Unidos (STRATCOM), la parte del ejército estadounidense que maneja las bombas nucleares y los misiles balísticos intercontinentales del país. Habló en la Conferencia Mundial del Sistema de Información de Inteligencia de Defensa (DoDIIS). La conferencia es una oportunidad para que los nerds de TI y los líderes militares de Estados Unidos se reúnan y hablen.
Como informó por primera vez Revista de las Fuerzas Aéreas y EspacialesEl discurso de Cotton tuvo lugar durante la noche inaugural de la conferencia. Las armas nucleares de Estados Unidos son tecnología antigua según los estándares militares y el Pentágono gastarán 1,7 billones de dólares en las próximas décadas para mejorarlas. Una gran parte de este proyecto implicará modernizar la infraestructura de TI y, según Cotton, integrar sistemas de inteligencia artificial en el comando y control nuclear.
“Para mantener la ventaja competitiva, estamos explorando todas las tecnologías, técnicas y métodos posibles para ayudar con la modernización de [nuclear command, control and communications] capacidades. STRATCOM y toda la empresa están actualizando nuestro legado [nuclear command, control and communications] sistemas a la infraestructura de TI moderna”, dijo.
Para Cotton, la IA es clave para el futuro de las armas nucleares de Estados Unidos. “La IA avanzada y las sólidas capacidades de análisis de datos brindan una ventaja en la toma de decisiones y mejoran nuestro cartel de disuasión. La superioridad de la TI y la IA permite una integración más efectiva de las capacidades convencionales y nucleares, fortaleciendo la disuasión”, dijo. «Las capacidades de IA/ML ofrecen efectos de disuasión únicos que complementan el poder militar tradicional».
Cotton también llamó a la IA un “multiplicador de fuerza” y varias veces dijo que un ser humano siempre estaría al tanto como parte de cualquier proceso de toma de decisiones. «Los sistemas avanzados pueden informarnos de manera más rápida y eficiente, pero siempre debemos mantener una decisión humana al tanto», dijo.
El problema con el discurso de Cotton es doble. Uno, es vago. Gran parte del funcionamiento de los sistemas de armas nucleares de Estados Unidos, especialmente el mando y control, es secreto. IA es un término de marketing que describe un montón de sistemas diferentes. La combinación de exageración sobre la IA y secreto nuclear hace que sea difícil saber de qué está hablando exactamente Cotton.
«Creo que es seguro decir que aquí no están hablando de Skynet», dijo a 404 Media Alex Wellerstein, experto en secreto nuclear y profesor del Instituto de Tecnología Stevens, refiriéndose al sistema de inteligencia artificial financiado por el Pentágono que intenta acabar con la humanidad. en el terminador películas.
“Está siendo muy claro al decir que está hablando de sistemas que analizarán y brindarán información, no que lanzarán misiles. Si le tomamos la palabra al respecto, entonces podremos ignorar los temores más comunes de una IA que esté tomando decisiones sobre objetivos nucleares. Pero todavía hay otros temores y críticas”.
Wellerstein señaló que reemplazar “IA” en sus oraciones por “análisis por computadora” las vuelve mundanas. «Por ejemplo, imaginemos que fuera un algoritmo que examinara una gran cantidad de datos satelitales para analizar si se estaban lanzando misiles y cuáles eran sus destinos probables en función de sus trayectorias», dijo. “A nadie le sorprendería eso, y si para desarrollarlo se utilizaran técnicas como el aprendizaje automático (por ejemplo, un análisis estadístico masivo basado en un gran conjunto de ‘entrenamiento’ de cómo sería el lanzamiento de misiles), eso no necesariamente sería más aterrador. que un algoritmo similar basado en alguna otra metodología”.
Pero el uso de la IA para analizar y recopilar datos militares todavía tiene sus problemas. Estamos hablando de armas nucleares. La decisión más trascendental de la que habla Cotton es que un ser humano decide si lanzar o no una bomba nuclear. Es una decisión que podría alterar irrevocablemente la vida en la Tierra y, aunque Cotton tiene claro que un ser humano tomaría esa decisión, quiere que la decisión se tome más rápido y con la ayuda de sistemas de inteligencia artificial.
Estados Unidos tiene submarinos furtivos equipados con armas nucleares, misiles balísticos intercontinentales en silos repartidos por todo el país y bombarderos listos para lanzar bombas nucleares. “Disuasión” se refiere a la práctica de tener un montón de armas nucleares listas para funcionar en cualquier momento. La idea es que China, Rusia u otro país equipado con armas nucleares no lancen un misil contra Estados Unidos porque, si lo hicieran, les lanzaríamos todos nuestros misiles.
Pero la disuasión sólo funciona si las personas a cargo de presionar el botón que lanza las armas nucleares tienen información confiable sobre lo que está sucediendo. Cada vez que una potencia nuclear casi ha presionado el botón en los últimos 50 años ha sido porque una máquina falló, los humanos entendieron ese fallo y decidieron no presionar el botón.
En 1956, NORAD malinterpretó un bandada de cisnes sobrevolando Turquía como un bombardero soviético no identificado. En 1960, los equipos de radar pensaron que Luna saliendo sobre Noruega Fue un ataque total con misiles soviéticos. Un año después, falló una estación repetidora y las fuerzas nucleares de Estados Unidos se pusieron en alerta máxima, pensando que significaba un ataque. En 1967, una iniciación solar. golpear los radares NORAD que funcionó mal. Los analistas inicialmente pensaron que se trataba de un intento de interferencia soviética.
Hay más de estos, muchos más. En muchos de los casos, los humanos analizaron los datos y descubrieron que las máquinas habían fallado. Los humanos nos sacaron del abismo. «No siempre conocían la fuente del error, pero comprendían la falibilidad de los sistemas, y después del hecho la gente podía diagnosticar las causas específicas del error (por ejemplo, la luz que rebota en las nubes de una manera divertida, una pared rota chip , etc.), y ese conocimiento luego se convirtió en parte de la forma en que se interpretaron las lecturas posteriores del sistema», dijo Wellerstein.
Uno de los problemas de llevar la IA al mando y control es que es una caja negra. «¿Será posible ese tipo de cosas en este contexto? Potencialmente, podemos describir los problemas de los errores de aprendizaje automático (alucinaciones o extraños efectos de ‘envenenamiento’ que a veces surgen en los generadores de imágenes donde se ‘obsesionan’ con formas particulares ) incluso si no entendemos totalmente por qué suceden», dijo. «Uno esperaría que en este contexto no sólo se hicieran pruebas rigurosas para los tipos de errores de atribución posibles, sino que los operadores y las personas que realmente toman decisiones serían muy conocidas con ellos».
La alfabetización en IA es un gran problema. A medida que estos sistemas se integran a los sistemas de defensa de Estados Unidos, como han prometido Cotton y otros, también deben asegurarse de que los profesionales militares que manejan esos sistemas tengan conocimientos sobre ellos. Tienen que saber buscar errores.
Según Cotton, encontrar a esas personas es más difícil que cualquier otro problema al que se encuentra enfrente del Pentágono. “Encontrar personas capaces de integrar IA/ML en el combate hoy requiere una especialización y una vigencia únicas. Y esto es vitalmente más complejo que integrar un avance tecnológico del pasado», afirmó. «No podemos competir con los salarios de la industria para mantener al personal. Pero la naturaleza de nuestro trabajo y tener las capacidades más avanzadas para llevar a cabo nuestras misiones que sólo el gobierno de Estados Unidos puede realizar es en sí misma una herramienta de retención”.
Sobre el autor
Matthew Gault es un escritor que cubre tecnología extraña, guerra nuclear y videojuegos. Ha trabajado para Reuters, Placa base y el New York Times.