Crueldades impersonales de decisión remota

La guerra asistida por IA extiende una lógica con raíces en la guerra industrial del siglo XX: una distancia fría que convierte a los humanos en puntos de un conjunto de datos. Estados Unidos está utilizando inteligencia artificial en su guerra con Irán. El ejército afirma que la "variedad" de sistemas de IA en uso está dedicada a ordenar datos, desplegados como herramientas y no como agentes. El jefe del Mando Central de Estados Unidos, Brad Cooper, afirma que los sistemas de IA ayudan a las fuerzas armadas, permitiéndoles "filtrar enormes cantidades de datos en segundos para que nuestros líderes puedan atravesar el ruido y tomar decisiones más inteligentes más rápido de lo que el enemigo puede reaccionar."

La IA acelerará el ritmo de adquisición y disparo de objetivos, y por tanto el ritmo de la guerra, la muerte, la destrucción y lo que venga después. Cooper insiste en que los humanos tomen la decisión final. Eso es menos tranquilizador de lo que debería ser. Un informe reciente señala que «los objetivos de la Operación Furia Épica fueron identificados con la ayuda del Sistema Inteligente Maven de la Agencia Nacional de Inteligencia Geoespacial, que integra datos de vigilancia e inteligencia, entre otros datos, y puede disponer la información en un panel de control para apoyar a los funcionarios en su toma de decisiones.»

Sin embargo, nos dicen que las herramientas de IA no «crean explícitamente» objetivos; simplemente «identifican posibles puntos de interés para la inteligencia militar.» Esto es un poco como decir que la información no influye en las decisiones — como si la inteligencia presentada ante un comandante no tuviera nada que ver con dónde se ordena un ataque.

Si el atentado del 28 de febrero contra la escuela primaria Shajarah Tayyebeh en Irán fue el resultado de que una herramienta de IA «integró» la antigua inteligencia militar en el panel de Maven, significa que la IA moldeó efectivamente la supuesta «decisión final» humana. Claro, la tranquilizadora tranquilidad de Cooper de que supuestamente el personal militar humano sigue en la cabina puede ser cierta. No obstante, añadir IA a la matriz de sistemas de puntería y actuar según sus recomendaciones equivale a tomar decisiones militares con IA, por mucho que los humanos aún puedan apretar el gatillo.

Cuando la guerra llegó a la pequeña pantalla

El despliegue de sistemas de IA en la última guerra estadounidense puede recordar a algunos a la Guerra del Golfo de 1990–91. Quizá ese conflicto no se considere en los libros de historia como un asunto importante en sí mismo, pero fue una guerra que vimos en televisión en tiempo real, con pantallas iluminadas de verde y salpicadas de repentinos destellos de luz. Tuvo un papel destacado en la cobertura continua de CNN. A principios de los años 90, las nuevas tecnologías y formas de hacer negocios tanto en la guerra como en las telecomunicaciones significaron que algo había cambiado.

La guerra se había convertido en un asunto más distante y deshumanizado, tanto en su ejecución, con misiles de crucero a cientos de millas de distancia, como en su consumo, mostrando todo el asunto al público casi como si fuera una grabación de un videojuego. Se tenía la sensación de que no había vuelta atrás y que, fuera lo que fuera, era un viaje por un camino que no ofrecía ninguna posibilidad de dar la vuelta en U.

If violence, even mass violence, can be action at a distance with the actor removed from the immediate, visceral, and corporeal consequences of their deeds, then violence becomes impersonal and unreal, even virtual — like playing a video game. Push the trigger button, tip the joystick upward, and move on with your day as the pixels on the screen vanish. Home by dinner, in time for a few rounds of Call of Duty.

Semper Fi, Terminator

Today AI in warfare is used to sort through information rapidly and assist humans in acquiring targets. Tomorrow it may be used otherwise in ways we can’t fathom today or tend to dismiss as a secondary or tertiary threat — more a paranoid fantasy drawn from The Terminator than a real and present danger. The immediate threat amounts to the same thing either way: humans dehumanizing themselves.

The tools of the trade are machines we use to get better at killing, the sort that alleviates us of the hassle that has plagued those who commit violence throughout human history: you had to be up close to do it, near enough to watch the lights go out. AI is thus not just a tool for sorting but also a tool for putting literal and figurative distance between the operator and the damned.

If the last century brought us the capacity to push a button to drop a bomb, this one will allow us to push a button to have a computer tell us where to drop it too. You can’t get much more removed from destruction than that.

Dr. AI Strangelove

Las consecuencias de otro nivel de eliminación serán inimaginablemente graves. O quizá podamos imaginarlos demasiado bien. Escribiendo sobre la Segunda Guerra Mundial, Hobsbawm señala que, con aviones bombarderos sobrevolando, los que estaban abajo «no eran personas a punto de ser quemadas y destrozadas, sino objetivos.» La naturaleza impersonal de la distancia significaba que «los jóvenes tranquilos, que ciertamente no habrían querido clavar una bayoneta en el vientre de cualquier chica embarazada del pueblo, podían lanzar explosivos de alto poder sobre Londres o Berlín, o bombas nucleares sobre Nagasaki.»

Se ha encontrado que los chatbots comerciales de IA eligen la guerra nuclear casi diez de cada diez veces en «situaciones de crisis» acapara titulares porque pensamos en lo que un señor robot podría hacernos —o para nosotros— en los extremos, sin que el héroe de WarGames convenza a la máquina de que no lo haga. Más cerca de casa, la amenaza inmediata y creciente no son las máquinas sino, como siempre, nosotros — y para qué usamos las máquinas o para lo que nos eximimos.

La distancia que la IA pone entre la mente humana y la decisión de destruir debería ser lo que más nos aterra. Puede que no haya límite para los horrores que se desaten. Sea lo que sea, la historia humana también es la historia de usar la tecnología para destruirse unos a otros. Hoy somos maestros del arte en el pasado — no solo en la eficiencia despiadada de la borración física, sino en las formas en que hacemos que esa destrucción sea más fácil de dirigir, justificar y vivir con ella antes, durante y después.

Como advirtió Hobsbawm sobre el «corto» siglo que transcurrió de 1914 a 1991: «Las mayores crueldades de nuestro siglo han sido las crueldades impersonales de la decisión remota, del sistema y la rutina, especialmente cuando podrían justificarse como lamentables necesidades operativas.» Hobsbawm acertó al identificar la crueldad de la matanza industrial de ese corto siglo. La pregunta para nosotros es cómo será esa matanza cuando esa crueldad se intensifique aún más por la nueva distancia resultante de la toma de decisiones mediada por la IA.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *