Se cree, aunque no está probado, que Albert Einstein dijo una vez que «solo había dos cosas infinitas, el universo y la estupidez humana, y que en el caso del universo, no estaba completamente seguro».
Una buena prueba de ello es comprobar cómo basta con que el uso de una tecnología se popularice, para que empiecen a aparecer irresponsables haciendo barbaridades peligrosas con ella: un ingeniero dedicado a la robótica, la automatización y la impresión 3D con el seudónimo STS 3D, muestra en un vídeo cómo ha montado un rifle sobre un soporte que permite su movimiento en tres dimensiones, y lo ha conectado a la API en tiempo real de ChatGPT para que se le puedan dar órdenes sobre hacia dónde o cómo disparar. El montaje es capaz de seguir un blanco móvil y de ejecutar órdenes como «ChatGPT, we are under attack from the front left and front right, respond accordingly» («ChatGPT, estamos siendo atacados por el frente izquierdo y derecho, responde en consecuencia»). Seguidamente, en el vídeo, se ve el arma moviéndose y disparando cartuchos de fogueo contra las paredes de la habitación en las direcciones indicadas.
Una innovación esencialmente trivial e igual de absurda que otras combinaciones similares, pero que ha servido para que el vídeo se hiciese viral y, sobre todo, para que OpenAI cerrase rápidamente la cuenta del ingeniero por suponer una evidente violación de sus términos de servicio, que específicamente prohíben «el uso de sus servicios para desarrollar o usar armas o para automatizar ciertos sistemas que puedan afectar la seguridad personal». La integración con ChatGPT no es particularmente eficiente, fundamentalmente porque tarda algunos segundos en ser procesada y respondida. Y además, dadas las posibilidades de interpretación o confusión con los comandos de voz en los LLMs, está más que claro que nadie en su sano juicio se plantearía utilizar algo así para ninguna tarea mínimamente seria.
En la práctica, el invento no es ningún Terminator, sino simplemente un sofisticado y exagerado control remoto activado por voz para un impresionante soporte 360º con un arma montada en él. El vídeo, en realidad, es una simple provocación: la ingeniería detrás del diseño del soporte, que gestiona de forma muy brillante el retroceso del arma, puede que sea interesante (no lo sé, porque de armas sé entre poco y nada), pero la integración con ChatGPT, decididamente, no lo es. Como dice uno de los comentarios en Reddit tras ver el final del vídeo, «acaba de empezar 2025 y ya he visto a un tipo montado en una escopeta con inteligencia artificial». Está claro que era simplemente cuestión de tiempo. Y de estupidez.
La pregunta, evidentemente, es qué tipo de usos puede tener la inteligencia artificial en tareas militares y de defensa, y es claro que pueden ser numerosas: podemos utilizar sistemas de detección que combinen distintos tipos de cámaras para identificar posibles amenazas, patrones de movimiento, etc. y responder de forma automática ante su presencia, con posibilidad además de ajuste fino en función de condiciones como la distancia o el viento, la posibilidad de que los patrones detectados correspondan a tropas amigas o enemigas, o de automatizar las reglas de disparo en función del escenario.
Existen muchísimos usos potenciales para la inteligencia artificial en el entorno militar y sería completamente absurdo e ilusorio pretender que no van a ser desarrolladas, pero todas ellas chocan con las mismas cuestiones: en primer lugar, que permitir que un sistema tome decisiones sobre la vida o la muerte sin intervención humana genera profundas implicaciones éticas. Pero además, podemos encontrarnos con que los modelos, si se entrenan con datos sesgados, pueden tomar decisiones erróneas, como identificar incorrectamente un objetivo, o incluso, en escenarios de guerra híbrida, ser vulnerados o manipulados por el adversario. O, en el medio plazo, que una integración excesiva de modelos de inteligencia artificial pueda reducir la capacidad humana de supervisar y tomar decisiones independientes, algo potencialmente muy peligroso en ese ámbito.
¿Vamos a ver sistemas de inteligencia artificial desplegados para usos militares? Sin duda, me temo. Pero al menos esperemos que ese tipo de cosas se hagan bajo el control y las medidas de protección adecuadas, no en forma de chalados que montan rifles en soportes y los automatizan conectándolos a ChatGPT.
Porqué las innovaciones van demasiado rápido, que si no, me pregunto: ¿por qué no se me habría ocurrido a mí…???
…pues… que quieres que te diga… el 12 de marzo de 1938 un pintor europeo con bigote decidió que era lo justo, lo correcto, y una buena idea, anexionarse una parte de un país soberano y autónomo.
Resumiendo, ese ánimo expansionista derivó en «profundas implicaciones éticas» (…ejem…) y que como sociedad después de un juicio establecimos que ya estuvo bien, y se puso fin a 2000 años de matanzas entre países vecinos…
…hasta 2025, en el que un cliente que gusta de hacer uso de los servicios de damas de afecto negociable, dice a quien quiera oír, que es lo justo, lo correcto, y una buena idea, anexionarse una parte de un país soberano y autónomo…
Algo que debería ser un escándalo de proporciones épicas, 87 años después tiene el tratamiento de notas casi de color, así que lo de «profundo» «implicado» y «ético» como que se perdió en algún lado… tanto para el uso de IA para matar, como para declarar a bocajarro ánimos de quedarse con propiedad ajena.
Cierto que la belicosidad en Europa se redujo mucho tras la segunda guerra mundial l, pero seguimos teniendo la guerra civil Griega, el conflicto de Chipre entre Turquía y Grecia, la guerra de Croacia, la de Bosnia, la de Kosovo y la de Ucrania.
No hace falta pintar esos 87 años como un remanso de paz para censurar a ese personaje
La verdad, Javier, es que las declaraciones de Trump sobre Panamá, Groenlandia y Canadá resultan definitivamente preocupantes. Hay quienes piensan, sin embargo, que lo único que está haciendo Trump es seguir la teoría del loco con el fin de lograr con más facilidad determinados acuerdos, aunque desde hace años se presume, por el contrario, que el mencionado personaje no sería más que un egoísta al que no le importarían las consecuencias de sus acciones.
En todo caso, el imperialismo parece estar de vuelta, sea de manera real como en Ucrania o al menos como espada de Damocles en la futura relación de EEUU con el resto de países, aunque sean aliados. Supongo, sin embargo, que el limitado debate que ha habido sobre este tema será, en unos casos, por preocupación o miedo y, en otros, por complicidad o admiración. En este mismo blog hay quien me ha respodido con un fragmento de la película La vida de Brian para ensalzar, de manera comparativa, las supuestas virtudes del antiguo imperialismo hispano. Así que no faltarán quienes digan que los groenlandeses, panameños y canadienses estarían mejor si fueran anexados por EEUU y que incluso deberían agradecerles por querer incorporarlos al progreso y la civilización.
«O, en el medio plazo, que una integración excesiva de modelos de inteligencia artificial pueda reducir la capacidad humana de supervisar y tomar decisiones independientes, algo potencialmente muy peligroso en ese ámbito.» (EDans).
Lo que ya ocurre con los algoritmos «de medio pelo»… unido, eso sí, a la falta de filtros mentales humanos propios, por la mediocridad habitual que nos rodea.
Cuando disfrutaba de pelis como Cortocircuito con mi hijo, siempre acabábamos con el mismo colofón reflexivo… siendo tan mediocre la IH media, sobre todo en ámbitos de alto mando ejecutivo, es imposible que no nos coja ventaja un robot bien programado. Y estábamos viendo a un tipo de robot como Número 5… una especie de cromagnon de la robótica. Pero que ya nos daba mil vueltas en inteligencia operativa.
Y sí, otra buena reflexión contigua, era lo mucho que se puede aprender con pelis bien hechas y que sepamos ver/leer con atención. Eran los 80 !!!
Alguien duda de la utilización de IA en armamento, antes o después?
No hace falta IA…. XDDD
dispositivo con reconocimiento facial para rociar con líquidos variados a los sujetos que vandalizan su barrio.
Ahora en serio…
Ya he hablado en ocasiones en estas lineas de Palantir AIP (del amigo Peter Tihel).
Nada nuevo bajo el sol. La IA se va a utilizar si o si en el ecosistema militar.
Etica y Militar en una misma frase es un oximoron.
(y Terminator esta a la vuelta de la esquina, antes que el hard/soft cuantico) XDDD
Yo no lo veo como una estupidez.
Es la prueba de que , si un ingeniero dedica un poco de su tiempo de ocio a demostrar el uso que se puede hacer con la IA aplicada a este tema ¿qué no hará el ejercito USA o Putin?
¿O alguna vez algún ejercito ha desaprovechado la oportunidad que le brindaban la última tecnología disponible.?
Esto vale como recordatorio para los que son demasiado optimistas con la alineación de la IA