Si bien la empresa Palantir ha presentado un proyecto de inteligencia artificial capaz de hacer la guerra, todo apunta a que vamos a vivir una auténtica revolución en este ámbito en los próximos años.
El mes pasado, Palantir, la empresa del empresario Peter Thiel, hizo la demostración de que una inteligencia artificial (IA) muy pronto podría ir a la guerra. Una IA que sería capaz de procesar en tiempo real datos clasificados como defensa secreta o no, pero sobre todo respetar la “ética” y la “legalidad”. Es una demostración de fuerza que ha hecho Thiel, con su oferta de "plataforma de inteligencia artificial palantir", denominada AIP.
La demostración, en video, muestra cómo un operador militar, responsable de monitorear el teatro de operaciones de Europa del Este, descubre las fuerzas enemigas concentradas cerca de una frontera. Luego, el humano le pide a la IA que lo ayude a desplegar drones de reconocimiento, pero sobre todo respuestas tácticas a lo que se percibe como una agresión del enemigo. La IA es incluso responsable de organizar la interferencia de las comunicaciones enemigas, estimar las capacidades del enemigo y sugerir respuestas apropiadas al descubrir un elemento blindado.
El ser humano incapaz de procesar la masa de información.
Sin embargo, todavía quedan algunos problemas por resolver, en particular los señuelos. En 2019, en la revista Défense nationale, dos especialistas en el sector, Ève Gani y Mohammed Sijelmassi, se preguntaban si la inteligencia artificial sería ahora capaz de "disipar la niebla de la guerra", expresión acuñada por el general prusiano Carl von Clausewitz, quien estaba interesado en la vaguedad que rodeaba la información para los participantes en las operaciones militares.
Hace ya cuatro años, el artículo afirmaba que "el hombre ya no es capaz de procesar la masa de información generada por sensores cada vez más numerosos y eficientes" y que "el personal, abrumado por un volumen sin precedentes de información digitalizada, ya no puede desempeñan su papel como unificadores de la información". Baste decir que la inteligencia artificial ya se esperaba como el mesías, estando predestinada a “ayudar a analizar, explotar, controlar y proteger esta extraordinaria cantidad de datos”.
Ève Gani y Mohammed Sijelmassi, señalando la preocupación de los humanos, que temían convertirse en "sujetos de la IA que luchará en nuestro lugar", luego afirmaron que la palabra clave sería la colaboración entre el hombre y la IA. “Más que imaginar una IA todopoderosa que actuaría en lugar de los humanos, debemos presentar a la IA como un aliado que puede contribuir al aumento de las capacidades humanas, acelerar y facilitar la toma de decisiones”.
Un ser humano "en el circuito", pero ¿por cuánto tiempo?
Para Palantir, además, se tratará de dejar “un humano al tanto” para evitar desbordamientos. Pero por cuánto tiempo ? La IA está “entrenada” por lo que se llama “aprendizaje automático”. Un método de aprendizaje que permite a la IA integrar conocimientos, pero también elecciones y valores éticos. Resuelto este aspecto filosófico, está claro que la IA necesariamente tomará la guerra moderna por sí sola.
Porque la guerra se ha vuelto más compleja a lo largo de las décadas, y la IA hace posible “explotar datos más sustanciales (conjuntos, combinados, diplomáticos, industriales)”, escriben los dos expertos. Se trata pues, con la tecnología moderna, “de satisfacer las necesidades tácticas de inmediatez y precisión”. AI también tendrá un papel en la presentación de informes y el seguimiento de las capacidades operativas.
El advenimiento de la IA es también, una vez integradas las reglas éticas y legales, la llegada de una guerra que se alejaría de las consideraciones humanas. “Con un operador humano, siempre existe la posibilidad, en teoría, de que un humano pueda ejercer la compasión, la empatía y el juicio humano, mientras que un sistema entrenado a partir de datos y preprogramado para hacer algo no tiene esta posibilidad”, resume Anna Nadibaidze. , del Centro de Estudios de Guerra, en Dinamarca.
"El país que lidere en el campo de la IA dominará el mundo"
Pero el experto advierte: si actualmente países o empresas privadas están desarrollando IA para que pueda ir a la guerra, estos avances tecnológicos deben ir acompañados de regulaciones. Naciones Unidas ha iniciado su reflexión sobre el tema, pero no se ha avanzado. “Cuando existe la necesidad de regular las armas con un alto nivel de tecnología, indica Paola Gaeta, profesora de derecho internacional del IHEID, en Suiza, los Estados que poseen esta tecnología no tienen interés en hacerlo. Por otro lado, los Estados encuentran más fácilmente interés en regular las armas de los más pobres, como las minas antipersonal”.
Detrás de este mensaje, hay razones para preocuparse por el agravamiento de la brecha Norte-Sur. Vladimir Putin, el presidente ruso, advirtió hace seis años que “el país que será líder en el campo de la inteligencia artificial dominará el mundo”. Es posible que aún no haya imaginado que una inteligencia artificial pronto podría hacer la guerra en lugar de los humanos. Sabemos que las guerras se vuelven cada vez más complejas a medida que pasa el tiempo. Pero esta vez, la tecnología bien podría tener en cuenta esta evolución. “Es posible desarrollar armas aún más inteligentes, es decir, armas que puedan aprender por sí mismas en un entorno a tomar decisiones que no están controladas ni preprogramadas por humanos”, asegura Paola Gaeta. . Una auténtica revolución en el campo de la guerra.