La infraestructura militar mundial está experimentando importantes alteraciones y un alto ritmo de desarrollo tecnológico. Cuando el presidente de Estados Unidos, Joe Biden, dijo:
“Vamos a ver más cambios tecnológicos en los próximos 10 años que los que vimos en los últimos 50”.
Se refería a lo descaradamente obvio. La inteligencia artificial ahora se está desarrollando rápidamente, y su uso en el ejército ha alterado significativamente la forma en que se lleva a cabo el combate. Lo que antes se consideraba ciencia ficción ahora es una realidad que se desmorona. Este campo de la tecnología lo está alterando todo, desde drones y armamentos autónomos hasta algoritmos de toma de decisiones y sistemas de vigilancia.
Kai-Fu Lee, ex presidente de Google China y director ejecutivo de Sinovation Ventures en su libro "AI 2041: Ten Visions for Our Future", dijo:
“El armamento autónomo es la tercera revolución en la guerra, después de la pólvora y las armas nucleares”.
En sus palabras,
“La evolución de las minas terrestres a los misiles guiados fue solo un preludio de la verdadera autonomía habilitada por la IA: el compromiso total de matar: buscar, decidir participar y destruir otra vida humana, completamente sin participación humana”.
Si bien los beneficios de la IA en la guerra son innegables, también existen inquietudes y preguntas éticas sobre el impacto de esta tecnología en el futuro de los conflictos militares, pero primero, una inmersión en el progreso que ha habido hasta ahora.
De acuerdo a un
En la actualidad, uno de los avances más significativos en la guerra de IA es el uso de vehículos aéreos no tripulados (UAV), a menudo denominados drones. Estos vehículos se han utilizado ampliamente en operaciones militares de reconocimiento, recopilación de inteligencia y ataques dirigidos.
Durante la escalada más reciente de la
El conflicto continuo entre Rusia y Ucrania también ha revelado usos nunca antes vistos de drones impulsados por IA en combate. Mientras
Hace unos años, el Future of Life Institute compartió en su sitio web una breve película distópica que ilustra lo que puede hacer un tipo de dron alimentado por IA (llamados bots de matanza). En ese momento, eran meras proyecciones. Pero hoy en día, estas letales armas autónomas mejoradas por IA, a veces denominadas "robots asesinos", ahora se usan en el campo de batalla.
El
En los últimos años, la tecnología de drones se ha vuelto más sofisticada, con algoritmos de IA que les permiten tomar decisiones basadas en análisis de datos en tiempo real. Según Jyoti Sinha, CTO de Omnipresent Robot Technologies.
“En la guerra táctica, los drones de enjambre impulsados por IA pueden llevar a cabo la destrucción y el desmantelamiento simultáneos de múltiples objetivos utilizando configuraciones precisas de enjambre y localización flotante, incluso cuando hay menos sofisticación disponible con equipo de defensa guiada... Mientras apuntan a las líneas del frente enemigas, incluso si algunos de los drones están atacados, los algoritmos cognitivos de IA se activan y reconfiguran el posicionamiento de la red de drones para mantener el conocimiento de la situación y ayudar a completar la misión”.
Algunos ejemplos de estas armas autónomas habilitadas para IA incluyen el Bayraktar TB2 de fabricación turca que tiene capacidades tanto de ataque armado como de inteligencia, vigilancia y reconocimiento (ISR) y el
Boeing también presentó en 2020, lo que llamó el primer avión leal Wingman diseñado para volar y luchar, por supuesto, de forma autónoma junto con aviones tripulados como aviones de combate. Su nombre, Loyal Wingman, proviene de la descripción que hace la compañía de él como un "aliado fiel".
Si bien estos desarrollos en la aplicación de la inteligencia artificial a la tecnología militar tienen sus beneficios, existe la preocupación de que puedan conducir a una pérdida de control sobre las operaciones militares y tener repercusiones imprevistas.
La vía rápida de progreso registrada en el campo de la tecnología militar plantea cuestiones éticas sobre su aplicación tanto en la guerra como fuera de ella. Por ejemplo,
La posibilidad de que los sistemas de IA funcionen mal o se vean comprometidos, con resultados no deseados o incluso desastrosos, también es una de las mayores preocupaciones, además de los problemas con la responsabilidad de estos sistemas, particularmente cuando las armas autónomas tienen que elegir a quién atacar y cuándo hacerlo. .
En un documento reciente titulado "Declaración política sobre el uso militar responsable de la inteligencia artificial y la autonomía", el Departamento de Estado de EE. UU. pidió a las naciones que desarrollan IA que empleen tecnología en operaciones militares de una manera moral y responsablemente aceptable.
El gobierno de EE. UU. afirma estar de acuerdo en que el uso de inteligencia artificial (IA) en el ejército puede y debe ser ético, responsable y mejorar la seguridad global, por lo que presenta su propio marco e invita a otras naciones a unirse en acuerdo.
Sin embargo, se han planteado preocupaciones sobre hasta dónde puede llegar la declaración para mantener la tecnología militar dentro de los límites de la moralidad porque no está claro exactamente qué tipos de sistemas autónomos o impulsados por IA se incluyen en la declaración.
Otra preocupación es el papel de los humanos en la toma de decisiones en el campo de batalla y el potencial de la IA para deshumanizar la guerra y hacerla más destructiva. La idea de que las máquinas tengan la libertad y la capacidad de quitar vidas humanas es moralmente abominable, según el secretario general de las Naciones Unidas, António Guterres. en un
“Los impactos de las nuevas tecnologías en la guerra son una amenaza directa a nuestra responsabilidad común de garantizar la paz y la seguridad”.
Después de la invasión rusa de Ucrania en febrero de 2022, cuatro años después, vemos que tanto los temores se hacen realidad como el cumplimiento de tales profecías comienza a colarse. Según un
Rusia, por ejemplo, ha estado utilizando "municiones merodeadoras" como las que hizo Russain.
Guterres cree que un menor control de tales municiones plantea un gran desafío, ya que pone en peligro los intentos de mitigar las amenazas, prevenir la escalada y defender el derecho internacional humanitario y de derechos humanos. en un
“Las armas autónomas letales amenazan con convertirse en la tercera revolución en la guerra. Una vez desarrollados, permitirán que los conflictos armados se luchen a una escala mayor que nunca y en escalas de tiempo más rápidas de lo que los humanos pueden comprender. Estas pueden ser armas de terror, armas que los déspotas y terroristas usan contra poblaciones inocentes y armas pirateadas para comportarse de manera indeseable. No tenemos mucho tiempo para actuar. Una vez que se abra esta caja de Pandora, será difícil cerrarla”.
Además de las preocupaciones antes mencionadas, no está claro qué efecto tendrá la tecnología de IA en la política global y la estabilidad geopolítica en el futuro cercano. Sin embargo, el desarrollo de la tecnología militar, según
Durante la Cumbre de Tecnologías Emergentes Globales de la Comisión de Seguridad Nacional sobre Inteligencia Artificial, el Secretario de Defensa de EE. UU., Lloyd J. Austin
“La IA es fundamental para nuestra agenda de innovación, ya que nos ayuda a calcular más rápido, compartir mejor y aprovechar otras plataformas. Y eso es fundamental para las peleas del futuro”.
El Departamento de Defensa de EE. UU., afirmó, invertirá aproximadamente $ 1.5 mil millones de dólares durante los próximos cinco años en un esfuerzo por acelerar la adopción de la IA.
Rusia, por otro lado, ha declarado la IA una prioridad nacional y ha lanzado varias iniciativas para desarrollar e implementar aplicaciones de IA. El presidente de Rusia, Vladimir Putin, a través de un video en vivo, dijo:
“La inteligencia artificial es el futuro, no solo para Rusia sino para toda la humanidad, quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo”.
Aunque gasta menos en defensa que EE. UU. y China, Rusia se ha fijado el objetivo de tener
Hay diferentes opiniones y predicciones sobre quién ganará la carrera armamentista de la IA, pero en última instancia, tanto eso como el futuro de la IA en lo que respecta a la guerra, en general, no es claramente predecible. Sin embargo, la distinción entre ciencia ficción y realidad práctica puede haber comenzado a desvanecerse.