Conocida es la cercanía de estas figuras, en particular de Elon Musk, con las ideas de progreso y de innovación tecnológica. Nadie se podría adelantar en acusarlos de neoludditas tecnófobos. Por ello, es importante aclarar que su inquietud en ningún caso promueve una postura ideológica y sesgada que sea contraria al desarrollo de la IA. El acento se pone específicamente en la terrorífica posibilidad de que un conflicto bélico sea protagonizado por dispositivos inteligentes, pero que no cuentan con grados de discernimiento basados en normativas morales.
Carrera armamentista
La Inteligencia Artificial (IA) es tendencia estos días. Y no solo por sus enorme y sorprendentes avances en el campo de la tecnología, sino que también por las polémicas que vuelven a generar sus potenciales aplicaciones. Veamos.
Cuando se habla de la IA, en términos generales, se suele publicitar, como es lógico, sus posibilidades y beneficios más amables para la mayoría de las personas. Así, se suelen mencionar los vehículos autónomos, robots industriales que aliviarán nuestra carga de trabajo o la posibilidad de diagnósticos clínicos más certeros gracias a los algoritmos.
Sin embargo, por razones evidentes, son mucho menos difundidas las facetas que involucran la vigilancia y el control social, la intromisión en la vida privada de los ciudadanos o, más recientemente, sus aplicaciones e implicancias en el campo militar. Por ello, las recientes declaraciones de Heiko Maas, ministro de Asuntos Exteriores de Alemania, generan tanto ruido como preocupación.
En entrevista para un nuevo documental de Deutsche Welle (DW) titulado “Guerras futuras: cómo prevenirlas”, Maas se refirió a una carrera armamentística basada en el desarrollo de la IA, señalando: “Estamos justo en medio de ella. Esa es la realidad con la que tenemos que lidiar”. Y su afirmación no es exagerada. Un vistazo a los anuncios de las principales potencias en esta materia durante los años recientes otorga un rápido respaldo a sus dichos.
En julio de 2017, por ejemplo, China lanzó su “Plan de desarrollo de inteligencia artificial de nueva generación” con el que declaró abiertamente su intención de convertirse en un país líder en este ámbito. El mismo año, Rusia dejaba entrever su posición frente a la IA en las palabras de Vladimir Putin que, con su estilo grandilocuente, advertía “quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo”.
La respuesta desde occidente llegaría en 2019, cuando el ex presidente de Estados Unidos Donald Trump hizo público el lanzamiento de la denominada American AI Initiative (Iniciativa estadounidense de Inteligencia Artificial). Un ambicioso plan que pretende potenciar esta industria en el país norteamericano que, por lo demás, ya competía abiertamente con China en la denominada guerra comercial.
Y en forma tan concreta como reciente, más allá de los planes de investigación y desarrollo de cada una de estas potencias militares, tal vez, ya hemos sido testigos del primer enfrentamiento bélico real con este tipo de tecnología, solo que pasó algo inadvertido para la opinión pública global que tenía toda su atención en la pandemia del Covid-19. Nos referimos al conflicto de Nagorno-Karabaj protagonizado por Azerbaiyán y Armenia a fines de 2020.
En este conflicto, ambos Estados habrían utilizado aeronaves denominadas genéricamente como “drones kamikaze”. La alusión a los pilotos suicidas de la Segunda Guerra Mundial surge del hecho de que estas naves, o más bien dicho bombas de “merodeo”, tienen la capacidad de buscar a sus objetivos desde el aire y, una vez localizados, se lanzan contra los mismos detonando su carga explosiva. Toda esta operación ocurre con relativa autonomía de parte de la nave-munición a la que solo se le debe predeterminar la zona geográfica en la que efectuará su ataque.
Debates éticos
Las guerras son un hecho histórico recurrente -hay quien diría que son el motor de la historia- y por lo pronto no se vislumbra un desarme global cercano. En ese sentido, es esperable que la IA se incorpore prontamente en diversos ámbitos del campo militar. Como informa el sitio web Techcetera, la IA cuenta con potencial para desarrollar “las plataformas de guerra para estrategia militar, ciberseguridad, logística y transporte de armamento y efectivos de combate, reconocimiento de objetivos, asistencia médica en campos de batalla, entrenamientos y simulaciones de combate, monitoreo de amenazas y procesamiento de datos”. Es decir, el espectro de aplicaciones es sumamente amplio.
Hasta ahí, todo parece prever una lógica extensión o mejora de las capacidades ya instaladas como ha ocurrido con cada innovación tecnológica a lo largo de la historia. Incluso, como podemos apreciar, la incorporación de la IA al ámbito bélico podría suponer, si es que los tomadores de decisiones así lo quisieran, una disminución en las bajas en medio de los enfrentamientos. Sin embargo, nada nos garantiza que las decisiones de los líderes de las potencias armamentistas vayan en esa dirección. Por el contrario, la búsqueda de “supremacía” sugiere una dirección inquietante que es la que hace algunos años vislumbraron figuras de la talla de Stephen Hawking, Elon Musk y Noam Chomsky.
Nos referimos a la adhesión que estas personalidades dieron a la carta titulada “Armas autónomas: carta abierta de investigador en IA y robótica” y que fue expuesta en la Conferencia Internacional Conjunta sobre Inteligencia Artificial celebrada el año 2015 en Buenos Aires, Argentina. En dicho documento, se advertía que:
“Las armas autónomas seleccionan y atacan objetivos sin intervención humana. Pueden incluir, por ejemplo, cuadricópteros armados que pueden buscar y eliminar personas que cumplan con ciertos criterios predefinidos, pero no incluyen misiles de crucero o drones piloteados de forma remota para los que los humanos toman todas las decisiones de orientación”.
Conocida es la cercanía de estas figuras, en particular de Elon Musk, con las ideas de progreso y la innovación tecnológica. Nadie se podría adelantar en acusarlos de neoludditas tecnófobos. Por ello, es importante aclarar que su inquietud en ningún caso promueve una postura ideológica y sesgada que sea contraria al desarrollo de la IA. El acento se pone específicamente en la terrorífica posibilidad de que un conflicto bélico sea protagonizado por dispositivos inteligentes, pero que no cuentan con grados de discernimiento basados en normativas morales. Es decir, es una discusión ética de suma importancia sobre la autodeterminación de la tecnología y sus impredecibles consecuencias sobre las vidas humanas.
La falta de discernimiento de la IA ya ha generado debates respecto a situaciones cotidianas; es el caso de lo que ha ocurrido con los automóviles autónomos y su eventual riesgo de accidentabilidad. En ese sentido, es casi natural que su uso suscite aún mayor preocupación en contextos extremos como el de los conflictos armados. Pero a esta preocupación se suma otra de orden derechamente geopolítico: la facilidad con la que se pueden desarrollar y producir dispositivos de este tipo.
Al contrario que las armas nucleares, el armamento basado en IA puede ser fácilmente adquirido o fabricado con relativo bajo presupuesto. Esto, se entiende, podría poner este tipo de armamento en manos de criminales, organizaciones terroristas o Estados con oscuros intereses. Por todo lo anterior, las carreras armamentísticas basadas en la IA provocan a la imaginación instalándonos, no sin argumentos, en distopías sacadas de películas de ciencia ficción como Blade Runner o Terminator.
Fuentes utilizadas en este artículo:
https://revistaidees.cat/es/politiques-cientifiques-dia-a-la-xina/
https://www.tynmagazine.com/trump-lanzo-la-carrera-armamentista-con-inteligencia-artificial/
https://techcetera.co/como-inteligencia-artificial-cambia-metodos-de-guerra/
https://cincodias.elpais.com/cincodias/2014/07/16/motor/1405522008_722432.html
https://futureoflife.org/open-letter-autonomous-weapons
Acerca del Autor de este Artículo
ANDRÉS FONSECA LÓPEZ
Licenciado en Filosofía, Máster en Psicología, Posgrado en Trabajo Social, Diplomado en Políticas Sociales, Pobreza y Territorio, Diplomado en Derechos Humanos de los Grupos en Situación de Vulnerabilidad.
Oferta Formativa
Máster en Ciberseguridad, Ciberterrorismo y Ciberguerra
Los contenidos del máster de ciberterrorismo están focalizados en el estudio teórico-práctico del impacto de la dimensión cibernética sobre las relaciones internas e internacionales de todo Estado. Este máster de ciberguerra busca profundizar en los desafíos, los riesgos y las oportunidades de la era digital que afrontan los gobiernos, las empresas, las organizaciones no gubernamentales e internacionales y los individuos particulares.
Más información en nuestra página: https://www.iniseg.es/ciberseguridad/masteres-oficiales/master-ciberterrorismo.html