La perspectiva de una guerra liderada por la Inteligencia Artificial se acerca cada vez más si los eventos en Libia el año pasado son algo por lo que pasar. A pesar de los pedidos de prohibición, los robots asesinos presentan una visión apocalíptica y aterradora del conflicto sin ley en el futuro.
Cuando estudiaba derecho internacional de los derechos humanos en la universidad hace casi una década, recuerdo que nuestro conferencista afirmó que los expertos anticipan que los entusiastas militares habrán desarrollado completamente la tecnología de robots asesinos en los próximos 20 años. Esas predicciones parecen ser bastante precisas hasta ahora, ya que los desarrollos recientes sugieren que estamos más o menos a la mitad de este camino, si no más.
Según un informe de las Naciones Unidas de 548 páginas visto por New Scientist, un dron armado «letal» puede, de hecho, haber «cazado un objetivo humano» sin que se lo pidieran, es decir, de forma completamente autónoma. Al parecer, un quadcopter Kargu-2 se encargó de buscar un objetivo humano durante una escaramuza entre las fuerzas del gobierno libio y los leales a su rival Khalifa Haftar en Libia en marzo del año pasado.
El Kargu, conocido como «dron merodeador», utiliza la identificación de objetos basada en el aprendizaje automático para determinar e involucrar a los objetivos. También tiene capacidades de enjambre, que permiten que hasta 20 drones trabajen juntos.
Los informes recientes también señalan que el Kargu, dirigido a detonar en el impacto, estaba operando en un entorno que no requería un controlador humano y, posteriormente, apuntó a uno de los soldados de Haftar mientras intentaba retirarse. Si bien es técnicamente legal según las reglas del conflicto armado atacar a un soldado en retirada, me vienen a la mente al menos dos preguntas inmediatas.
En primer lugar, ¿puede un dron asesino diferenciar entre un soldado que se rinde y un combatiente que simplemente se retira? Y, en segundo lugar, ¿por qué demonios confiaríamos en un dron para hacer estas diferenciaciones de forma autónoma en primer lugar? ¿Podrías incluso rendirte al dron si quisieras?
La gente parece olvidar que la guerra tiene reglas. No puede ser simplemente una cuestión de encogernos de hombros y decir, ‘bueno, íbamos a matar a estos pobres bastardos de todos modos, así que ¿por qué no mantener a nuestras propias tropas y pilotos a salvo en el proceso?’ de los conflictos armados en serio, debemos preguntarnos si realmente creemos que las armas totalmente autónomas son incluso capaces de cumplir con las leyes y normas humanitarias internacionales. Demonios, incluso Israel (apodado por algunos como el «ejército más moral del mundo») está acusado de violar estas reglas internacionales de forma rutinaria. Si el «ejército más moral» del mundo está en el negocio de destruir centros para discapacitados, campos de refugiados y sedes de medios internacionales, me estremezco al pensar de lo que podría ser capaz un robot autónomo.
Si no me cree, solo eche un vistazo a este extracto reciente del Boletín de los Científicos Atómicos que describe brillantemente las fallas en depositar nuestra confianza en esta tecnología: “OpenAI, una empresa de inteligencia artificial líder en el mundo, desarrolló un sistema que puede clasificar una manzana como Granny Smith con un 85,6 por ciento de confianza. Sin embargo, pegue una hoja de papel que diga «iPod» en la manzana y el sistema de visión artificial concluirá con un 99,7 por ciento de confianza en que la manzana es un iPod. En un caso, los investigadores de inteligencia artificial cambiaron un solo píxel en una imagen, lo que provocó que un sistema de visión artificial clasificara a un bombardero furtivo como un perro. En la guerra, un oponente podría simplemente pintar «autobús escolar» en un tanque o, más maliciosamente, «tanque» en un autobús escolar y potencialmente engañar a un arma autónoma «.
Hasta donde sabemos, se sospecha que el incidente en Libia es la primera vez que un dron ataca a un humano sin recibir instrucciones para hacerlo. Como era de esperar, grupos de derechos como Human Rights Watch han pedido el fin de la tecnología de los «robots asesinos», haciendo campaña para prohibir el desarrollo, la producción y el uso de estas armas. La ONU también ha debatido en el pasado la prohibición de esta tecnología. En ese momento, el secretario general de la ONU, Antonio Guterres, se refirió a las máquinas como «moralmente repugnantes».
Incluso, según los informes, Elon Musk ha pedido la prohibición del futuro de esta tecnología. Así es, Elon Musk, maníaco que manipula bitcoins, desprecia a los sindicatos y lanza llamas, en realidad tiene una opinión sólida sobre lo que es un tema muy serio y aterrador. (Pero, dado su pasado, no se sorprenda si esta oposición decae una vez que obtiene los derechos exclusivos para desarrollar la tecnología o algo así).
Desafortunadamente, es poco probable que EE. UU. O cualquier otra parte que desarrolle esta tecnología preste atención a las llamadas y señales de advertencia en el corto plazo. En la última década, el ejército de los Estados Unidos ha probado en numerosas ocasiones un implante cerebral que permite a un operador humano controlar hasta tres drones simultáneamente utilizando solo sus mentes. Según el Marine Corps Times, el ejército de EE. UU. Ha estado buscando promover un «enjambre de drones suicidas», que le daría a un solo operador el control de 15 drones suicidas con una «carga mínima para el operador». El ejército del Reino Unido también ha invertido significativamente en esta área.
Según The Guardian, en la próxima década se espera que se compren más de 80.000 drones de vigilancia y casi 2.000 drones de ataque en todo el mundo. Resulta que los drones de ataque no son baratos, por lo que los estadounidenses tendrán que seguir en las listas de espera para recibir atención médica y viviendas asequibles, ya que Estados Unidos parece ser el principal comprador de tecnología de drones militares, y esto no se espera. para cambiar pronto.
Como he preguntado en el pasado, ¿qué debemos hacer exactamente cuando estos sistemas son pirateados o manipulados de alguna manera por ciberdelincuentes, rivales extranjeros, entidades terroristas y similares? Los grupos terroristas como el Estado Islámico han estado armando drones durante bastante tiempo. Hace cinco años, Paul Scharre, investigador principal y director del 20YY Future of Warfare Initiative Center for a New American Security, publicó un informe advirtiendo sobre un “riesgo novedoso muy severo de fratricidio masivo, con un gran número de armas dirigidas contra fuerzas amigas. » Sin embargo, nadie está escuchando.
Al final del día, a Estados Unidos apenas le preocupa el destino de grupos terroristas como el Estado Islámico. La verdadera razón por la que la tecnología de drones avanza en la aterradora dirección es para enfrentar a un enemigo y solo a un enemigo: China.
O tal vez es solo una coincidencia que hace solo dos meses los EE. UU. Realizaron un ejercicio Agile Reaper junto con la Unidad Marina, brindando apoyo aéreo cercano cuando los marines de EE. UU. isla tras otra). Una estrategia que, según advirtió Forbes, «solo parecería relevante para un conflicto con China».