Mientras Estados Unidos busca desarrollar armas de inteligencia artificial para mantenerse al día con Rusia y China, el Pentágono ha adoptado un conjunto de pautas que dice que mantendrá a sus androides asesinos bajo control humano.
El Departamento de Defensa adoptó un conjunto de «Principios éticos para la inteligencia artificial» el lunes, siguiendo las recomendaciones de la Junta de Innovación de Defensa en octubre pasado.
«La tecnología de IA cambiará mucho sobre el campo de batalla del futuro, pero nada cambiará el firme compromiso de Estados Unidos con un comportamiento responsable y legal», dijo el secretario de Defensa Mark Esper en un comunicado.
Según el Pentágono, sus futuros proyectos de IA serán «responsables, equitativos, rastreables, confiables» y «gobernables», como recomendó la Junta de Innovación en Defensa. Algunos de estos cinco principios son sencillos (una vez que descifre el habla del Pentágono de todos modos); «Gobernable», por ejemplo, significa que los humanos deben ser capaces de apagar el interruptor de «sistemas que demuestran un comportamiento no deseado». Pero otros son más ambiguos.
Lo que hará exactamente el departamento para «minimizar el sesgo involuntario en las capacidades de IA», como dice que hará para mantener estos sistemas «equitativos», es vago y puede causar problemas en el futuro si no se define. Confiar en una máquina para escanear imágenes aéreas en busca de objetivos es un campo de minas legal y ético, y Google ya se retiró de un proyecto del Pentágono en 2018 que habría utilizado el aprendizaje automático para mejorar la orientación de los ataques con aviones no tripulados.
Del mismo modo, la promesa del Pentágono de que su personal «ejercerá niveles apropiados de juicio y cuidado» al desarrollar y colocar estas nuevas armas es una promesa elevada, pero en última instancia sin sentido.
La adopción de un conjunto suelto de principios éticos en lugar de una prohibición total dejará insatisfechos a algunos activistas. Muchos de los principales pioneros de la IA, como Demis Hassabis en Google DeepMind y Elon Musk en SpaceX, se encuentran entre más de 2.400 signatarios de una promesa que se opone directamente al desarrollo de armas autónomas. Numerosas otras cartas abiertas y peticiones contra la IA militar se han presentado en todo el mundo en los últimos años.
La resistencia de la industria tecnológica presenta al Pentágono un dilema práctico y ético. A pesar de inyectar cada vez más sumas de dinero en el desarrollo de sistemas de inteligencia artificial, Estados Unidos cree que Rusia y China están a la vanguardia y ampliarán su liderazgo en este dominio si el Departamento de Defensa no puede reclutar el talento necesario para competir.
Para contrarrestar la fuga de cerebros, el presupuesto propuesto por la administración Trump de $ 4.8 billones para 2021 aumentaría los fondos de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) para investigación relacionada con IA de $ 50 millones a $ 249 millones, y aumentaría los fondos de la Fundación Nacional de Ciencias de $ 500 millones a $ 850 millones, con $ 50 millones reservados específicamente para IA.
Independientemente de los dispositivos que se le ocurra a DARPA, si se sigue este conjunto de pautas, al menos tendrán un interruptor de «apagado»