Pentágono quiere más dinero para el proyecto Darpa y combatir las falsificaciones profundas que representan una » amenaza » a la seguridad nacional

También esta semana, el Departamento de Defensa de EE. UU. Expresó su preocupación por el «riesgo real» de quedarse atrás de China en el campo de la inteligencia artificial avanzada, dada la maquinaria de asociaciones bien engrasada del país entre el sector tecnológico civil y el ejército.

El ejército de los Estados Unidos debería recibir más recursos para invertir en tecnología que pueda identificar y desarmar el posible «riesgo de seguridad nacional» causado por las falsificaciones profundas, dijo el director del Centro de Inteligencia Artificial del Pentágono, el teniente general Jack Shanahan.

En una conferencia dedicada a la Inteligencia Artificial en el Laboratorio de Física Aplicada John Hopkins en Laurel, Maryland, la semana pasada, Shanahan alegó que los adversarios de EE. UU. Ya habían utilizado otras ‘herramientas de información’ en elecciones anteriores para «causar fricción y caos», con los deepfakes convirtiéndose en otra herramienta en su arsenal

«Vimos fuertes indicios de cómo esto podría desarrollarse en las elecciones de 2016, y tenemos todas las expectativas de que, si no se controla, nos volverá a pasar», dijo, sus comentarios citados por la publicación de defensa de inteligencia C4ISRNET.

«Como departamento, al menos hablando para el Departamento de Defensa, estamos diciendo que también es un problema de seguridad nacional. Tenemos que invertir mucho en ello. Muchas empresas comerciales hacen esto todos los días. El nivel de sofisticación parece ser exponencial ”, agregó Shanahan.

El funcionario del Pentágono señaló el programa Forense de Medios de la Agencia de Proyectos de Investigación Avanzada de Defensa como una forma en que los militares ya están abordando el problema.

«Está surgiendo formas de etiquetar y llamar [desinformación]», dijo Shanahan. Una vez completado, se espera que el proyecto DARPA permita a los militares detectar la manipulación de imágenes y videos e incluso descubrir cómo se crearon.

DARPA no son los únicos que trabajan en tecnología para desafiar las falsificaciones profundas: una forma de falsificación asistida por computadora que utiliza un algoritmo de aprendizaje automático para crear contenido falso hiperrealista a través de la tecnología de intercambio facial. El mes pasado, Sputnik informó que los investigadores de la Universidad de California en Riverside y la firma tecnológica de I + D Mayachitra se habían unido para crear una nueva arquitectura de aprendizaje profundo para detectar la manipulación de cambio de contenido basada en pequeñas distorsiones invisibles para el ojo humano.

Se teme que, además de su capacidad para cambiar las percepciones de las personas antes de las elecciones, las falsificaciones profundas también pueden influir en el comportamiento del grupo objetivo con fines de guerra psicológica, con objetivos que van desde provocar un pánico financiero hasta comenzar guerras. Sin embargo, con respecto al trabajo del Pentágono en programas para contrarrestar las falsificaciones profundas, no está claro cuán exitosos serán los esfuerzos de DARPA y si el DoD en sí mismo puede no intentar usar la tecnología para sus propios fines.

Deepfakes llegó a la fama por primera vez en 2017, generando serias preocupaciones sobre la capacidad de utilizar las manipulaciones para crear noticias falsas, videos pornográficos falsos con políticos o celebridades y otro contenido malicioso.

Además de las preocupaciones sobre las falsificaciones profundas, el Centro Conjunto de Inteligencia Artificial del Pentágono expresó su preocupación la semana pasada sobre el poder de la estrategia de «fusión civil-militar» de China, que promueve asociaciones entre el sector tecnológico civil y el ejército. Shanahan dijo que Estados Unidos no tiene nada similar en su lugar, y se arriesga a quedarse atrás de China en inteligencia artificial a largo plazo.

Fuente