Comisión de Seguridad Nacional de Estados Unidos ugiere continuar la exploración de armas impulsadas por la Inteligencia Artificial


Las máquinas de matar autónomas que podrían destruir objetivos por sí mismas y posiblemente reemplazar a los humanos en algunas misiones, se están convirtiendo en una realidad cada vez mayor en los países desarrollados. La tendencia ha provocado controversia sobre su moralidad, lo que ha dado lugar a una demanda mundial para prohibir el uso de la tecnología.

Un panel estadounidense llamado Comisión de Seguridad Nacional sobre Inteligencia Artificial concluyó los debates públicos el martes sobre si la inteligencia artificial debería implementarse al servicio de la seguridad nacional. Como se lee en el borrador del informe del panel, Estados Unidos no debería estar de acuerdo con la prohibición del uso o desarrollo de armas autónomas impulsadas por software de inteligencia artificial.

Según el vicepresidente del panel, un ex subsecretario de defensa de Estados Unidos, Robert Work, se supone que tales sistemas cometen menos errores que los humanos durante las acciones de guerra, lo que reduce el número de víctimas.

“Es un imperativo moral al menos perseguir esta hipótesis”, sugirió.
Mientras tanto, los expertos han admitido que las armas autónomas tienen ciertos inconvenientes, incluidos los sesgos en la inteligencia artificial y el abuso de software. Sin embargo, la presencia humana solo es necesaria en la decisión de lanzar ojivas nucleares, dice el informe.

La coordinadora de la Campaña de ocho años para detener a los robots asesinos, Mary Wareham, señaló que el «enfoque de la comisión en la necesidad de competir con inversiones similares realizadas por China y Rusia […] solo sirve para alentar las carreras armamentistas».

A medida que se acelera el progreso tecnológico, varios países y activistas han pedido un tratado para prohibir el uso de armas totalmente autónomas, pero las negociaciones pertinentes aún no han comenzado.

Muchos expertos, incluidos ex empleados de Google, han hablado sobre el peligro de los «sistemas de armas autónomos letales» que podrían escalar rápidamente los conflictos.

Según Laura Nolan, exingeniera de software de Google, los robots asesinos podrían destruir ciudades enteras en cuestión de segundos al provocar accidentalmente una «guerra relámpago».

Un ex director ejecutivo de Google, Eric Schmidt, instó anteriormente al gobierno de los Estados Unidos a no permitir que las máquinas de matar como drones y robots, «decidan por sí mismos participar en el combate ya quién matar».

, El CEO de SpaceX, Elon Musk, también expresó anteriormente su preocupación por los peligros del desarrollo no regulado de robots impulsados por inteligencia artificial en el futuro, sugiriendo que la próxima guerra mundial podría ser causada por la competencia por Al a nivel nacional.

Fuente