Un gurú de la tecnología advierte que los robots que piensan por sí mismos pueden apoderarse del mundo y utilizar armas de destrucción masiva para acabar con la humanidad. ¿Es hora de preocuparse?
Este año, las prestigiosas conferencias Reith de la BBC serán impartidas por primera vez por un informático. Stuart Russell, nacido en el Reino Unido y profesor de ciencias de la computación en la Universidad de California, Berkeley, analizará «Vivir con inteligencia artificial» en una serie de transmisiones semanales durante diciembre.
En un avance de la serie de conferencias, Russell fue entrevistado en el programa Today de BBC Radio 4 el lunes. Como confirmación del viejo adagio periodístico de que «si sangra, conduce», la conversación estuvo dominada por pronósticos sombríos sobre lo que la IA podría estar haciendo en nuestra sociedad e incluso más posibilidades de pesadilla para el futuro. No importa desarrollar máquinas que puedan aprender: necesitamos aprender de la historia de las nuevas tecnologías para tratar tanto la exageración como el horror con el mismo escepticismo.
La inteligencia artificial ya está en uso en la sociedad. Las computadoras pueden adivinar qué nos gustaría ver a continuación en YouTube, qué productos podríamos querer comprar en Amazon.
y mostrarnos anuncios basados en búsquedas anteriores de Internet en Google. Tal vez sea más útil que las máquinas aprendan a identificar crecimientos cancerosos en exploraciones médicas con gran velocidad y precisión y señalen transacciones financieras potencialmente fraudulentas, algo muy útil cuando los bancos y otras instituciones realizan constantemente volúmenes asombrosos de operaciones.
Russell cree que la IA “no funciona necesariamente para nuestro beneficio y las revelaciones que hemos visto recientemente de Facebook sugieren que las empresas de medios saben que está destrozando sociedades. Estos son algoritmos muy simples, por lo que la pregunta que haré en las conferencias es qué sucede cuando los algoritmos se vuelven mucho más inteligentes de lo que son ahora «.
Esta es una forma extraña de ver las cosas: los algoritmos, en lugar de la política humana, son el problema en la sociedad en este momento. Por supuesto, los algoritmos tontos que te envían publicaciones en las redes sociales sobre la base de que «si te gustó ese, puede que te guste este», probablemente no ayuden a sacar a la gente de sus «cámaras de eco». Pero la gente que se apega a su propia «tribu» cuando se trata de política se trata principalmente de una elección personal y la falta de voluntad para aceptar que las personas con una visión diferente puedan tener un punto, no el trabajo de algoritmos informáticos malvados.
Lo que realmente preocupa a Russell es cuando la IA va más allá de las aplicaciones específicas de la tarea a la posibilidad de una IA de propósito general. En lugar de configurar las computadoras para hacer cosas particulares, como analizar grandes cantidades de datos con un objetivo particular y aprender a hacerlo mejor y más rápido que los humanos, los sistemas de IA de propósito general podrían asumir una amplia variedad de tareas y tomar decisiones por sí mismos.
En particular, Russell se preocupa por las armas autónomas que «pueden encontrar objetivos, decidir qué objetivos atacar y luego seguir adelante y atacarlos, todo sin ningún ser humano al tanto». Teme que estas armas de destrucción masiva de IA puedan destruir ciudades o regiones enteras, o eliminar a todo un grupo étnico.
Russell cooperó en una película alarmante y aterradora al estilo Black Mirror, Slaughterbots, en 2017, que muestra una visión particularmente sombría de pequeños drones con forma de abeja que seleccionan y asesinan a cualquiera que se atreva a estar en desacuerdo con las autoridades.
Pero aunque ya se está utilizando cierto grado de aprendizaje y autonomía, por ejemplo, para sacar a los humanos del peligroso negocio de limpiar campos de minas, la combinación de reconocer a los individuos o grupos con precisión y tomar decisiones sobre quién y cómo atacar va más allá de las capacidades actuales. . Como demostró un ataque con aviones no tripulados estadounidenses en Afganistán en agosto, que mató a 10 personas, incluidos siete niños, es posible tener ataques de alta tecnología dirigidos por inteligencia que salgan terriblemente mal. Además, si los líderes políticos y militares tienen pocos escrúpulos en matar a inocentes, ¿por qué esperar armas autónomas de fantasía impulsadas por IA cuando puedes simplemente bombardear áreas enteras, ya sea en Dresde en la Segunda Guerra Mundial o en Camboya en los años setenta?
El poder de la IA que todo lo conquista es, tal como están las cosas, simplemente una exageración. Tome autos sin conductor. Hace solo unos años, fueron la próxima gran novedad. Google, Apple, Tesla y más invirtieron miles de millones en tratar de desarrollarlos. Ahora están en un segundo plano porque las dificultades son demasiado grandes. Hace un año, Uber, que alguna vez soñó con flotas de robotaxis, vendió su división de vehículos autónomos. En cuanto a que los robots y la IA se hagan cargo de nuestros trabajos, en el mejor de los casos serán una herramienta para mejorar la productividad de los humanos. Usar computadoras para hacer partes de nuestro trabajo podría ser útil, pero en realidad reemplazar a maestros, abogados o conductores es un juego de pelota completamente diferente.
Silicon Valley parece tener una actitud esquizofrénica hacia su propia tecnología. Por un lado, se exagera la importancia de la inteligencia artificial. Por otro lado, tenemos especulaciones catastróficas acerca de que los sistemas de inteligencia artificial toman gradualmente el control de la sociedad, dejando a los seres humanos, en palabras de Russell, como un «producto de desecho». En verdad, la IA sigue confirmando que es extremadamente útil para realizar tareas específicas y también bastante tonta para cualquier otra cosa.
Según Melanie Mitchell, Profesora Davis de Complejidad en el Instituto Santa Fe, sufrimos de múltiples malentendidos sobre la IA. Primero, la IA específica y la IA general son niveles de dificultad completamente diferentes. Por ejemplo, conseguir que las computadoras traduzcan diferentes idiomas ha implicado una enorme cantidad de trabajo, pero los sistemas basados en texto y voz se están volviendo bastante buenos. Conseguir que dos máquinas de IA mantengan una conversación, por otro lado, es mucho más difícil.
En segundo lugar, muchas cosas que los humanos encuentran fáciles son realmente difíciles de automatizar. Por ejemplo, evolucionamos para escanear el mundo rápidamente, seleccionar cosas distintas y descubrir qué es importante en este momento. Las computadoras encuentran esto extremadamente difícil. En tercer lugar, los seres humanos tenemos una rica experiencia del mundo físico a través de nuestros sentidos que, según los investigadores, tiene un impacto significativo en nuestra forma de pensar. En cuarto lugar, argumenta Mitchell, los seres humanos desarrollan el sentido común, basado en la experiencia y la práctica. Los sistemas de inteligencia artificial pueden arrojar cantidades cada vez mayores de potencia de procesamiento a los problemas, pero luchan por replicar eso. Elon Musk fracasó en su intento de automatizar completamente sus fábricas de Tesla: los humanos eran simplemente insustituibles para algunas tareas.
Si pudiéramos eliminar el impulso sobre la IA, podríamos ver un grupo útil de tecnologías que pueden ayudarnos de formas específicas para hacer nuestras vidas más fáciles. Del mismo modo, estallaría la burbuja de todos esos catastrofistas que piensan que los sistemas de inteligencia artificial se apoderarán del mundo. En última instancia, todavía tenemos el control de las máquinas y no van a reemplazarnos en el corto plazo. Con un poco de perspectiva histórica, podemos ver que la inquietud por la IA es solo la última de una serie aparentemente interminable de espasmos terribles sobre la nueva tecnología.