El profesor Stuart Russell se unió anteriormente a un grupo de celebridades de la tecnología, como Elon Musk y el cofundador de Apple, Steve Wozniak, para firmar una carta abierta que advierte sobre los peligros del desarrollo descontrolado de la IA e insta a detener los proyectos relacionados con las redes neuronales.
El desarrollo descontrolado de la inteligencia artificial (IA) podría producir una poderosa mente digital capaz de destruir a la humanidad, según el profesor británico Stuart Russell.
Dados los grandes avances logrados por los sistemas de inteligencia artificial y el aprendizaje automático en los últimos tiempos, ha llegado el momento de » tomar un respiro » y centrarse en cómo protegerse contra los riesgos que plantearía una máquina superinteligente ingobernable, el profesor de ciencias de la computación en la Universidad. de California, Berkeley, dijo a los medios.
El científico británico, que también es miembro del Wadham College de Oxford, difícilmente pudo contener su frustración con la postura indiferente adoptada por los ministros del gobierno con respecto a la regulación de la industria de la IA. El gobierno británico dijo en marzo que quería » evitar una legislación de mano dura que podría sofocar la innovación » y optó por un » enfoque adaptable para regular la IA » .
Señalando las increíbles capacidades del modelo de lenguaje ChatGPT de OpenAI, que utiliza redes neuronales de aprendizaje profundo para generar resultados basados en la entrada humana, y puede aprobar exámenes con gran éxito y escribir código de computadora, Stuart Russell dijo que,
«Hemos progresado sin esperar Pero existe el peligro de que algún día un sistema similar a ChatGPT pueda incorporarse a una mente digital superinteligente que evade el control humano.
“¿Cómo mantienes el poder sobre entidades que son más poderosas que tú, para siempre? Si no tiene una respuesta, entonces deje de investigar. Es tan simple como eso. Lo que está en juego no podría ser mayor: si no controlamos nuestra propia civilización, no podemos opinar sobre si continuamos existiendo”, dijo.
Russell, coautor de un libro sobre inteligencia artificial, Human Compatible: AI and the Problem of Control, reveló que el gobierno británico lo había convocado este año para actuar como asesor. El Foreign Office, según él, «habló con mucha gente y llegaron a la conclusión de que la pérdida de control [de una poderosa IA] era un resultado plausible y de una importancia extremadamente alta». Sin embargo, la respuesta de los ministros fue: «Damos la bienvenida a la industria de la IA como si estuviéramos hablando de fabricar automóviles o algo así».
Russell culpó a los persuasivos esfuerzos de cabildeo de la industria de la tecnología, que ha estado gastando miles de millones para “imprimir” este enfoque en “legislaturas de todo el mundo”.
Preguntado por la llegada de una hipotética inteligencia artificial general (AGI) capaz de realizar cualquier tarea intelectual que pueda realizar un humano, el científico advirtió que eso no es algo que falte a décadas. AGI ya ha sido comparado con una » civilización alienígena superior » y, a menos que la investigación de IA sea abofeteada con una supervisión más rígida, advirtió Russell, la civilización humana podría no tener ninguna posibilidad contra ella.
El científico intentó explicar sus temores en términos simplificados, diciendo que los humanos podrían asignar una tarea a una IA superpoderosa, pero recurrir a una estrategia para lograrlo plagada de efectos secundarios desastrosos para la humanidad.
Por ejemplo, en un escenario imaginario, se le puede pedir a una IA que resuelva el problema del cambio climático, pero elige hacerlo borrando a los humanos de la faz de la Tierra.
“A menos que su único propósito sea beneficiar a los humanos, en realidad estás creando un competidor, y eso sería obviamente una estupidez”, dijo el científico informático.
Anteriormente, junto con Elon Musk y un grupo de expertos en inteligencia artificial y ejecutivos de la industria, Stuart Russell firmó una carta en la que pedía una pausa de seis meses en el desarrollo de sistemas de IA más avanzados que GPT-4. Según el documento, “ los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA.