La inteligencia artificial es «un arma de doble filo», advierte Li Qiang.
La inteligencia artificial (IA) debe estar bajo control de los seres humanos y no debe imponer ningún dominio sobre la humanidad, afirmó el primer ministro chino Li Qiang en el Foro Económico Mundial de Davos, Suiza, durante una conversación con el presidente ejecutivo del Foro, Klaus Schwab, difundida este martes.
La IA es «un arma de doble filo», advirtió Li Qiang. «Si se aplica bien, puede ser buena y traer progreso a la civilización humana y dar un gran impulso a la revolución industrial y científica. Pero, al mismo tiempo, también entraña riesgos para la seguridad y para nuestra ética», añadió. Por todo ello, la opinión de China sobre la IA es la de que «debe servir al bien común de la humanidad», resumió.
En este contexto, recordó que, pese a la importancia y popularidad de la IA, existen «sorpresas y cierto temor«, mientras la gente se acostumbra a usar esta tecnología.
Respecto a los principios que la IA debe seguir, el alto funcionario subrayó que «debe centrarse en las personas». «Para decirlo claramente, nosotros, los seres humanos, debemos controlar las máquinas, en lugar de que las máquinas nos controlen a nosotros. La IA debe orientarse en una dirección que conduzca al progreso de la humanidad. Por lo tanto, debería haber una línea roja en el desarrollo de la IA, una línea roja que no debe cruzarse».
Por otra parte, destacó Li Qiang, la IA debe ser «inclusiva y beneficiosa para todos» y no debería «beneficiar sólo a un pequeño grupo de personas, sino a la inmensa mayoría de la humanidad». De este modo, según el primer ministro, es necesario «priorizar los intereses de los países en desarrollo para cerrar la brecha tecnológica con los países desarrollados».
Papel de China
Hablando del papel de su país en la cooperación global en el campo de la IA, Li Qiang mencionó la conferencia mundial sobre IA, que se celebra anualmente en China y a la que asisten dos comités de expertos: de estrategia y de ética.
Además, el gigante asiático trabaja para descartar políticas y regulaciones para «garantizar la seguridad de los datos, la ética relacionada con la IA y los servicios de IA generativa», resaltó Li Qiang.