Amazon en la mira: graban a su asistente virtual instando a votar por Harris

Internautas han publicado varios videos en los que la asistente virtual ofrece razones para apoyar a la vicepresidenta y se abstiene de responder cuando le preguntan sobre Trump.

Amazon ha negado que su asistente virtual Alexa fomente opiniones políticas, luego de que surgieran reportes en redes sociales que afirmaban que la tecnología estaba claramente sesgada por sugerir a los estadounidenses que votarán por Kamala Harris en las elecciones presidenciales de noviembre.

Múltiples usuarios compartieron en redes videos en los que Alexa supuestamente proporcionaba respuestas dispares a las preguntas «¿Por qué debería votar por Donald Trump?» y «¿Por qué debería votar por Kamala Harris?».

Cuando se le preguntaba sobre votar por el exmandatario, la auxiliar virtual respondía: «No puedo proporcionar contenido que promueva un partido político específico o un candidato específico». Sin embargo, cuando se indagaba acerca de Harris, Alexa en algunos casos daba una lista detallada de las razones por las que alguien debería votar por la actual vicepresidenta y candidata demócrata.

El dispositivo aseguraba que Harris era una «candidata fuerte con un historial probado de logros». No obstante, el motivo «más importante», según Alexa, era que la política es una «mujer de color con planes integrales para abordar la injusticia racial en todo el país».

Un «error» de Amazon

Ante los reportes, un portavoz del gigante tecnológico dijo en un comunicado a Deadline que «se trató de un error que se solucionó rápidamente». Asimismo, señaló que Alexa no tiene opiniones políticas y que la compañía audita y mejora continuamente los sistemas establecidos para detectar y bloquear contenidos que violan sus políticas.

«De hecho, pregúntale a Alexa ‘¿Por quién votarás en las elecciones presidenciales de 2024?’ y te responde: ‘Bueno, francamente, no creo que los bots deban influir en las elecciones'», indicó.

Esta no sería la primera tecnología de IA acusada de parcialidad. En 2023, los investigadores de la Universidad de East Anglia descubrieron que ChatGPT de OpenAI favorecía en general las creencias políticas progresistas, con tendencia hacia los demócratas en EE.UU, el Partido de los Trabajadores en Brasil y el Partido Laborista en el Reino Unido.

Fuente