¿Se convertirán los humanos en una extensión de sus máquinas? ChatGPT puede tener consecuencias irrevocables para el aprendizaje y la toma de decisiones


Ya dependemos de muletas digitales en numerosos aspectos de nuestras vidas: ¿delegaremos incluso nuestras facultades esenciales a la Inteligencia Artificial?

La trayectoria moderna de la humanidad ha estado definida por varios puntos de inflexión. La invención de la electricidad, la bombilla, el sistema de telégrafo, la computadora e Internet, entre otros, han señalado nuevos hitos irreversibles en nuestro modus vivendi.

Sin embargo, la reciente introducción de ChatGPT puede resultar más que un punto de inflexión. Este, y los modelos de IA como este, pueden ser un disruptor permanente de nuestra forma de vida; a pesar de sus bloopers y berrinches Wokist .

Chat GPT es ahora la aplicación para consumidores de más rápido crecimiento en la historia. A los dos meses de su lanzamiento en noviembre de 2022, ChatGPT logró reunir a más de 100 millones de usuarios. Su desarrollador, OpenAI, que comenzó con 375 empleados y escasos ingresos, ahora está valorado en 30.000 millones de dólares y sigue aumentando.

¿Como funciona? ChatGPT agrega datos provenientes de Internet (aunque no está conectado directamente a Internet en tiempo real) y sintetiza las respuestas a una consulta en segundos. Actualmente es el más versátil y estable de los nuevos modelos de lenguaje grande impulsados ​​por IA. Puede componer notas musicales, escribir código de software, resolver ecuaciones matemáticas, escribir novelas, ensayos y disertaciones, entre muchas otras tareas. Los científicos pueden utilizarlo para traducir sus trabajos originales, escritos en un idioma nativo, al inglés. A medida que evolucionan las herramientas de IA como ChatGPT, pueden suplantar la actividad humana en un espectro amplio, pero incalculable. Cientos de millones de puestos de trabajo pueden estar en juego.

Sin embargo, su impacto más inmediato será en el área del aprendizaje humano y la toma de decisiones.

Aprendizaje humano

El aprendizaje humano es un proceso que dura toda la vida y está formado por una miríada de factores. Estos incluyen (pero no se limitan a) experiencia, instinto, interacciones, errores (y correcciones), introspección, angustia personal, audacia, tutela, datos textuales y psique individual. La mayoría de estos requisitos previos son ajenos a ChatGPT. El axioma de » sin dolor, no hay ganancia» del aprendizaje y desarrollo humano no se aplica a él.

Las herramientas de IA tampoco se ven afectadas por las limitaciones humanas, como las limitaciones de tiempo, la fatiga, los » días libres » y las dolencias. Estas limitaciones son las que eventualmente pueden obligar a los humanos a delegar su requisito existencial de pensar y aprender a las máquinas. La digitalización inexorable ya nos ha hecho expertos en saber dónde o cómo buscar información en lugar de aprender a retener esa misma información.

Como resultado, una muleta digital ahora es imprescindible para navegar por las carreteras (por ejemplo, Waze, Google Maps), cocinar (canales de videos culinarios), reparar electrodomésticos (canales de bricolaje) y muchas otras actividades mundanas. Nuestras tareas diarias se están volviendo rápidamente más mecanicistas, desplazando nuestra capacidad de crear algo nuevo o que cambie el juego. Nos estamos convirtiendo en extensiones de nuestras máquinas en lugar de viceversa. Como resultado, la humanidad se enfrenta a una era de estupor y conformidad colectivos.

No hay mejor manera de evaluar cómo las herramientas de IA pueden afectar nuestras facultades de pensar y aprender que observando el impacto de ChatGPT en el sector educativo global. Tanto los estudiantes como los educadores ahora usan ChatGPT como un complemento, una herramienta de trucos o como una muleta digital.

Una encuesta reciente realizada por Walton Family Foundation e Impact Research encontró que la mayoría de los maestros (51 %) y muchos estudiantes ya están usando ChatGPT en las escuelas. Otra encuesta que involucró a 1000 universidades de EE. UU. encontró que el 30 % de los estudiantes usaba ChatGPT para tareas escritas, y el 60 % de ellos lo usaba en » más de la mitad de sus tareas». ChatGPT ha aprobado muchos exámenes de alto nivel , incluido el examen de MBA de Wharton, el examen de licencia médica de EE. UU., varios exámenes de derecho y un final en la Escuela de Medicina de Stanford.

Las fábricas de papel también pueden usar ChatGPT para fabricar artículos e informes científicos. Los investigadores que utilicen sus datos (recordemos que la IA “puede ocasionalmente producir respuestas incorrectas” ), o que falseen deliberadamente el proceso de investigación a través de la IA generativa, pueden acabar fomentando políticas y productos perjudiciales para la sociedad. ¡El mundo no puede permitirse otra coronapsicosis!

En general, tanto los estudiantes como los profesores se sienten cada vez más intimidados por la IA Todopoderosa. AI sube el listón para estudiantes, profesores y una variedad de profesionales. La clasificación de artefactos genuinos también se está volviendo cada vez más difícil. Como señaló recientemente Christopher Kanan , profesor asociado de Ciencias de la Computación en la Universidad de Rochester: «Simplemente se vuelve más difícil determinar quién sabe qué y quién recibe ayuda de cosas como ChatGPT». Como resultado, algunas escuelas en Nueva York , Hong Kong, Bangalore y otros lugares han prohibido a los estudiantes usar ChatGPT en sus tareas debido a preocupaciones sobre plagio, trampa e información errónea.

Si bien ChatGPT es una gran herramienta para estudiar conceptos complejos y líneas de integración de conocimientos , en realidad, puede convertir a la mayoría de los usuarios en consumidores dóciles de datos generados por IA. La pasividad prolongada mediada digitalmente atrofia la facultad de pensar.

Otra desventaja de ChatGPT es su potencial para ampliar la tan debatida brecha digital. Las solicitudes de empleo, promociones, becas, etc. favorecerán abrumadoramente a los «ricos» digitales sobre los » desposeídos » digitales, especialmente una vez que se requieren tarifas de suscripción para acceder.

Los educadores en este momento no pueden definir los límites éticos de ChatGPT y actualmente están adoptando una actitud de esperar y ver. El marco ético en sí mismo puede ser escrito por, o con la ayuda de, herramientas como el mismo ChatGPT. Aini Suzana Ariffin, profesora asociada de estudios de políticas en la Universiti Teknologi Malaysia, está convencida de que los educadores no deben alarmarse. “Un marco ético para las herramientas de IA generativa como ChatGPT resolverá qué aumenta el proceso de aprendizaje y qué lo impide. Esto puede llevar tiempo e implicará mucho debate, pero es mejor que empecemos ahora”.

Toma de decisiones humana

El gobierno de Singapur anunció recientemente que sus funcionarios públicos comenzarán a utilizar ChatGPT para aligerar su carga de trabajo. Esto tiene sentido, ya que las herramientas de IA pueden acelerar las tareas repetitivas o mundanas. Sin embargo, a medida que las herramientas de IA generativa se vuelven exponencialmente más inteligentes y eficientes, las máquinas pueden usurpar gradualmente el complejo de gobernanza. Esta forma emergente de ordenamiento social se denomina “ algocracia ”; uno donde los algoritmos, especialmente AI y blockchain, se aplican en todo el espectro del gobierno. La algocracia inevitablemente implica un gobierno predictivo. La policía de Berlín ya ha incorporado una forma embrionaria de algocracia en su sistema de vigilancia predictiva . ¿Estamos ante un Informe Minoritario ?sociedad en un futuro cercano?
ChatGPT también acelera el flujo de información hacia los niveles superiores de toma de decisiones de un gobierno u organización, pasando por alto los roles tradicionales de guardián de las burocracias en los niveles intermedios. Si bien esto puede anunciarse como un avance bienvenido contra la burocracia, la falta de controles y equilibrios tradicionales puede conducir a decisiones perentorias con lamentables implicaciones socioeconómicas. Imagine trasplantar un proceso algocrático de este tipo a la infraestructura de armas nucleares de una superpotencia militar.

ChatGPT también corre el riesgo de violar la privacidad y filtrar datos personales en sectores como la banca y la atención médica. La eficacia de las herramientas de IA generativa se ve impulsada por un volumen cada vez mayor de datos que se conectan constantemente a sus redes neuronales. Esta búsqueda de precisión, eficiencia y velocidad puede hacer que los datos privados se vean comprometidos como parte del proceso de aprendizaje automático.

En el área de la atención médica, el consentimiento informado para la atención médica asistida por IA puede reducirse ya que los pacientes pueden no entender a qué están dando su consentimiento o pueden confiar demasiado en un sistema basado en una máquina » inteligente e imparcial» . Se vuelve más siniestro cuando es necesario emplear el triaje en situaciones críticas. Tradicionalmente, el triaje está determinado por la integridad y las habilidades del personal médico presente, así como por los recursos disponibles in situ . Sin embargo, un algoritmo puede organizar desapasionadamente el triaje basado en el “ valor social” de un paciente ; esperanza de vida inferida por datos; y costos asociados con salvar la vida del paciente.

Al final del día, ¿un marco de IA ético será obstruido por Tech Titans que pueden determinar el diseño, los parámetros y los objetivos de las herramientas de IA generativa? ¿O nuestros líderes electos intentarán buscar una coexistencia sinérgica entre la IA y los humanos?

Fuente