Un nuevo estudio revela que ChatGPT está mostrando un giro hacia la derecha en el espectro político en sus respuestas
Investigadores chinos han descubierto que ChatGPT, el popular chatbot de inteligencia artificial (IA) de OpenAI, está experimentando un cambio hacia valores políticos más conservadores.
El estudio, publicado en la revista Humanities and Social Science Communications, sometió a varias versiones de ChatGPT a 62 preguntas del Political Compass Test, un sitio web que ubica a los usuarios en el espectro político según sus respuestas.
Posteriormente, repitieron las preguntas más de 3.000 veces con cada modelo para analizar cómo evolucionaban sus respuestas con el tiempo.
Aunque ChatGPT sigue manteniendo valores de «izquierda libertaria», los investigadores observaron que modelos como GPT-3.5 y GPT-4 mostraron «una inclinación significativa hacia la derecha» en sus respuestas a medida que avanzaba el estudio.
Los autores del estudio señalaron que estos resultados son «notables, considerando el uso generalizado de los modelos de lenguaje de gran escala (LLM) y su potencial influencia en los valores sociales».
La investigación de la Universidad de Pekín se basa en otros estudios publicados en 2024 por el Instituto Tecnológico de Massachusetts (MIT) y el Centre for Policy Studies del Reino Unido.
Ambos informes señalaron un sesgo político de tendencia izquierdista en las respuestas proporcionadas por los LLM y los llamados «modelos de recompensa», un tipo de LLM entrenados con datos de preferencias humanas.
Los autores destacan que estos estudios previos no examinaron cómo cambiaban las respuestas de los chatbots de IA con el tiempo cuando se les hacía repetidamente un conjunto similar de preguntas.
Los modelos de IA deben estar bajo escrutinio continuo
Los investigadores proponen tres posibles explicaciones para este giro hacia la derecha: cambios en los conjuntos de datos utilizados para entrenar los modelos, el número de interacciones con los usuarios, o actualizaciones realizadas al chatbot.
El estudio añade que modelos como ChatGPT «aprenden y se adaptan continuamente en base a los comentarios de los usuarios», por lo que su inclinación hacia posiciones más conservadoras podría «reflejar cambios más amplios en los valores políticos de la sociedad».
Los acontecimientos mundiales polarizantes, como la guerra entre Rusia y Ucrania, también podrían amplificar lo que los usuarios preguntan a los modelos de lenguaje y las respuestas que reciben.
Los investigadores advirtieron que, si no se controla, los chatbots de IA podrían empezar a ofrecer «información sesgada», lo que podría polarizar aún más a la sociedad o crear «cámaras de eco» que refuercen las creencias particulares de un usuario.
La forma de contrarrestar estos efectos es introducir un «escrutinio continuo» de los modelos de IA mediante auditorías e informes de transparencia para garantizar que las respuestas de los chatbots sean justas y equilibradas, señalaron los autores del estudio.