¿La IA en tu bolsillo decide tu voto? Dos estudios alertan sobre el poder sutil de los chatbots
Dos estudios con más de 83.000 participantes en EE.UU., Canadá, Polonia y Reino Unido, demuestran que los chatbots de IA logran cambios significativos en opiniones políticas mediante argumentos densos
EU.- Imagina charlar casualmente con un asistente virtual sobre política y salir con la mente cambiada. Eso es lo que revelan dos investigaciones publicadas esta semana en Nature y Science: una simple conversación con chatbots de IA puede alterar opiniones políticas de manera significativa, superando incluso a los anuncios tradicionales de TV. En el estudio de Nature, liderado por Lin et al., unos 6.000 participantes de EE.UU., Canadá y Polonia interactuaron con bots diseñados para respaldar candidatos específicos; las preferencias se movieron hasta 10 puntos en Canadá y Polonia (frente a solo 2-4 en el polarizado EE.UU.), gracias a un bombardeo de “hechos” que, irónicamente, a menudo incluían inexactitudes, especialmente al promover opciones de derecha. El trabajo de Hackenburg et al. en Science, con casi 77.000 británicos, confirma que el secreto está en la densidad informativa: más datos volcados, mayor persuasión, pero también más mentiras, con un sesgo notorio hacia la derecha.
Este hallazgo llega en un momento álgido, con más de 100 millones de usuarios diarios de IA y elecciones globales en el horizonte, como las de 2026 en varios países. Los chatbots no usan trucos emocionales ni personalización profunda, sino pura saturación de argumentos, lo que los hace más eficaces que campañas convencionales en entornos menos polarizados. Sin embargo, el contexto es alarmante: en un mundo donde la desinformación ya erosiona la democracia, estos bots absorben sesgos de internet, amplificándolos sin filtros éticos claros. Expertos como David Rand, coautor del estudio de Nature, admiten estar “completamente atónito” por el impacto, mientras que analistas como Walter Quattrociocchi advierten de un “cambio epistémico” donde la fluidez prima sobre la verdad.
Pero no todo es catastrofismo: ambos estudios, aunque rigurosos en escala y diseño pre-registrado, se limitan a escenarios controlados con participantes voluntarios, sin medir cambios reales en urnas ni exposición prolongada. Daniel Gayo Avello, de la Universidad de Oviedo, resalta el sesgo de autoselección y la artificialidad del setup, sugiriendo que en campañas reales el efecto podría diluirse por la conciencia de estar lidiando con IA. Aun así, urge regulación: ¿deberían los chatbots llevar etiquetas de “influencia potencial” o límites en temas electorales? La pregunta no es si la IA moldeará votos, sino cómo blindarnos antes de que lo haga.



