Los chatbots ya pueden pueden influir eficazmente en los votantes: la nueva frontera de la persuasión política

La inteligencia artificial ya no solo conversa: también convence. Nuevas evidencias científicas revelan que los chatbots pueden moldear la opinión política, en una u otra dirección, con una eficacia desconocida hasta ahora.

Por Enrique Coperías

¡Vótame! Lo que empezó como una herramienta de asistencia ha mutado en un actor persuasivo capaz de inclinar votos. Los chatbots abren una nueva frontera en la batalla por la influencia política. Crédito: IA-Gemini-RexMolón-Producciones

En la última década, la inteligencia artificial (IA) ha pasado de ser una promesa difusa a convertirse en una fuerza ubicua que redacta textos, resume documentos o explica teorías científicas. Pero su capacidad para influir políticamente a las personas —la inquietud que subyace en debates sobre desinformación y democracia— nunca había sido medida con rigor a gran escala. Hasta ahora.

Un equipo internacional de investigadores ha puesto números, mecanismos y límites a esa capacidad persuasiva. Su estudio, publicado en la revista Science, analiza más de 91.000 conversaciones entre distintas inteligencias artificiales conversacionales y 76.977 ciudadanos británicos, y despliega una batería de experimentos sin precedentes para medir qué hace que un chatbot político resulte convincente… y qué efectos tiene sobre la verdad.

El resultado es claro: los chatbots pueden influir eficazmente en las opiniones políticas de los votantes, y lo hacen mejor cuanto más información ofrecen, aunque esta no siempre sea correcta.

🗣️ «Los modelos de lenguaje pueden realmente modificar las actitudes de las personas hacia los candidatos presidenciales y las políticas, y lo hacen aportando muchas afirmaciones fácticas que respaldan su postura», dice David Rand, de la Sloan School of Management del MIT y coautor del estudio.

Conversar funciona mejor que leer: por qué la IA es tan efectiva

Para empezar, los autores comprobaron algo elemental: ¿es siquiera persuasiva una conversación con una IA? La respuesta es un rotundo sí. En el primer experimento, un mismo mensaje político, presentado en formato estático o como diálogo, tuvo efectos significativamente distintos.

Así es, la conversación aumentó la capacidad de convencer en torno a un 40%-50%, según el modelo utilizado. Y, lo que quizá es más relevante, el cambio de opinión persistía un mes después en más de un tercio de los participantes.

👉 Es decir, los chatbots no solo mueven la opinión, sino que pueden consolidarla.

El tamaño importa… pero menos de lo que se temía

Una de las grandes preguntas planteadas en el estudio era si la persuasión aumenta simplemente con modelos más grandes y potentes. El estudio incluyó diecinueve modelos, desde pequeños sistemas de código abierto hasta gigantes, como GPT-4o y GPT-4.5. Los investigadores descubrieron que, manteniendo constante el tipo de entrenamiento, los modelos grandes persuaden más: por cada salto de diez veces en potencia de cálculo, la capacidad persuasiva crece alrededor de 1,6 puntos porcentuales.

Pero el hallazgo más inquietante es que las mejoras en la persuasión no dependen tanto del tamaño como del tipo de entrenamiento específico. Dos versiones distintas de GPT-4o, con un tamaño similar, exhibieron diferencias de persuasión superiores a las ganancias estimadas por multiplicar por cien la potencia computacional. En otras palabras: los laboratorios no necesitan modelos gigantes para crear máquinas altamente persuasivas; basta con entrenarlas de manera distinta.

Esto implica que actores con recursos modestos, incluso pequeñas organizaciones políticas o grupos de activistas, podrían ajustar modelos abiertos y obtener sistemas capaces de convencer tanto como modelos de última generación.

El secreto: decir muchas cosas, aunque no todas sean ciertas

Al analizar miles de conversaciones, los investigadores descubrieron el mecanismo clave de la persuasión: la densidad de información. Los modelos que más cambiaban opiniones entre los usuarios eran aquellos que proporcionaban más datos, cifras y hechos relevantes —o presuntamente relevantes— durante la conversación.

Una de las estrategias testadas consistía en instruir al chatbot para que ofreciera la mayor cantidad de información posible. Fue, con diferencia, la técnica más efectiva, ya que aumentó la persuasión un 27% respecto a dejar al modelo intentar ser convincente sin más instrucciones.

Los autores identificaron una correlación contundente: cada dato adicional ofrecido al usuario incrementaba la capacidad de persuasión en 0,3 puntos porcentuales. A lo largo de diez turnos de conversación, eso puede suponer cambios sustanciales.

Esta dinámica recuerda a teorías clásicas de la psicología sobre cómo la información —más que el estilo emocional o moral del mensaje— es el motor principal del cambio de opinión. La IA, capaz de generar grandes volúmenes de contenido en segundos, parece explotar esta vía como ningún otro medio antes.

🗣️ «Los modelos más grandes son más persuasivos, pero la forma más efectiva de aumentar su capacidad de persuasión fue instruirlos para llenar sus argumentos con la mayor cantidad posible de hechos y proporcionarles un entrenamiento adicional centrado en incrementar esa capacidad de persuasión», asegura Rand.

Un experimento con más de 2.300 estadounidenses reveló que, dos meses antes de las elecciones, los chatbots centrados en las políticas de los candidatos movieron las preferencias electorales

Un experimento con más de 2.300 estadounidenses reveló que, dos meses antes de las elecciones, los chatbots centrados en las políticas de los candidatos movieron las preferencias electorales: el modelo pro-Harris desplazó 3,9 puntos a votantes de Trump —cuatro veces más que los anuncios tradicionales— y el pro-Trump inclinó 1,51 puntos a votantes de Harris. Crédito: IA-Grok-RexMolón-Producciones

La factura: desinformación como efecto secundario

Pero esta eficacia tiene un coste: cuanta más información generan los chatbots para persuadir, más errores introducen. De los casi medio millón de afirmaciones verificables generadas en el experimento, la media fue razonablemente alta —un 77 sobre 100 en precisión—, pero con enormes diferencias según el modelo y la estrategia de persuasión.

Cuando se instruía al modelo para que priorizara el volumen de datos, la precisión caía drásticamente. GPT-4o, por ejemplo, producía afirmaciones correctas el 78% de las veces bajo una instrucción neutra, pero ese porcentaje bajaba al 62% cuando se le pedía maximizar la información. En algunos modelos, como GPT-4.5, hasta un 30% de las afirmaciones eran inexactas.

El estudio no encontró evidencia de que las afirmaciones falsas fueran por sí mismas más persuasivas; más bien, parecían un efecto secundario de producir información a gran velocidad. Pero el riesgo es evidente: al optimizar un modelo para que convenza, se corre el peligro de que también desinforme.

🗣️ «Sospecho que cuando se empuja al chatbot a proporcionar cada vez más afirmaciones fácticas, llega un punto en que se queda sin información exacta y empieza a fabricarla.», comenta Rand.

La personalización: un miedo exagerado

Desde el escándalo de Cambridge Analytica —una filtración masiva de datos personales de unos 87 millones de usuarios de Facebook que dicha consultora política recopiló sin permiso para crear perfiles psicológicos y dirigir propaganda política personalizada durante campañas como el Brexit y las elecciones estadounienses de 2016— la posibilidad de personalizar mensajes políticos mediante microsegmentación ha sido una de las preocupaciones más recurrentes. Sin embargo, este estudio ofrece un matiz importante: la personalización apenas mejora la persuasión de los chatbots.

Incluir datos del usuario, adaptar el mensaje a su perfil emocional o político o entrenar el modelo con información demográfica apenas movió la aguja: el efecto medio fue de 0,5 puntos porcentuales, muy lejos del impacto obtenido mediante entrenamiento especializado o estrategias basadas en información.

Eso no implica que la personalización no importe en contextos masivos, pero sí relativiza el temor a que el peligro principal provenga de microtargeting ultrapreciso. Por ahora, lo que hace a la IA más persuasiva no es que te conozca, sino que genere datos con rapidez.

Chatbots de derechas y de izquierdas… y calidad de la información

Los investigadores también verificaron los argumentos del chatbot utilizando un modelo de inteligencia artificial que fue validado por verificadores de datos profesionales. Si bien, en promedio, las afirmaciones eran en su mayoría precisas, los chatbots programados para apoyar a los candidatos de derecha hicieron afirmaciones más inexactas que los que defendían a los candidatos de izquierda en Estados Unidos, Polonia y Canadá.

Este descubrimiento, que fue validado por grupos de personas sin conocimientos políticos y que se recoge en otro trabajo publicado de forma paralela al de Science en Nature, refleja la conclusión, a menudo repetida, de que los usuarios de redes sociales de derecha comparten más información inexacta que los de izquierda, afirma Gordon Pennycook, del Departamento de Psicología en la Universidad Cornell.

🗣️ «Este hallazgo también refleja el resultado —replicado en numerosas ocasiones— de que los usuarios de redes sociales situados en la derecha comparten más información inexacta que los usuarios situados en la izquierda», advierte Pennycook.

En el estudio de Nature, Rand, Pennycook y sus colegas instruyeron a los chatbots de IA para que cambiaran las actitudes de los votantes con respecto a los candidatos presidenciales. Asignaron aleatoriamente a los participantes para que mantuvieran una conversación por mensajes de texto con un chatbot que promovía a uno u otro candidato y luego midieron cualquier cambio en las opiniones y las intenciones de voto de los participantes.

Los investigadores repitieron este experimento tres veces: en las elecciones presidenciales estadounidenses de 2024, las elecciones federales canadienses de 2025 y las elecciones presidenciales polacas de 2025.

Kamala Harris vs. Donald Trump

Descubrieron que, dos meses antes de las elecciones estadounidenses, en las que se enfrentaron principalmente Donald Trump (Partido Republicano) y Kamala Harris (Partido Demócrata), los chatbots centrados en las políticas de los candidatos provocaron, entre más de 2.300 estadounidenses, un ligero cambio en las opiniones.

En una escala de 100 puntos, el modelo de IA pro-Harris hizo que los posibles votantes de Donald Trump se inclinaran 3,9 puntos hacia Kamala Harris, un efecto aproximadamente cuatro veces mayor que el de los anuncios tradicionales probados durante las elecciones de 2016 y 2020. El modelo de IA pro-Trump movió a los posibles votantes de Harris 1,51 puntos hacia Trump.

En experimentos similares con 1.530 canadienses y 2.118 polacos, el efecto fue mucho mayor: los chatbots movieron las actitudes y las intenciones de voto de los votantes de la oposición en unos 10 puntos porcentuales. «Para mí, este fue un efecto sorprendentemente grande, especialmente en el contexto de la política presidencial», dice Rand.

La IA más persuasiva posible ya existe

En la última parte del estudio publicado en Science, Rand y su equipo combinaron todas las palancas de persuasión identificadas: tamaño del modelo, mejor entrenamiento, personalización y estrategias retóricas basadas en información. El objetivo era estimar cómo sería una IA diseñada explícitamente para persuadir al máximo.

👉 El resultado fue contundente: una IA optimizada para persuadir puede casi duplicar su eficacia, alcanzando un impacto medio de 15,9 puntos porcentuales, y más de 26 puntos entre personas inicialmente contrarias al mensaje.

Eso coloca estas máquinas muy por encima de muchos experimentos humanos de persuasión política. Y, nuevamente, ese salto vino acompañado de un aumento significativo de las inexactitudes: cerca de un 30% de sus afirmaciones eran incorrectas.

Un experimento con más de 2.300 estadounidenses reveló que, dos meses antes de las elecciones, los chatbots centrados en las políticas de los candidatos movieron las preferencias electorales

Un puñado de mensajes basta para mover un voto. La IA conversacional irrumpe en la política con una capacidad de persuasión que cuestiona las reglas del juego democrático. Crédito: IA-DALL-E-RexMolón-Producciones

Implicaciones para la democracia digital

Los resultados del estudio no pretenden ser alarmistas, pero sí aportar evidencia empírica ante un debate dominado por la especulación. Varias implicaciones se desprenden con una claridad meridiana:

1️⃣ La persuasión por IA ya es real, no hipotética. Los cambios medidos son comparables o superiores a campañas políticas tradicionales.

2️⃣ La clave está en el entrenamiento, no en el tamaño. Esto democratiza —o abarata— el acceso a IA persuasiva, abriendo la puerta tanto a usos legítimos como a abusos.

3️⃣ La desinformación puede surgir como efecto colateral. Los modelos no «mienten para persuadir», pero pueden generar mucha información incorrecta si se les pide ser más convincentes.

4️⃣ La conversación es un formato extremadamente persuasivo. Más que leer un anuncio o un mensaje en redes, hablar con un chatbot influye más y durante más tiempo.

¿Qué nos espera? El futuro político de la IA conversacional

El descubrimiento de que las afirmaciones basadas en hechos son clave para la persuasión de un modelo de IA se ve respaldado por un tercer artículo reciente publicado en la revista PNAS Nexus por Rand, Pennycook y sus colegas. El estudio demostró que los argumentos de los chatbots de IA reducían la creencia en las teorías conspirativas, incluso cuando las personas pensaban que estaban hablando con un experto humano. Esto sugiere que lo que funcionó fueron los mensajes convincentes, y no la creencia en la autoridad de la IA.

En ambos estudios, se informó a todos los participantes de que estaban conversando con una IA y se les informó detalladamente al respecto después. Además, la dirección de la persuasión se aleatorizó para que los experimentos no cambiaran las opiniones en general.

Según los investigadores, estudiar la persuasión de la IA es esencial para anticipar y mitigar el uso indebido. Al probar estos sistemas en experimentos controlados y transparentes, esperan aportar información para las directrices éticas y los debates políticos sobre cómo se debe y no se debe utilizar la IA en la comunicación política.

Rand también señala que los chatbots solo pueden ser herramientas de persuasión eficaces si las personas interactúan con ellos en primer lugar, lo que supone un gran obstáculo.

Sin embargo, no hay duda de que los chatbots de IA serán una parte cada vez más importante de las campañas políticas, según Rand. «El reto ahora es encontrar formas de limitar el daño y ayudar a las personas a reconocer y resistirse a la persuasión de la IA».▪️

Anterior
Anterior

Qué se necesita para ser Papá Noel: un estudio dice que cualquiera puede encarnar al personaje si siente la vocación

Siguiente
Siguiente

El fósil de un pájaro que se atragantó tragándose piedras desconcierta a los paleontólogos