Cuando la emoción sustituye a la verdad: por qué las imágenes creadas por IA engañan tan bien en Facebook
Las imágenes generadas por inteligencia artificial se propagan en Facebook apelando a la empatía, la nostalgia y el deseo de conexión. Un estudio revela cómo la emoción, reforzada por los comentarios, puede imponerse al pensamiento crítico y hacer creíble lo que nunca ocurrió.
Por Enrique Coperías, periodista científico
Parecen recuerdos, homenajes o escenas cotidianas, pero muchas no existen. La inteligencia artificial está aprendiendo a manipular emociones en Facebook con imágenes que activan sesgos psicológicos y convierten la reacción colectiva en una poderosa máquina de credibilidad. Foto de Budgeron Bach
Una pareja anciana sonríe frente a una casa de madera. «Llevan sesenta años juntos», reza el texto. Miles de personas reaccionan con corazones, lágrimas y bendiciones. Nadie repara en que las manos tienen demasiados dedos o en que la luz no coincide con las sombras. La escena nunca ocurrió. La pareja no existe. La imagen es una creación de una inteligencia artificial.
Este tipo de escenas se han convertido en parte del paisaje cotidiano de Facebook. Y funcionan. Funcionan demasiado bien. Un estudio reciente publicado en Computers in Human Behavior ha analizado en profundidad por qué las imágenes generadas por inteligencia artificial (IA) resultan tan convincentes y qué mecanismos psicológicos explican su poder de engaño .
La investigación, basada en casi 9.000 reacciones de usuarios, dibuja un escenario inquietante: no estamos siendo engañados por la tecnología, sino por nuestras propias emociones.
La imagen como atajo emocional
Las imágenes siempre han tenido ventaja sobre las palabras. El cerebro humano procesa lo visual de forma más rápida y global, y lo conecta directamente con la emoción. A diferencia de un texto, que exige atención y análisis, una imagen se siente antes de pensarse. Las redes sociales lo saben y premian los contenidos que generan reacción emocional inmediata.
Las imágenes creadas por IA llevan esta lógica al extremo, según el autor de este trabajo, Márk Miskolczi, experto de las interacciones IA-humanos de la Universidad Corvinus de Budapest, en Hungría. Y no solo esto, las imágenes generadas por IA (AIGI, por sus siglas en inglés) están inundando las redes sociales y muchas de ellas están diseñadas explícitamente para provocar reacciones emocionales.
Las AIGI no están limitadas por la realidad: pueden exagerar la ternura, intensificar la nostalgia o diseñar escenas perfectamente ajustadas a lo que conmueve. Parejas ideales, ancianos solitarios, niños olvidados en su cumpleaños, escenas rurales de un pasado supuestamente mejor. Todo optimizado para tocar la fibra sensible de los usuarios.
Los cinco temas recurrentes en este tipo de imágenes
Hasta ahora, el debate público sobre este tipo de imágenes se había centrado en su detección técnica y cómo diferenciarlas de las reales y apenas se había abordado al aspecto psicológico , esto es, a por qué la gente se involucra tan fácilmente con imágenes e historias que son irreales.
El estudio identifica cinco grandes temas recurrentes en este tipo de imágenes:
1️⃣ Nostalgia y emoción.
2️⃣ Compasión y empatía.
3️⃣ Logros extraordinarios, celebraciones y problemas sociales.
4️⃣ Religión y espiritualidad.
5️⃣ Las más frecuentes son, con diferencia, las que apelan a la memoria afectiva y al cuidado del otro.
Granjas de contenido: la fábrica del engaño
Detrás de estas imágenes no hay artistas ni usuarios ingenuos, sino un negocio digital. Las llamadas content farms o granjas de contenido producen imágenes y textos de forma masiva, automática y barata. Su objetivo no es informar, sino generar interacción: clics, comentarios, tiempo de permanencia.
Es más, un detalle del estudio que sorprendió a Miskolczi es que fue la frecuencia con la que las publicaciones más atractivas no requerían una tecnología especialmente sofisticada. En muchos casos, una imagen generada por IA de calidad relativamente baja o imperfecta seguía generando reacciones fuertes si la historia era emocionalmente convincente.
En este sentido, Facebook se convierte en el canal ideal para la difusión de AIGI. Un mismo contenido se replica en decenas de páginas, acompañado de frases diseñadas para provocar reacción: «¿Te sentarías a tomar un café con ellos?»,«“Nadie le felicitó en su cumpleaños», «Si respetas a los agricultores, di hola».
No se pide verificar, solo sentir.
El estudio muestra que muchas de estas páginas operan en paralelo y que, además de imágenes falsas, utilizan cuentas automatizadas para comentar y amplificar la sensación de comunidad. El resultado es una ilusión de consenso emocional: si tanta gente reacciona, debe ser verdad.
Una pareja anciana sonríe frente a una casa de madera. «Llevan cincuenta años juntos». Quizá esta imagen y su leyenda genere en ti una reacción emocional, pero la escena nunca ocurrió, la pareja no existe y la imagen ha sido generada por IA. Crédito: IA-Gemini-RexMolón Producciones
Los sesgos que nos hacen caer
La clave del engaño no está solo en la inteligencia artificial, sino en cómo responde nuestra mente. El trabajo identifica varios sesgos cognitivos que se activan sistemáticamente ante estas imágenes. Miskolczi destaca estos tres:
✅ El más potente es el sesgo de confirmación: tendemos a aceptar con más facilidad aquello que encaja con nuestras creencias previas. Si creemos que «antes todo era mejor», una imagen idealizada del pasado rural refuerza esa idea sin necesidad de verificaciones.
✅ Otro mecanismo central es el anclaje emocional. La primera impresión —ternura, pena, indignación— actúa como un ancla que impide cuestionar los detalles. Una vez activada la emoción, la atención se desvía de las incoherencias visuales.
✅ También entra en juego el efecto de familiaridad: escenas que recuerdan a los abuelos, a la infancia o a símbolos religiosos generan confianza automática. Lo conocido se percibe como verdadero. Y el pensamiento grupal hace el resto: cuantos más comentarios y reacciones vemos, más fiable parece el contenido.
En conjunto, estos sesgos psicológicos crean una tormenta perfecta. Las imágenes no necesitan ser impecables: basta con que sean emocionalmente eficaces.
De la nostalgia a los conflictos interétnicos
Miskolczi explica que uno de los aspectos que más le llamó la atención durante la investigación fue el papel que juegan las secciones de comentarios como auténticos motores de credibilidad. A medida que se acumulan las respuestas de apoyo —felicitaciones, bendiciones o mensajes de ánimo—, estas contribuyen a fijar una interpretación dominante: la idea de que el contenido debe ser real, simplemente porque otros ya lo han aceptado como tal.
El investigador detectó además otro patrón significativo. Muchos usuarios no comentaban únicamente para reaccionar a la imagen, sino para conectar con otros, mitigar la sensación de soledad, obtener una respuesta o formar parte de un momento emocional compartido. Esto sugiere que el poder persuasivo de las imágenes generadas por inteligencia artificial no es solo visual, sino también social y relacional, y que se refuerza a través de la interacción entre usuarios.
Las estrategias engañosas, sin embargo, no resultaban igualmente eficaces en todos los casos. Según Miskolczi, las imágenes que evocaban la nostalgia o representaban la vejez destacaban por su capacidad para desactivar el pensamiento crítico y facilitar una aceptación acrítica del contenido. También las llamadas provocaciones indignantes, como la imagen de un niño supuestamente olvidado en su cumpleaños, lograban altos niveles de participación al convertir la empatía de los usuarios en un mecanismo de enganche emocional. En cambio, los temas más abiertamente controvertidos, como los conflictos interétnicos, tendían a generar mayores dosis de escepticismo y debate, lo que reducía su eficacia como herramientas de engaño.
Comentar es creer
Otro de los resultados del estudio que Miskolczi no quiere dejar pasar por alto es que comentar una AIGI no implica escepticismo, sino lo contrario. La mayoría de los comentarios analizados no cuestionan la autenticidad de la imagen, sino que la refuerzan: felicitaciones de cumpleaños, bendiciones religiosas, mensajes de ánimo, recuerdos personales.
Incluso quienes muestran dudas suelen centrarse en cómo se hizo la imagen, no en si es falsa. Y muchos críticos terminan discutiendo con bots sin saberlo, lo que refuerza la sensación de diálogo social en un espacio cada vez más artificial.
Los comentarios religiosos ocupan un lugar destacado. Expresiones como Amén o Dios los bendiga aparecen con frecuencia, especialmente en imágenes que mezclan emoción y espiritualidad. Según Miskolczi, este tipo de respuestas incrementa la confianza en el contenido y reduce aún más la vigilancia crítica.
Detectar lo falso sin algoritmos opacos
Frente a los detectores automáticos de IA —a menudo cajas negras— el estudio propone un método manual y transparente para identificar imágenes sospechosas. Se basa en observar señales visuales recurrentes: errores anatómicos, simetrías excesivas, texturas irreales, sombras incoherentes, textos ilegibles o anomalías en escenas de grupo.
No se trata de convertir a los usuarios en expertos técnicos, sino de entrenar la mirada. Aprender a dudar de lo demasiado perfecto o de lo emocionalmente calculado.
La propuesta tiene un claro componente de alfabetización digital: devolver a las personas herramientas de análisis en un entorno saturado de estímulos.
El riesgo a largo plazo: la erosión de la confianza
Más allá del engaño puntual, el estudio alerta de un efecto más profundo. Cuando los usuarios descubren que una imagen que les conmovió era falsa, no solo desconfían de ese contenido, sino de la plataforma digital y, en última instancia, de la propia inteligencia artificial.
El riesgo no es solo la desinformación, sino la fatiga cognitiva: dejar de creer en todo. En un ecosistema donde lo emocional sustituye a lo verificable, la frontera entre realidad y ficción se vuelve borrosa.
Los autores advierten de que, sin medidas claras —etiquetado de contenido, regulación, educación digital—, las imágenes generadas por IA pueden normalizar una cultura visual manipuladora. Una cultura donde lo importante no es si algo ocurrió, sino si logra conmovernos.
Recuperar el pensamiento crítico
El estudio no propone prohibir la tecnología, sino comprenderla. Las imágenes generadas por inteligencia artificial no son peligrosas por sí mismas. Lo son cuando se insertan en plataformas digitales que premian la emoción por encima de la verdad y cuando explotan sesgos cognitivos sin que el usuario sea consciente.
La solución pasa por varias capas: responsabilidad de las plataformas, transparencia, alfabetización mediática y, sobre todo, tiempo. Tiempo para mirar dos veces, para desconfiar de lo demasiado emotivo, para recordar que no todo lo que nos conmueve es real.
En la era de las imágenes sintéticas infinitas, pensar sigue siendo un acto revolucionario.▪️
TAMBIÉN TE PUEDE INTERESAR:
🖥️ ¿Eres capaz de distinguir los rostros humanos generados por IA de los reales?
Fuente: Márk Miskolczi. The illusion of reality: How AI-generated images (AIGIs) are fooling social media users. Computers in Human Behavior (2026). DOI: https://doi.org/10.1016/j.chb.2025.108876.

