Cinco minutos para ver lo invisible: cómo un breve entrenamiento ayuda a detectar rostros falsos creados por IA
Cinco minutos bastan para entrenar al cerebro y ver lo que la inteligencia artificial intenta ocultar. Un simple ejercicio mejora la capacidad humana para detectar rostros falsos creados por IA, una habilidad clave en la era de los deepfakes.
Por Enrique Coperías
Ejemplos de los rostros utilizados en el experimento: caras femeninas sintéticas (a), masculinas sintéticas (b), femeninas reales (c) y masculinas reales (d). En la fila inferior (e) se muestran algunas de las imágenes generadas por IA empleadas en el entrenamiento, con imperfecciones destacadas para los participantes, como cabello mal renderizado o dientes en número incorrecto.
La próxima vez que veas una cara en internet, piensa dos veces antes de confiar en ella. Puede que no pertenezca a una persona real. En los últimos años, las redes generativas adversarias (GAN), por sus siglas en inglés, han aprendido a fabricar rostros humanos indistinguibles de los auténticos: sonrisas, arrugas, poros de la piel, miradas... todo parece real. Y, sin embargo, no existe.
La frontera entre lo humano y lo sintético se ha vuelto tan borrosa que incluso los expertos fallan más de lo que aciertan al intentar distinguir entre una fotografía real y una creada por inteligencia artificial (IA).
Un equipo de psicólogos de las universidades de Reading, Greenwich, Leeds y Lincoln, en el Reino Unido, ha explorado una posible defensa: entrenar el ojo humano. Su estudio, publicado en la revista Royal Society Open Science, demuestra que cinco minutos de entrenamiento bastan para mejorar significativamente la capacidad de detectar rostros falsos, incluso frente a los modelos de inteligencia artificial más sofisticados. El hallazgo sugiere que una combinación de talento natural y formación rápida podría convertirse en una herramienta útil para combatir la desinformación visual.
El reto del «hiperrealismo» de la IA
Los investigadores parten de un problema creciente: la hiperrealidad artificial. Diversos estudios han mostrado que las caras generadas por IA no solo resultan difíciles de identificar, sino que a menudo parecen más reales y más confiables que las verdaderas. Este fenómeno, denominado hiperrealismo de la IA, se explica porque los algoritmos tienden a crear rostros promedio: simétricos, familiares, libres de imperfecciones o rasgos extremos.
En la percepción humana, lo promedio se asocia a lo genuino, de modo que los rostros generados por las redes generativas adversarias (GAN) pueden parecer más auténticos que los auténticos.
Recordemos que las GAN son un tipo de IA capaz de crear imágenes completamente nuevas a partir de datos reales. Funcionan mediante dos redes neuronales que compiten entre sí: una, llamada generador, produce imágenes falsas a partir de ruido digital, mientras que la otra, el discriminador, intenta distinguir si esas imágenes son reales o sintéticas.
Con el entrenamiento, ambas redes se perfeccionan mutuamente hasta que los resultados del generador se vuelven prácticamente indistinguibles de los auténticos. Esta tecnología, desarrollada en 2014 por el informático, ingeniero y ejecutivo estadounidense Ian Goodfellow, está detrás de muchos de los deepfakes y rostros artificiales hiperrealistas que circulan hoy por internet.
Desde campañas de acoso hasta manipulación política
El riesgo de esta hiperrealidad artificial no es menor. Las imágenes creadas con GAN se han usado para generar perfiles falsos en redes sociales, campañas de acoso, estafas digitales o manipulación política.
Aunque las empresas tecnológicas desarrollan sistemas automáticos de detección, los humanos siguen siendo una pieza clave: el elemento de supervisión que aporta contexto, intención y matices que las máquinas todavía no alcanzan. Es lo que se conoce como humano en el bucle (Human in the loop), sistemas en los que las personas participan de forma activa en algún paso de cualquier tipo de proceso, por lo general en su supervisión, en la toma de decisiones o en la valoración y ajuste de sus resultados, para asegurar que estos funcionen de manera eficiente, precisa y ética.
🗣️ «Los rostros generados por ordenador suponen un auténtico riesgo para la seguridad —advierte la doctora Katie Gray, investigadora principal de la Universidad de Reading. Y añade—: Se han utilizado para crear perfiles falsos en redes sociales, eludir sistemas de verificación de identidad y fabricar documentos falsos. Las caras producidas por la última generación de programas de inteligencia artificial son extremadamente realistas. A menudo, la gente juzga los rostros generados por IA como más reales que los rostros humanos auténticos».
Los superreconocedores, el talento humano frente a la IA
En este contexto, los autores se preguntaron si algunas personas podrían tener una ventaja natural. Existen individuos conocidos como superreconocedores que son capaces de recordar y distinguir rostros con una precisión extraordinaria, muy por encima de la media.
Se calcula que representan menos del 2% de la población, y sus habilidades ya se han utilizado en tareas policiales y de seguridad, como la identificación de sospechosos en grabaciones de baja calidad.
Pero ¿sirven esos mismos dones para detectar rostros falsos generados por IA? Y si es así, ¿puede la gente común aprender a hacerlo con algo de práctica?
Rostro femenino generado con Canva.
Dos experimentos, un hallazgo: el ojo se puede entrenar
Para averiguarlo, los investigadores reclutaron a más de 660 participantes, entre ellos 283 superreconocedores y varios grupos de control. Les mostraron fotografías reales de personas tomadas de la base de datos pública Flickr-Faces-HQ y retratos sintéticos creados con StyleGAN3, el modelo de generación de imágenes más avanzado hasta la fecha.
En un primer experimento, los voluntarios debían decidir si una imagen aislada era real o irreal. En otro, se les presentaban dos rostros a la vez —uno auténtico y otro generado por IA— y debían señalar cuál de los dos era el falso.
Los resultados iniciales fueron desalentadores: la mayoría de los participantes, incluidos los superreconocedores, apenas lo hacían mejor que el azar. Los grupos de control incluso mostraban un sesgo sistemático hacia el error: tendían a juzgar los rostros sintéticos como más reales que los verdaderos. La inteligencia artificial había superado a la inteligencia humana.
Sin embargo, el panorama cambió tras un entrenamiento de apenas cinco minutos. Antes de repetir las pruebas, un nuevo grupo de voluntarios recibió una breve sesión online en la que se les mostraban ejemplos de artefactos de renderizado, o sea, pequeñas imperfecciones que delatan la naturaleza artificial de una cara, como mechones de pelo mal definidos, dientes asimétricos o transiciones extrañas entre el cuello y el fondo. Después, practicaron con diez imágenes mientras que recibían retroalimentación inmediata sobre sus aciertos y errores.
Esa sencilla intervención bastó para que la precisión aumentara entre un 10% y un 20%, situando a los superreconocedores por encima del nivel de azar y eliminando el sesgo del hiperrealismo en los participantes sin ese don.
🗣️ «Nuestro procedimiento de entrenamiento es breve y fácil de aplicar —dice la doctora Gray. Y cotinúa—: Los resultados sugieren que combinar este tipo de formación con las capacidades naturales de los super-reconocedores podría ayudar a abordar problemas del mundo real, como la verificación de identidades en línea».
Cómo cinco minutos pueden cambiar la forma de mirar
Pero, ¿por qué funciona un entrenamiento tan breve? El equipo propone dos explicaciones complementarias:
✅ Enseñar a fijarse en los detalles equivocados —las irregularidades invisibles— cambia la estrategia perceptiva: los participantes dejan de confiar en su intuición, que les engaña con el “parece humano, luego es real”, y comienzan a analizar la imagen de manera más deliberada.
✅ El entrenamiento actúa como un recordatorio atencional, que reorienta la mirada hacia zonas críticas, como ojos, dientes, pelo y fondos, donde los algoritmos de IA suelen fallar.
Curiosamente, los superreconocedores respondían más despacio que los demás, lo que sugiere que adoptaban un enfoque más cuidadoso, mientras que los controles tendían a decidir más rápido y con menos precisión. Los investigadores señalan que el tiempo extra podría reflejar un procesamiento más profundo o una búsqueda activa de inconsistencias.
Rostros diversos y sesgos de los algoritmos
El estudio también analizó si la etnia o el color de piel de los rostros influían en la capacidad de detección. Aunque los resultados fueron consistentes en todas las categorías, los participantes, fuesen del origen que fuesen, mostraron una ligera mayor sensibilidad ante los rostros no blancos, quizá porque los algoritmos de entrenamiento de las GAN, al estar sesgados hacia rostros caucásicos, producen más errores en los demás grupos étnicos.
Comparación entre StyleGAN2 y StyleGAN3: vídeos de interpolación generados con ambas versiones del modelo, entrenadas con la base de datos FFHQ-U, que muestran el efecto conocido como texture sticking (fijación de texturas) presente en StyleGAN2, donde los patrones de la piel o el fondo se desplazan de forma poco natural al moverse el rostro.
Humanos contra máquinas: la carrera continúa
El trabajo aporta una conclusión inquietante: a medida que las GAN se perfeccionan, los humanos empeoran. Los autores comparan sus resultados con los de estudios previos que usaban modelos más antiguos (como StyleGAN2) y constatan una caída significativa en la precisión de los observadores.
«Debemos mantenernos al día con los avances de la IA si queremos conservar la capacidad de detectar lo falso», advierten la doctora Gray y su equipo.
Su propuesta pasa por combinar entrenamiento específico y talento natural. En escenarios de seguridad digital o verificación de contenido, un pequeño grupo de superreconocedores entrenados podría servir como última línea de defensa frente a imágenes sintéticas cada vez más convincentes. Pero, a largo plazo, los investigadores defienden un enfoque mixto: integrar humanos entrenados dentro de sistemas automáticos de detección (humano en el bucle) que aprovechen lo mejor de ambos mundos.
Una alfabetización visual para la era digital
El mensaje optimista del estudio es que no hace falta ser un superdotado para aprender a ver lo invisible. Bastan unos minutos de práctica guiada para aumentar la atención y reducir los sesgos de confianza hacia las imágenes generadas por IA.
En un entorno saturado de desinformación visual, desde retratos ficticios hasta vídeos deepfake, esta habilidad podría convertirse en una forma de alfabetización digital básica, tan necesaria como saber reconocer una fuente fiable o detectar una noticia falsa.
«Si cinco minutos de entrenamiento pueden cambiar la forma en que miramos una cara, imaginar lo que podría lograrse con programas educativos más amplios», concluyen los autores. En la era de las falsificaciones perfectas, ver sigue siendo creer, pero solo si sabemos mirar. ▪️
Información facilitada por la Universidad de Reading
Fuente: Katie L. H. Gray et al. Training human super-recognizers' detection and discrimination of AI-generated faces, Royal Society Open Science (2025). DOI: https://doi.org/10.1098/rsos.250921

