Cómo los algoritmos de personalización distorsionan lo que aprendemos y lo que creemos

Los sistemas que recomiendan lo que vemos en internet no solo moldean nuestros gustos: también alteran cómo aprendemos y cómo interpretamos el mundo. Un nuevo estudio muestra que, sin darnos cuenta, estos algoritmos pueden fabricar sesgos, borrar información y reforzar falsas certezas.

Por Enrique Coperías

Creemos que navegamos por un océano infinito de información, pero los algoritmos nos dejan ver solo una franja estrecha del horizonte.

Creemos que navegamos por un océano infinito de información, pero los algoritmos nos dejan ver solo una franja estrecha del horizonte. Lo inquietante es que, con ese fragmento, nuestra mente construye un mundo entero… aunque esté distorsionado. Foto: Miguel Ángel Hernández

Los algoritmos distorsionan el aprendizaje desde el minuto uno

Las plataformas digitales nos prometen un mundo hecho a medida: vídeos que encajan con nuestros gustos, noticias relevantes para ti, música que parece leer nuestro estado de ánimo. Suavizan la navegación, ahorran tiempo y nos ofrecen un flujo inagotado de contenidos ajustados con precisión matemática. Pero bajo esa superficie amable se esconde una paradoja: cuanto más se adaptan a nosotros, menos vemos del mundo real.

Un estudio reciente publicado en la revista Journal of Experimental Psychology: General examina este fenómeno desde un ángulo poco habitual. En lugar de analizar cómo estas burbujas informativas influyen en nuestras creencias políticas o culturales —temas ya muy explorados—, los investigadores se preguntaron algo más básico: ¿pueden los algoritmos de personalización distorsionar los procesos cognitivos fundamentales con los que aprendemos sobre el mundo? Y la respuesta es inquietante.

Según el trabajo, realizado con más de trecientos participantes, la personalización conduce a un aprendizaje sesgado, a representaciones mentales incorrectas y a una sorprendente sobreconfianza en conocimientos que, en realidad, son falsos. En otras palabras: no solo vemos menos del mundo, sino que además creemos entenderlo mejor.

«Pero nuestro estudio muestra que, incluso cuando no sabes nada sobre un tema, estos algoritmos pueden empezar a generar sesgos de inmediato y conducir a una visión distorsionada de la realidad», explica Giwon Bahg, del Departamento de Psicología en la Universidad Vanderbilt (Estados Unidos) y autor principal del estudio.

El experimento de los «alienígenas»: un diseño sin sesgos previos

Para evitar que las expectativas, los prejuicios o la carga semántica contaminasen el estudio, como ocurre cuando se analizan noticias o contenidos políticos, los investigadores diseñaron un entorno experimental completamente artificial. Los participantes debían aprender a clasificar alienígenas cristalinos, criaturas ficticias formadas por seis rasgos visuales (posición, brillo, orientación, curvatura, etc.). Nada que recordase a experiencias previas.

La clave no estaba en los extraterrestres en sí, sino en cómo se mostraban.

Los autores implementaron una versión adaptada del algoritmo que emplea YouTube para recomendar vídeos. Igual que la plataforma infiere qué queremos ver según nuestro comportamiento, este algoritmo aprendía sobre cada participante: qué características de los aliens consultaba más, qué categorías parecía preferir, qué rasgos consideraba más informativos.

A partir de esa información, el sistema comenzaba a restringir el universo de estímulos y a mostrar con mayor frecuencia aquellos que predecía que el usuario examinaría con más atención. En algunos grupos, incluso se personalizaba el orden en que se revelaban los rasgos de cada criatura.

En otras palabras, cada persona acababa aprendiendo en un mundo distinto, moldeado por el algoritmo a partir de sus propios pasos iniciales.

Menos diversidad, más sesgos: la burbuja cognitiva

Los resultados muestran algo tan sorprendente como preocupante: cuanto más se personalizaba la información, menos diversa era la experiencia de aprendizaje.

Las categorías de aliens que se enseñaban con más frecuencia variaban entre participantes, pero siempre se reducía drásticamente el abanico total. En algunos casos, el algoritmo empujaba repetidamente a un pequeño conjunto de categorías (por ejemplo, las equivalentes a los géneros 5 y 6 en el modelo experimental), mientras que otras simplemente desaparecían del horizonte cognitivo. El patrón es análogo a cuando una plataforma de vídeos insiste en recomendarnos solo un tipo de contenido porque hace semanas hicimos clic en un vídeo concreto.

Lo relevante es que la reducción de diversidad no solo afectaba a los temas aprendidos, sino también a las características de los alienígenas. Los participantes empezaban examinando muchos rasgos… pero en los entornos personalizados, acababan atendiendo solo a unos pocos. Su atención se estrechaba de forma progresiva y automatizada.

En las condiciones control, sin personalización, los voluntarios exploraban más, comparaban más y distribuían su atención entre todos los rasgos. En cambio, bajo el influjo del algoritmo, el aprendizaje se volvía miope, o sea, se centraba en lo que confirmaba los patrones ya iniciados.

Lo que en internet llamamos filtro burbuja, aquí se traducía literal y cognitivamente en empobrecimiento de información.

Representación visual de cómo los algoritmos de personalización encierran a cada usuario en su propia burbuja informativa. Un nuevo estudio muestra que este filtrado reduce la diversidad de lo que aprendemos, genera sesgos cognitivos y alimenta una peligrosa sobreconfianza en conocimientos incompletos o erróneos. Crédito: IA-Gemini-RexMolón-Producciones

Representaciones mentales distorsionadas

Uno podría pensar que, pese a todo, aprender menos podría no ser tan grave… siempre y cuando lo aprendido sea correcto. Pero no fue así.

Tras la fase de aprendizaje, los participantes se sometieron a una prueba sin ayudas: debían clasificar nuevos extraterrestres en una de las ocho categorías. En los grupos sin personalización, la precisión era razonablemente buena, incluso cuando las estructuras de categorías eran complejas.

En cambio, quienes aprendieron en entornos personalizados mostraron representaciones mucho más erróneas. Confundían categorías que nunca habían visto con otras más familiares; extrapolaban mal; asociaban estímulos nuevos a grupos que el algoritmo les había mostrado en exceso.

Las matrices de confusión, utilizadas para comparar la precisión, mostraban patrones claros: las personas no estaban adivinando al azar, sino que habían construido un mapa mental sesgado, una versión deformada del mundo que el algoritmo les había dejado ver.

Dicho de otra manera: cuando el entorno informativo es selectivo, la mente construye teorías equivocadas sobre cómo funciona la realidad.

La sobreconfianza: el efecto más peligroso

El hallazgo más llamativo llega cuando se analiza la confianza con la que los participantes respondían. Si su categorización era correcta y el estímulo pertenecía a una categoría mostrada con frecuencia, la confianza era alta, como es natural. Sin embargo, cuando clasificaban mal alienígenas de categorías que nunca habían visto, su confianza también era sorprendentemente alta.

Es decir, estaban convencidos de saber algo que nunca habían aprendido.

🗣️ Bahg subraya esa paradoja con inquietud: «Estaban aún más seguros cuando realmente se equivocaban en sus decisiones que cuando acertaban, lo cual es preocupante porque tenían menos conocimiento».

Esta sobreconfianza rompe el vínculo habitual entre conocimiento y prudencia. Normalmente, cuando no sabemos algo, dudamos. Pero en un entorno personalizado —donde el algoritmo nos hace vivir en un mundo más pequeño, más coherente y más predecible— la mente puede llegar a sobreestimar la solidez de sus propias conclusiones.

🗣️ «Las personas pasan por alto información cuando siguen un algoritmo, pero creen que lo poco que saben se generaliza a otras características y a otras partes del entorno que nunca han experimentado», dice Brandon Turner, psicólogo de la Universidad Estatal de Ohio y coautor del estudio.

Qué significa esto para YouTube, TikTok y la generación más joven

Aunque el experimento trataba con alienígenas ficticios, sus implicaciones son muy reales. En la vida cotidiana, ningún usuario sabe qué proporción del contenido potencial le está ocultando el algoritmo. Esta opacidad dificulta calibrar nuestra confianza: si solo vemos un tipo de opinión, un tipo de noticia o un tipo de vídeo, podemos llegar a creer que eso es lo que existe.

Este estudio demuestra que la burbuja no solo es informativa, sino cognitiva: afecta a cómo atendemos, cómo generalizamos, qué inferimos y cuán seguros estamos de nuestras inferencias.

Peor aún: estos efectos no requieren intereses preexistentes ni ideologías fuertes. En el experimento, los participantes no tenían preferencias sobre alienígenas. El sesgo nació solo de la interacción entre algoritmo y usuario. Incluso en un vacío cultural y emocional, la personalización basta para generar distorsiones profundas.

¿Qué dice esto sobre las plataformas reales?

Los autores son cautos: no buscan extrapolar directamente a plataformas como YouTube o TikTok. Pero la analogía es inevitable.

Muchos estudios previos, sobre todo en comunicación y ciencia política, han tenido dificultades para demostrar empíricamente el efecto de los algoritmos de recomendación sobre la polarización. Este trabajo aporta una visión complementaria: aunque los usuarios tengan gran parte de responsabilidad en lo que consumen online, los algoritmos pueden modificar la propia estructura del aprendizaje, creando sesgos que antes no existían.

Esto sugiere que la relación entre usuario y algoritmo no es unilateral. No es solo que el algoritmo refuerce nuestras preferencias: ayuda a crearlas.

Los algoritmos de personalización no solo moldean nuestros gustos: también reescriben lo que aprendemos y cómo lo interpretamos.

Los algoritmos de personalización no solo moldean nuestros gustos: también reescriben lo que aprendemos y cómo lo interpretamos. Sin saberlo, navegamos un mundo hecho a medida… pero no necesariamente a conciencia. Crédito: IA-Copilot-RexMolón-Producciones

La personalización reconfigura lo que aprendemos

Quizá la enseñanza más poderosa del estudio es que un entorno personalizado puede reducir la diversidad de lo que aprendemos, distorsionar lo que creemos y aumentar injustificadamente nuestra confianza en esas creencias.

En un momento histórico en el que las sociedades afrontan fenómenos como la desinformación, la polarización y la fragmentación cultural, estos resultados revelan un mecanismo psicológico profundo: cuanto más estrecho es el mundo que vemos, más creemos entenderlo.

Turner lo plantea con una pregunta inquietante: «Si tienes a un niño pequeño intentando aprender genuinamente sobre el mundo, y está interactuando con algoritmos en línea que priorizan que los usuarios consuman más contenido, ¿qué va a ocurrir?»

Y concluye: «Consumir contenido similar suele no estar alineado con el aprendizaje. Esto puede causar problemas para los usuarios y, en última instancia, para la sociedad.»

Pero quizá lo más llamativo es que basta con cambiar la forma en que se nos ofrece la información —sin modificar su contenido— para alterar la manera en que pensamos. La personalización no es un mero filtro tecnológico. Es una fuerza que reconfigura la mente. ▪️

Siguiente
Siguiente

Avatares inclusivos en el metaverso: cómo las personas con discapacidad viven la inclusión y el acoso en la realidad virtual