¿Cómo perciben los ciudadanos la ciencia de la inteligencia artificial? Una mirada desde la opinión pública
Un nuevo estudio pone de manifiesto que la percepción pública de la inteligencia artificial es más negativa que la de otras disciplinas científicas, aunque menos politizada. ¿Qué piensan los ciudadanos sobre los científicos que trabajan con la IA? ¿Cómo influye la ideología política y el consumo de medios? Descúbrelo aquí.
Por Enrique Coperías
Según un estudio del Annenberg Public Policy Center, aunque el público percibe a los científicos de IA con más recelo que a los de otras disciplinas, esta desconfianza aún no está profundamente polarizada políticamente. Foto: Rod Long
Desde que OpenAI lanzó ChatGPT a finales de 2022 , la inteligencia artificial (IA) se ha convertido en un tema omnipresente en los debates públicos, alimentando tanto expectativas transformadoras como temores inquietantes.
Pero ¿cómo perciben realmente los ciudadanos esta rama de la ciencia que enseña a las máquinas realizar tareas que requieren de la inteligencia humana basándose en algoritmos y modelos que permiten a los diferentes sistemas aprender, razonar, reconocer patrones y tomar decisiones? ¿Qué imagen tienen de quienes la investigan y desarrollan? ¿Existe en torno a ella una brecha ideológica como ocurre con otras áreas científicas, como el cambio climático?
Un nuevo estudio publicado en la revista PNAS Nexus y liderado por investigadores del Annenberg Public Policy Center (APPC) y las universidades de Georgia State y Buffalo, ofrece una radiografía detallada de la opinión pública sobre la ciencia de la inteligencia artificial, comparada con otras disciplinas como la ciencia general y la ciencia del cambio climático.
¿Por qué el público no se fía de la inteligencia artificial?
El estudio se basa en el análisis de datos recogidos entre 2023 y 2025 a partir de una muestra representativa a nivel nacional de adultos estadounidenses. Para evaluar la percepción del público hacia tres dominios científicos —la ciencia en general, la ciencia del clima y la ciencia de la IA— los investigadores aplicaron un modelo llamado FASS (Factors Assessing Science’s Self-Presentation). Este mide cinco dimensiones: credibilidad, imparcialidad, prudencia, capacidad de autocorrección y beneficios percibidos.
Los resultados del trabajo no dejan lugar a la duda: los científicos que trabajan en inteligencia artificial reciben las valoraciones más negativas en comparación con sus colegas de otras áreas de la ciencia y la tecnología. Lo que alimenta en mayor medida la desconfianza es la creencia de que la IA, aunque bien intencionada, puede generar resultados inesperados y potencialmente dañinos.
«Identificar estas percepciones negativas puede ayudar a guiar la comunicación sobre la ciencia emergente —afirma el autor principal del estudio, Dror Walter, profesor de Comunicación Digital en la Universidad Estatal de Georgia y miembro distinguido del APPC. Y añade—: La preocupación del público sobre las consecuencias no deseadas de la IA invita a una evaluación transparente y bien comunicada sobre la eficacia de la regulación —sea autogestionada o gubernamental— de esta tecnología”.
IA e ideología política
Uno de los hallazgos más significativos del estudio es que, si bien el rechazo hacia la ciencia del clima y la medicina se ha intensificado en algunos sectores políticos —especialmente entre los conservadores— la ciencia de la inteligencia artificial todavía no ha sido politizada de la misma forma.
El equipo analizó cómo varían las percepciones según la ideología política:
✅ En el caso del cambio climático, la diferencia en la evaluación de los científicos entre liberales y conservadores alcanzó 1,32 puntos (en una escala de cinco).
✅ En la ciencia general, fue de 0,.85.
✅ Para la inteligencia artificial, esa brecha se redujo significativamente: tan solo 0,28 en 2025.
Esto sugiere que, aunque hay desconfianza hacia la IA, esa desconfianza no está —por ahora— arraigada en la identidad política de los ciudadanos.
El recelo a las nuevas tecnologías
Este hallazgo contrasta con lo ocurrido en otras áreas. La ciencia del cambio climático lleva años padeciendo el escepticismo por parte de sectores conservadores, alimentado en parte por ciertos medios de comunicación y discursos partidarios.
Y durante la pandemia de la covid-19, la confianza de los republicanos de Estados Unidos en los científicos médicos también cayó de forma notable.
«Nuestro estudio sugiere que la IA todavía no ha sido absorbida por las guerras culturales en Estados Unidos», subraya Walter.
Uno podría suponer que la desconfianza hacia la IA se debe a su novedad. Después de todo, las nuevas tecnologías suelen generar escepticismo inicial, hasta que la población se familiariza con ellas; solo hay que pensar en internet, los alimentos transgénicos o las vacunas de ARN mensajero. Sin embargo, el estudio desmiente esta hipótesis.
La figura metálica del androide simboliza la imagen distante y ambigua que gran parte del público tiene sobre la IA, según un estudio de 2025. Aunque la tecnología se integra en la vida cotidiana, persisten temores sobre su impacto imprevisible y una falta de conexión emocional con quienes la desarrollan. Imagen generada con DALL-E
Una percepción que no mejora con el tiempo
A pesar de que herramientas como ChatGPT, asistentes virtuales y sistemas de recomendación se han integrado cada vez más en la vida cotidiana desde 2022, la opinión del público sobre la IA y sus científicos no ha mejorado entre 2024 y 2025.
Según los investigadores, esto sugiere que el escepticismo hacia la IA no es solo una reacción pasajera provocada por la novedad, sino que podría responder a preocupaciones más profundas y duraderas.
Entre los trece aspectos evaluados en el modelo FASS, la inteligencia artificial obtuvo sus puntuaciones más bajas en categorías relacionadas con la prudencia, con frases como estas:
🤖 «Genera consecuencias no deseadas».
🤖 «No comparte mis valores».
🤖 «No me beneficia directamente».
También obtuvo peores notas en confianza (trustworthiness) y en imparcialidad percibida.
El rol de los medios de comunicación: menos impacto de lo esperado
Otro aspecto central del estudio fue el análisis del impacto de la exposición a distintos medios de comunicación sobre la percepción científica. En áreas como el cambio climático, los medios a los que los ciudadanos acuden para informarse de forma habitual son un potente predictor de las opiniones públicas: quienes consumen medios liberales o científicos tienden a tener visiones más positivas que quienes consumen medios de derechas, como Fox News.
En el caso de la inteligencia artificial, sin embargo, la influencia de los medios es mucho más débil. La correlación entre el tipo de medio y la opinión sobre la IA fue menor que en ciencia general o en cambio climático. Esto podría explicarse por el hecho de que la cobertura mediática sobre la IA aún no está tan fuertemente alineada con agendas partidarias, aunque en general tiende a resaltar los riesgos por encima de los beneficios.
«El enfoque cada vez más negativo de los medios sobre las aplicaciones de IA, incluído ChatGPT, probablemente contribuye a la percepción pública de que esta ciencia genera efectos no previstos», sugiere el estudio. Pero la falta de una narrativa política clara podría explicar por qué esas percepciones, aunque desfavorables, no siguen líneas ideológicas marcadas.
¿Y el apoyo al financiamiento público?
Uno de los temas clave que explora el artículo es cómo estas percepciones afectan al apoyo ciudadano hacia el financiamiento público de la ciencia. En teoría, si las personas ven a los científicos como creíbles, prudentes y alineados con sus valores, es más probable que respalden que el Estado invierta en sus investigaciones.
Esta relación se cumple en los casos de la ciencia general y la ciencia del clima. Pero en el caso de la IA, la conexión es mucho más tenue. De hecho, la ideología política —un factor determinante en el apoyo al financiamiento del resto de las áreas— no predijo el apoyo al financiamiento de la inteligencia artificial.
En otras palabras, ni siquiera aquellos que ven con buenos ojos la IA apoyan de forma consistente que su desarrollo se financie con fondos públicos. Esto sugiere que el respaldo a la investigación en inteligencia artificial podría depender de otros factores aún no explorados en profundidad, como el nivel de familiaridad personal con sus aplicaciones o la percepción de riesgos éticos y sociales.
Un mensaje para la comunidad científica y los comunicadores
La principal conclusión del estudio es clara: la ciencia de la inteligencia artificial se enfrenta un desafío de percepción pública. Aunque no está aún atrapada en la polarización política, el escepticismo hacia ella es real, persistente y se centra en su potencial para causar daños imprevistos.
Esto ofrece una valiosa oportunidad —y una advertencia— para la comunidad científica. Como señala Walter, «comprender cómo el público percibe a los científicos que desarrollan nuevas tecnologías puede ayudar a mejorar la comunicación, la transparencia y la regulación en torno a esas tecnologías».
Los investigadores advierten de que este es un momento crucial: si se logra transmitir de manera efectiva los mecanismos de control, autorregulación y responsabilidad que guían la investigación en IA, puede evitarse que esta disciplina siga el mismo camino de politización que otras áreas científicas.
Una ciencia en la cuerda floja
La inteligencia artificial avanza con rapidez, transformando sectores de cabo a rabo: desde la educación hasta la salud, pasando por los medios de comunicación, el comercio y la administración pública. Pero esa velocidad también genera ansiedad, incertidumbre y la sensación de que los mecanismos de control podrían no estar al día con los desarrollos tecnológicos.
Este estudio representa una llamada de atención: si no se abordan pronto y de forma abierta las preocupaciones del público, la IA podría convertirse en otra víctima de la desconfianza creciente hacia la ciencia y sus instituciones. Sin embargo, el hecho de que aún no esté profundamente politizada indica que hay margen para actuar.
La clave, según los autores, reside en un enfoque honesto, dialogante y proactivo. Escuchar las preocupaciones sociales no debe ser visto como un freno al desarrollo científico, sino como una vía para fortalecer su legitimidad y conexión con la ciudadanía.▪️
Información facilitada por el Annenberg Public Policy Center of the University of Pennsylvania
Fuente: Dror Walter, Yotam Ophir, Patrick E Jamieson, Kathleen Hall Jamieson. Public perceptions of AI science and scientists relatively more negative but less politicized than general and climate science. PNAS Nexus (2025). DOI: https://doi.org/10.1093/pnasnexus/pgaf163