¿Usar la inteligencia artificial en el trabajo hace que parezcas menos competente? La penalización social oculta del empleo de la IA

Recurrir a la inteligencia artificial en el trabajo ya no es solo una cuestión de eficiencia, sino también de percepción. Un nuevo estudio advierte de que quienes la utilizan pueden ser vistos como menos competentes y más perezosos, aunque rindan más y mejor.

Por Enrique Coperías

¿No nos digas que has usado la IA en tu trabajo? La percepción de que la inteligencia artificial actúa como un agente autónomo puede perjudicarte en ciertos entornos laborales, al infravalorarse tus habilidades, según un nuevo estudio

¿No nos digas que has usado la IA en tu trabajo? La percepción de que la inteligencia artificial actúa como un agente autónomo puede perjudicarte en ciertos entornos laborales, al infravalorarse tus habilidades, según un nuevo estudio. Imagen generada con DALL-E

La inteligencia artificial (IA) está revolucionando la productividad en las empresas. Desde asistentes generativos hasta herramientas de automatización, el uso de tecnología basada en IA se extiende rápidamente en oficinas, startups y entornos digitales. Pero un nuevo estudio publicado en PNAS (2025) lanza una alerta inesperada: usar IA en el trabajo podría afectar negativamente a tu imagen profesional.

Sí, aunque la IA mejora el rendimiento, puede tener un coste invisible: ser percibido como menos competente, menos motivado y más vago por compañeros y superiores. Este fenómeno, que los investigadores llaman penalización social por usar IA, podría ser una barrera silenciosa a la adopción generalizada de estas tecnologías.

El equipo de investigación, compuesto por Jessica Reif, Richard Larrick y Jack Soll, de la Fuqua School of Business, en la Universidad Duke (Estados Unidos), diseñó una serie de cuatro experimentos con más de 4.400 participantes para analizar cómo se aprecia socialmente a quienes utilizan IA en los entornos laborales. Los resultados de la investigación fueron muy sólidos: tanto quienes usan la IA como quienes los observan coinciden en que esa ayuda tecnológica genera sospechas sobre la capacidad y la motivación del usuario.

¿Por qué se penaliza a quienes usan la IA?

El fenómeno tiene raíces en teorías clásicas de la psicología social, particularmente en la teoría de la atribución. Esta sugiere que, al evaluar el comportamiento de otros, las personas tienden a atribuir sus acciones más a características personales, como vagancia y falta de habilidad, que a factores externos, como las normas del entorno y la disponibilidad de herramientas).

Así, recibir ayuda de una inteligencia artificial puede ser interpretado no como un uso eficiente de recursos, sino como una señal de carencias personales.

Este tipo de juicio no es nuevo. A lo largo de la historia, las herramientas que simplifican tareas han sido recibidas con escepticismo. Desde los debates de Platón sobre si la escritura erosionaría la memoria, hasta las dudas modernas sobre el uso de calculadoras en la enseñanza o los prejuicios contra médicos que emplean sistemas de diagnóstico automatizados.

Sin embargo, la IA introduce una novedad: su carácter agente. En otras palabras, la percepción de que la inteligencia artificial actúa como un agente autónomo, es decir, como una entidad que, a diferencia, por ejemplo, es capaz de aprender de la experiencia (mediante datos), tomar decisiones propias (sin intervención humana directa) y realizar tareas complejas de forma adaptativa.

Esta aparente sofisticación tecnológica hace que se le atribuya a la IA parte del mérito del trabajo, que se resta a las habilidades del usuario humano.

Experimentos: ¿Cómo se midió el impacto social del uso de IA en el trabajo?

Para llegar a estas conclusiones, Reif, Larrick y Soll llevaron cuatro experimentos que se resumen a continuación:

Estudio 1: Expectativas sociales negativas. En el primer ensayo, los participantes imaginaron que habían usado una herramienta digital para facilitar su trabajo. A unos se les dijo que era una IA generativa, a otros que era un software tradicional. Quienes imaginaron usar la IA anticiparon que serían percibidos como más vagos, más reemplazables, menos competentes y menos trabajadores. Además, mostraron mayor reticencia a contar a sus jefes o colegas que habían usado una IA.

Estudio 2: Evaluaciones externas reales. Aquí los investigadores pasaron de la percepción anticipada a la real. Más de 1.200 personas evaluaron a trabajadores descritos como receptores de ayuda, ya fuera de una IA, de una persona, como un asistente, o de nadie. Los resultados fueron claros: los usuarios de IA fueron considerados significativamente más vagos y menos competentes que aquellos que recibían ayuda humana o ninguna ayuda. Estas percepciones se mantenían constantes sin importar el género, la edad o la profesión del evaluado.

Estudio 3: Decisiones de contratación. El tercer estudio introdujo una situación más realista: un proceso de selección laboral. Se pidió a unos hipotéticos candidatos realizar una tarea sencilla y luego reportar con qué frecuencia usaban la IA. Posteriormente, unos supuestos ejecutivos debían elegir a quién contratar para una tarea basada en esa información. Aquí surgió un matiz revelador: los reclutadores que usaban IA frecuentemente tendían a valorar mejor a los candidatos que también la empleaban. En cambio, los reclutadores menos familiarizados con estas tecnologías penalizaban a quienes recurrían a ellas, y optaban por candidatos que no mencionaban el uso de la IA.

Estudio 4: Contexto y percepción de utilidad. Por último, en el cuarto experimento se introdujo una variable contextual: la utilidad de la IA para el trabajo específico. A los evaluadores se les presentó a un candidato que usaba IA y se les dijo que el puesto consistía en una tarea manual o digital. La penalización por usar la inteligencia artificial fue significativa solo en el caso de tareas manuales, mientras que desapareció en el contexto digital donde la IA era vista como pertinente y eficaz.

¿Qué factores moderan el castigo social?

Una de las claves que revela el estudio es que la percepción negativa hacia los usuarios de la IA está mediada por el juicio de pereza. Este estereotipo impacta directamente en evaluaciones de idoneidad laboral.

Pero, crucialmente, este efecto disminuye si el evaluador también es usuario frecuente de la IA o si la tarea en cuestión es explícitamente adecuada para el empleo de estas herramientas.

En otras palabras, el estigma no es inevitable ni universal. Puede disminuir con el tiempo, con la normalización del uso de IA o con una mayor transparencia sobre su utilidad práctica.

Las herramientas de inteligencia artificial pueden echarte una mano en el trabajo, aunque en la actualidad hay directivos y compañeros de oficina que no lo ven así. Foto: Possessed Photography/ @possessedphotography

Un obstáculo invisible para la adopción de IA

Las implicaciones de estos hallazgos van más allá del ámbito académico. En un momento donde Gobiernos, empresas y universidades promueven la incorporación de herramientas de IA para mejorar la eficiencia, este trabajo sugiere que el miedo al juicio social podría ser una barrera no reconocida pero significativa.

A pesar de las ventajas objetivas que puede traer la inteligencia artificial, como aumentar la productividad, mejorar la toma de decisiones y facilitar la creatividad, muchas personas podrían optar por no usarla o al menos, no admitir que lo hacen, por temor a parecer incompetentes.

Este dilema podría afectar especialmente a quienes están en procesos de evaluación constante, como jóvenes profesionales, trabajadores freelance y personas en búsqueda de empleo.

¿Cómo evitar la penalización social por usar la IA en tu trabajo?

Para los autores del estudio, la solución no pasa por desalentar el uso de la inteligencia artificial, sino por fomentar una cultura organizacional que reconozca y valore el buen juicio tecnológico.

En vez de penalizar la eficiencia, se debería premiar la capacidad de integrar recursos de forma ética y estratégica. También apuntan a que, con el tiempo y el aumento del uso generalizado, estos prejuicios sociales podrían disminuir, como ha sucedido con otras tecnologías disruptivas en el pasado.

En cualquier caso, para evitar esta penalización invisible, conviene adoptar estrategias que integren la IA con transparencia, criterio y cultura colaborativa, como estas:

  1. Normaliza el uso de la IA en tu equipo: habla abiertamente de cómo te ayuda, como una herramienta de apoyo, no de reemplazo.

  2. Educa a tus colegas sobre los beneficios y límites de la IA.

  3. Adecúa el uso de la IA al tipo de tarea: la penalización desaparece si se entiende que la inteligencia artificial es útil y necesaria.

  4. Usa la IA de forma estratégica, demostrando criterio y capacidad, no dependencia.

  5. Apoya políticas empresariales que fomenten la innovación responsable.

Conclusión: tecnología útil, pero con sesgos sociales que superar

En palabras de Reif, este estudio evidencia una contradicción clave en el uso profesional de la inteligencia artificial: lo que mejora tu eficiencia puede empeorar cómo te ven los demás. Si bien la IA promete transformar la productividad, aún hay trabajo por hacer para eliminar el estigma que enfrentan sus usuarios. ▪️

Anterior
Anterior

¿Cuál es la mejor forma de dejar caer un huevo sin que casque? La ciencia tiene una respuesta «rompedora»

Siguiente
Siguiente

El declive silencioso: cómo el calor nocturno y el uso del suelo están diezmando a las abejas y otros insectos