Cómo el narcisismo y la inteligencia artificial afectan a la deshonestidad académica en estudiantes de arte
¿Puede la personalidad predecir quién hará trampa usando inteligencia artificial en la universidad? Un nuevo estudio en China saca a la luz el inquietante vínculo entre los rasgos oscuros de la personalidad, la ansiedad académica y el uso ético (o no) de herramientas como ChatGPT y Midjourney.
Por Enrique Coperías
Un estudio realizado en universidades chinas revela el vínculo entre conducta académica, salud mental y uso de herramientas como ChatGPT y Midjourney. Demuestra que la personalidad del estudiante, su salud mental y su contexto académico son claves para entender el abuso de la IA en los trabajos académicos. Foto: El Swaggy
La inteligencia artificial ha irrumpido en nuestras vidas con la fuerza de una revolución tecnológica, y está transformando desde cómo trabajamos hasta cómo creamos arte. Sin embargo, su impacto en la educación superior, especialmente en campos creativos como las artes, abre interrogantes inquietantes sobre la ética, la originalidad y el comportamiento de los estudiantes.
Una nueva investigación desarrollada en seis universidades artísticas de la provincia de Sichuan (China) se adentra precisamente en ese terreno.
En las aulas de Arte de las universidades de Sichuan, la creatividad no siempre brota del pincel o el instrumento. A veces, basta con teclear unas palabras en una aplicación de inteligencia artificial generativa para obtener una imagen, una melodía o incluso una crítica escrita.
La trampa de la creatividad exprés
Esta nueva facilidad, que promete democratizar el proceso creativo, también plantea un dilema ético que se está expandiendo por los campus de todo el mundo: ¿dónde acaba la creatividad humana y dónde empieza el plagio asistido por IA?
Ni cabe duda de que pocas innovaciones han sido acogidas con tanto fervor en el ámbito creativo como como ChatGPT, DALL·E, Midjourney y otras herramientas de IA generativa. Estas han despertando un entusiasmo difícil de contener. Pero mientras estas tecnologías abren nuevas posibilidades, también diluyen la línea entre inspiración y plagio.
«Con solo unos comandos, un estudiante puede generar una imagen artística sin haber pasado por el proceso de creación manual”» explican los autores de la investigación.
Esta facilidad, unida a las presiones por destacar y al sistema competitivo de acceso a las universidades en China, genera un cóctel peligroso, una auténtica bomba de relojería.
El estudio, liderado por los investigadores Jingyi Song y Shuyan Liu y publicado en la revista BMC Psychology, profundiza en la relación entre determinados rasgos de personalidad —los llamados rasgos oscuros— y los comportamientos problemáticos, como la deshonestidad académica, la procrastinación y la dependencia de herramientas de inteligencia artificial generativa.
¿Qué son los «rasgos oscuros»?
El trabajo chino parte de un concepto bien conocido en psicología: la tríada oscura de la personalidad, que incluye el narcisismo, el maquiavelismo y la psicopatía. A estos, los investigadores añadieron el materialismo como un cuarto rasgo relevante para los entornos académicos contemporáneos:
✅ Narcisismo: tendencia a la grandiosidad, la vanidad y la necesidad de admiración.
✅ Maquiavelismo: inclinación a la manipulación y el cálculo estratégico para beneficio personal.
✅ Psicopatía: impulsividad, falta de empatía y desprecio por las normas sociales.
✅ Materialismo: valoración excesiva de los bienes materiales como medida del éxito y del valor personal.
Según los autores, estos rasgos de personalidad predisponen a los estudiantes a justificar conductas deshonestas si perciben que otros obtienen beneficios sin consecuencias, un patrón coherente con la teoría social cognitiva de Albert Bandura. Esta sostiene, de forma muy resumida, que el comportamiento humano es producto de la interacción entre factores personales, como los pensamientos y las emociones; conductuales y ambientales, en un proceso llamado determinismo recíproco.
Arte, presión y recursos tecnológicos
La elección de estudiantes de Arte como grupo de análisis no fue casual. En China, los jóvenes que estudian disciplinas artísticas, como danza, música, teatro o artes visuales, suelen enfrentarse a una doble presión: demostrar una excelencia técnica y, a la vez, una creatividad auténtica.
«Los estudiantes de Arte están a la vanguardia del debate ético sobre el uso de IA —apuntan los autores—. Son los primeros en enfrentarse a preguntas sobre autoría, autenticidad y creatividad asistida».
En ese sentido, este colectivo representa una especie de laboratorio viviente para observar cómo interactúan personalidad, tecnología y conducta ética.
A dicha presión se suma la subjetividad en la evaluación por parte de los profesores y la feroz competencia por entrar en instituciones prestigiosas, lo que puede generar ansiedad y frustración entre los aspirantes.
En este contexto, las herramientas de inteligencia artificial generativa se convierten en un arma de doble filo. Aunque pueden potenciar el proceso creativo, también permiten producir obras visuales complejas sin apenas esfuerzo. Para algunos estudiantes, esto representa una forma de reducir el estrés; para otros, una vía rápida —aunque éticamente dudosa— para obtener buenos resultados.
Resultados clave del estudio: ¿Quién juega sucio con la IA y por qué?
El trabajo, que recogió datos de 504 estudiantes mediante encuestas validadas, revela vínculos significativos entre los rasgos oscuros de la personalidad y ciertos comportamientos académicos problemáticos. Entre los hallazgos más destacados, Song y Liu citan los siguientes:
1️⃣ Los estudiantes con altos niveles de narcisismo, maquiavelismo, psicopatía o materialismo eran más propensos a engañar en sus trabajos, sentir ansiedad académica y posponer tareas.
2️⃣ Estas conductas, a su vez, se relacionaban con altos niveles de frustración y pensamientos negativos. Es decir, no solo se comportaban de forma cuestionable, sino que esto también repercutía en su bienestar emocional.
3️⃣ El uso habitual de herramientas de IA generativa también estaba fuertemente asociado a estos comportamientos y estados emocionales. Aquellos que sentían más ansiedad, procrastinaban o se comportaban de forma deshonesta, eran también quienes más recurrían a la IA para resolver sus trabajos.
4️⃣ La deshonestidad académica resultó ser el predictor más fuerte del uso de IA, incluso más que la ansiedad y la procrastinación.
En otras palabras, el estudiante que copia un trabajo con ayuda de ChatGPT no lo hace solo por estrés o falta de tiempo, sino también porque ciertos rasgos de su personalidad lo llevan a ver ese comportamiento como aceptable.
Un estudiante de arte colabora con un robot para pintar un paisaje, ilustrando cómo la inteligencia artificial se integra en los procesos creativos. La escena refleja el dilema ético actual en la educación artística: ¿asistencia legítima o atajo tecnológico? Imagen generada con DALL-E
La trampa de la IA como solución rápida
El estudio también explora cómo los estudiantes con mayor dependencia de la IA suelen utilizar estas herramientas como mecanismos de afrontamiento.
Para aquellos que sienten ansiedad o están frustrados, una imagen generada por Midjourney o un texto redactado por ChatGPT pueden parecer soluciones eficaces para cumplir con las exigencias académicas sin tener que enfrentarse a sus propias limitaciones o temores al fracaso.
Sin embargo, esta dependencia tecnológica puede reforzar el círculo vicioso: a mayor uso de la IA sin un enfoque ético, más se diluyen los límites entre el aprendizaje legítimo y el engaño.
¿Qué pueden hacer universidades y profesores para evitar los engaños con IA?
Frente a estos desafíos, el estudio ofrece recomendaciones claras para las universidades y los docentes. Algunas de ellas incluyen:
✅ Identificar tempranamente a los estudiantes con tendencias deshonestas o niveles altos de ansiedad. Para ello, pueden implementarse cuestionarios de autoinforme y observación del comportamiento digital.
✅ Rediseñar las evaluaciones para que premien el proceso y no solo el resultado final. Por ejemplo, priorizar trabajos que requieran bocetos, documentación progresiva o reflexión crítica.
✅ Enseñar el uso ético de la IA como parte del currículo, subrayando la diferencia entre asistencia legítima y plagio.
✅ Fomentar el pensamiento creativo y la motivación intrínseca, valores que protegen frente a la deshonestidad al empoderar a los estudiantes para desarrollar soluciones originales.
También se sugiere que los docentes reciban formación en cómo adaptar sus estrategias de evaluación para reducir las oportunidades del juego sucio tecnológico, y que se instauren códigos de honor académicos con consecuencias claras.
Limitaciones y preguntas abiertas
A pesar de sus aportes, Song y Liu reconocen que su trabajo tiene ciertas limitaciones. Al basarse en autoinformes, los datos pueden estar sesgados por el deseo de los participantes de presentarse bajo una luz favorable. Además, el diseño transversal impide establecer causalidad: no se puede afirmar con certeza si la personalidad causa la deshonestidad o viceversa.
Asimismo, los resultados se centran exclusivamente en estudiantes de arte en China, lo que limita su aplicabilidad a otros contextos culturales o disciplinas académicas.
Para futuras investigaciones, los autores proponen analizar el papel de herramientas específicas de IA, como ChatGPT y DALL-E, así como explorar también el impacto de rasgos positivos, como la empatía o la creatividad, en la prevención del fraude académico.
Ética, tecnología y personalidad en la educación del futuro
El trabajo de Song y Liu nos recuerda que los dilemas éticos en la educación superior no surgen únicamente por la irrupción de nuevas tecnologías. También dependen, y mucho, de quiénes las usan y con qué objetivos.
En un mundo donde la línea entre creación y automatización es cada vez más difusa, educar a los estudiantes no solo en competencias técnicas, sino en integridad, pensamiento crítico y autorregulación emocional, se vuelve tan esencial como saber manejar una herramienta de IA.
Porque al final, no se trata solo de lo que una máquina puede hacer por nosotros, sino de lo que elegimos hacer con ella.▪️
Fuente: Song, J., Liu, S. Dark personality traits are associated with academic misconduct, frustration, negative thinking, and generative AI use habits: the case of Sichuan art universities. BMC Psychol (2025). DOI: https://doi.org/10.1186/s40359-025-02949-w