La inteligencia artificial (IA) está reformulando el panorama creativo, y la música no es una excepción. Un estudio recientemente publicado en la revista PLOS One por el grupo de investigación Neuro-Com del Departamento de Comunicación Audiovisual y Publicidad de la Universitat Autònoma de Barcelona (UAB), con la colaboración del Instituto RTVE en Barcelona y la Universidad de Liubliana (Eslovenia), ofrece resultados reveladores sobre cómo la música creada por IA puede provocar respuestas emocionales más intensas que la compuesta por humanos.
La investigación se centró en analizar las reacciones de 88 participantes al visualizar vídeos con idéntico contenido visual, pero acompañados por tres tipos de música distintos: una banda sonora compuesta por humanos, una creada por IA utilizando instrucciones (prompts) simples, y otra también generada por IA pero con prompts complejos y detallados. Mientras los voluntarios visualizaban los clips, se monitorizaron sus respuestas fisiológicas —como la dilatación pupilar, el parpadeo y la respuesta galvánica de la piel— así como las emociones que declaraban experimentar.
Los resultados fueron concluyentes: la música generada por IA provocó una mayor dilatación pupilar, un claro indicio de activación emocional elevada. Además, las composiciones elaboradas a partir de prompts sofisticados generaron más parpadeo y variaciones en la conductancia de la piel, señales que los investigadores asocian a una mayor carga cognitiva. En cuanto a la percepción subjetiva, los participantes calificaron la música de IA como más excitante, aunque reconocieron sentir una mayor familiaridad con la música compuesta por humanos.
Este tipo de investigaciones no solo profundiza en el papel emocional de la música en la narrativa audiovisual, sino que también permite vislumbrar el futuro de la producción creativa, donde la colaboración entre humanos y algoritmos podría redefinir cómo concebimos la emoción en el arte sonoro.
Este estudio, liderado por Nikolaj Fišer —doctorando en la UAB y en la Universidad de Liubliana—, Miguel Ángel Martín Pascual, del Instituto RTVE, y Celia Andreu Sánchez, directora del grupo Neuro-Com, tiene implicaciones de gran calado para la industria audiovisual. No solo apunta a la posibilidad de optimizar el impacto emocional del contenido mediante herramientas algorítmicas, sino que también plantea interrogantes sobre los procesos mentales que activan este tipo de estímulos sonoros.
Nikolaj Fišer explica que «ambos tipos de música generada por IA condujeron a una mayor dilatación pupilar y fueron percibidos como más estimulantes emocionalmente en comparación con la música creada por humanos». Esta reacción fisiológica es ampliamente aceptada como señal de mayor activación emocional. Añade además que «nuestros hallazgos sugieren que decodificar la información emocional de la música generada por IA puede requerir un mayor esfuerzo cognitivo», lo que apunta a que, aunque la IA puede igualar o incluso superar el impacto emocional de la música humana, su interpretación por parte del cerebro podría implicar mecanismos distintos o más complejos.
El artículo completo está disponible en acceso abierto bajo el título «Emotional impact of AI-generated vs. human-composed music in audiovisual media: A biometric and self-report study», en la revista PLOS One https://doi.org/10.1371/journal.pone.0326498.
Artículo redactado con asistencia de IA (Ref. APA: OpenAI. (2025). ChatGPT (versión 25 julio). OpenAI)