Tecnologia

Un estudio indica que la música creada por IA podría ser más conmovedora que la hecha por humanos

8786302326.png

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

BARCELONA- Según un comunicado publicado en el sitio web de la UAB, en esta nueva investigación se llevó a cabo un análisis de las reacciones fisiológicas y emocionales de 88 personas voluntarias al observar vídeos con la misma imagen pero diferente música; una creada por humanos, y otra música generada por inteligencia artificial “con instrucciones (prompts) complejas y detalladas, y música generada por IA con un prompt simple y menos detallado”.

Los resultados de este estudio, publicados en la revista PLOS One, revelan que la inteligencia artificial es capaz de crear música “que se percibe como más excitante, lo que puede tener implicaciones significativas en el futuro de la producción audiovisual”, indica la UAB.

TE PUEDE INTERESAR: En Japón, los robots ya ofrecen conciertos

“La inteligencia artificial generativa está transformando el mundo de la creatividad, y la música no es la excepción”, añade el comunicado de la universidad.

Este estudio, coordinado por el grupo de investigación Neuro-Com del Departamento de Comunicación Audiovisual y Publicidad de la Universitat Autònoma de Barcelona, contó con la participación del Instituto RTVE en Barcelona y de la Universidad de Liubliana (Eslovenia), indaga en torno a una pregunta esencial: “¿la música generada por IA puede provocar las mismas respuestas emocionales que la música creada por humanos en contextos audiovisuales?”, describe el comunicado.

Mientras los voluntarios veían los vídeos, los investigadores midieron sus reacciones fisiológicas, como la dilatación pupilar, el parpadeo y la respuesta galvánica de la piel, y también sus respuestas emocionales “tal y como ellos mismos las describían. Los resultados del experimento fueron reveladores”; ya que la música creada por la IA “provocó una mayor dilatación pupilar, lo que indica un mayor nivel de activación emocional”.

Por otro lado, prosigue la UAB en su comunicado, la música generada a través de “prompts sofisticados” originó en las personas participantes en la investigación más parpadeo, así como cambios en su piel, asociados a una “mayor carga cognitiva”; esto significa que los autores del estudio observaron diferencias en el impacto causado “por la música con IA según la complejidad del prompt utilizado”.

En cuanto a lo emocional, los voluntarios describieron que la música de IA era más excitante para ellos, sin embargo la música creada por humanos la percibieron más familiar.

Nikolaj Fišer, autor principal de esta nueva investigación, explica que “ambos tipos de música generada por IA llevaron a una mayor dilatación pupilar y fueron percibidos como más estimulantes emocionalmente en comparación con la música creada por humanos”.

TE PUEDE INTERESAR: Toma robot la batuta

En este sentido, esta respuesta fisiológica se relaciona habitualmente “con un mayor nivel de activación emocional”, añade Fišer.

En opinión de Fišer “nuestros hallazgos sugieren que decodificar la información emocional de la música generada por IA puede requerir un mayor esfuerzo cognitivo”.

Así, concluye el comunicado de la Universitat Autònoma de Barcelona, “aunque la IA es capaz de producir música potente a nivel emocional, la forma en que el cerebro la procesa podría diferir en términos de carga mental y de mecanismos de interpretación emocional, lo que plantea nuevos desafíos para el diseño de experiencias sensoriales efectivas en medios audiovisuales”.

Por otra parte, Fišer, Miguel Ángel Martín-Pascual y Celia Andreu-Sánchez describen en su artículo que “la inteligencia artificial (IA) generativa ha evolucionado rápidamente, lo que ha generado debates sobre su impacto en las artes visuales y sonoras”, continúan explicando que “A pesar de su creciente integración en las industrias creativas, la opinión pública sigue siendo escéptica, ya que considera la creatividad como algo exclusivamente humano. En la producción musical, las herramientas de IA están avanzando, pero la expresión emocional sigue siendo en gran medida ignorada en el desarrollo y la investigación”.

¿CÓMO SE HIZO LA INVESTIGACIÓN?

En su artículo titulado “Emotional impact of AI-generated vs. human-composed music in audiovisual media: A biometric and self-report study” Fišer, Martín-Pascual y Andreu-Sánchez detallan que llevaron a cabo un análisis sobre “si la creación musical impulsada por IA puede evocar el mismo impacto emocional que la música creada por humanos en contextos audiovisuales”.

Los voluntarios observaron vídeos “acompañados por diferentes pistas de audio en tres condiciones: música creada por humanos (HCM), música generada por IA utilizando indicaciones de palabras clave más sofisticadas y detalladas (AI-KP), y música generada por IA utilizando indicaciones más simples y menos detalladas basadas en valores emocionales discretos y dimensionales (AI-DP)”, añaden los autores.

Mientras los participantes veían los vídeos, los autores registraron los biométricos, así como las respuestas afectivas de cada uno.

Los resultados obtenidos por los investigadores revelan que ambas “bandas sonoras generadas por IA provocaron una mayor dilatación pupilar en comparación con la música creada por humanos, aunque no hubo diferencias significativas entre sí”, precisa PLOS One.

En este sentido, agrega PLOS One, “la música generada por IA con indicaciones sofisticadas (AI-KP) resultó en una mayor tasa de parpadeo y un mayor nivel de impedancia de la piel como marcadores de atención y carga cognitiva, mientras que la valencia emocional se mantuvo constante en todas las condiciones”.

Para la Universitat Autònoma de Barcelona, este tipo de estudios abre nuevos caminos para realizar estudios sobre “la percepción de estímulos sonoros generados por sistemas algorítmicos avanzados”.

Por lo que, concluye la UAB “estos hallazgos podrían tener implicaciones significativas para el futuro de la producción audiovisual, especialmente en lo que respecta a la personalización de la música según la narrativa visual, la economía de recursos en procesos creativos y la posibilidad de ajustar el impacto emocional del contenido con mayor precisión mediante herramientas automatizadas”.

Con información de la Agencia de Noticias EFE, Universitat Autònoma de Barcelona y PLOS One.

Temas

Estudio Imagen

Localizaciones

Barcelona

TRA Digital

GRATIS
VER