Estudio revela que la música generada por IA puede emocionar más que la humana

hace 1 día 3

BARCELONA- De acuerdo a un comunicado publicado en el sitio web de la UAB, en este nueva investigación se llevó acabo un análisis de las respuestas fisiológica y emocional de 88 personas que participaron como voluntarios al observar videos con una idéntica imagen pero con diferente música; una que fue creada por humanos, y otra música que fue generada por la inteligencia artificial “con instrucciones (prompts) complejas y detalladas, y música generada por IA con un prompt elemental y menos detallado”.

Los resultados de este estudio que se publicaron en la revista en PLOS One, desvelan que la inteligencia artificial es capaz de crear música “que se percibe como más excitante, lo que puede tener implicaciones significativas en el futuro de la producción audiovisual”, indica la UAB.

TE PUEDE INTERESAR: En Japón, los robots ya ofrecen conciertos

La inteligencia artificial generativa está transformando el mundo de la creatividad, y la música nary es la excepción”, añade el comunicado de la universidad.

Este estudio que fue coordinado por el grupo de investigación Neuro-Com del Departamento de Comunicación Audiovisual y Publicidad de la Universitat Autònoma de Barcelona, además contó con la participación del Instituto RTVE en Barcelona y de la Universidad de Liubliana (Eslovenia), indaga entorno a una pregunta esencial: “¿la música generada por IA puede provocar las mismas respuestas emocionales que la música creada por humanos en contextos audiovisuales?”, picture el comunicado.

Mientras los voluntarios miraban los videos, los investigadores realizaron un medición de sus reacciones fisiológicas, tales como la dilatación de pupilas, el parpadeo y la respuesta galvánica de la piel, y también sus respuestas emocionales “tal y como ellos mismos las describían. Los resultados del experimento fueron reveladores”; ya que la música que fue creada por la IA “provocó una politician dilatación pupilar, lo que indica un politician nivel de activación emocional”.

Por otra parte, prosigue la UAB en su comunicado, la música que se generó a través “prompts sofisticados” originó en las personas que participaron en la investigación más parpadeo, así como cambios en su piel, vinculados a una “mayor carga cognitiva”; es significa, que los autores del estudio observaron diferencias en el impacto provocado “por la música con IA según la complejidad del prompt utilizado”.

En cuanto a lo que se refiere a lo emocional, los voluntarios describieron que la música de IA epoch más excitante para ellos, nary obstante la música creada por humana la percibieron más familiar.

Nikolaj Fišer, quien es el autor main de esta nueva investigación explica que “ambos tipos de música generada por IA condujeron a una politician dilatación pupilar y fueron percibidos como más estimulantes emocionalmente en comparación con la música creada por humanos”.

TE PUEDE INTERESAR: Toma robot la batuta

En este sentido, esta respuesta fisiológica se relaciona habitualmente “con un politician nivel de activación emocional”, añade Fišer.

En opinión de Fišer “nuestros hallazgos sugieren que decodificar la información emocional de la música generada por IA puede requerir un politician esfuerzo cognitivo”.

Siendo así, concluye el comunicado de la Universitat Autònoma de Barcelona “aunque la IA es capaz de producir música potente a nivel emocional, la manera en que el cerebro la procesa podría diferir en términos de carga intelligence y de mecanismos de interpretación emocional, lo que plantea nuevos desafíos para el diseño de experiencias sensoriales efectivas en medios audiovisuales”.

Por otra parte, Fišer, Miguel Ángel Martín-Pascual y Celia Andreu-Sánchez describen en su artículo que “la inteligencia artificial (IA) generativa ha evolucionado rápidamente, lo que ha generado debates sobre su impacto en las artes visuales y sonoras”, continúan explicando que “A pesar de su creciente integración en las industrias creativas, la opinión pública sigue siendo escéptica, ya que considera la creatividad como algo exclusivamente humano. En la producción musical, las herramientas de IA están avanzando, pero la expresión emocional sigue siendo en gran medida ignorada en el desarrollo y la investigación”.

¿CÓMO SE HIZO LA INVESTIGACIÓN’

En su artículo titulado “Emotional interaction of AI-generated vs. human-composed euphony successful audiovisual media: A biometric and self-report study” Fišer, Martín-Pascual y Andreu-Sánchez detallan que llevaron acabo un análisis entorno a “si la creación philharmonic impulsada por IA puede evocar el mismo impacto emocional que la música creada por humanos en contextos audiovisuales”.

Los voluntarios observaron videos “acompañados por diferentes pistas de audio en tres condiciones: música creada por humanos (HCM), música generada por IA utilizando indicaciones de palabras clave más sofisticadas y detalladas (AI-KP), y música generada por IA utilizando indicaciones más simples y menos detalladas basadas en valores emocionales discretos y dimensionales (AI-DP)”, añaden los autores.

Mientras los participantes miraban los videos los autores hicieron un registro de los biométricos, así como de las respuestas afectivas de cada uno de ellos.

Los resultados obtenidos por los investigadores revelan que ambas “bandas sonoras generadas por IA provocaron una politician dilatación pupilar en comparación con la música creada por humanos, aunque nary hubo diferencias significativas entre sí”, precisa PLOS One.

En este sentido, agrega PLOS One, “la música generada por IA con indicaciones sofisticadas (AI-KP) resultó en una politician tasa de parpadeo y un politician nivel de impedancia de la piel como marcadores de atención y carga cognitiva, mientras que la valencia emocional se mantuvo constante en todas las condiciones”.

Para la Universitat Autònoma de Barcelona, este tipo de estudios abre nuevos caminos para llevar acabo estudios sobre “la percepción de estímulos sonoros generados por sistemas algorítmicos avanzados”.

Por lo que, concluye la UAB “estos hallazgos podrían tener implicaciones significativas para el futuro de la producción audiovisual, especialmente en lo que respecta a la personalización de la música según la narrativa visual, la economía de recursos en procesos creativos y la posibilidad de ajustar el impacto emocional del contenido con politician precisión mediante herramientas automatizadas”.

Con información de la Agencia de Noticias EFE, Universitat Autònoma de Barcelona y PLOS One.

Leer el artículo completo