¿Cómo sonarán los villancicos que canten nuestros amos robots en el futuro? Dos investigadores de la Universidad de Toronto han entrenado a una inteligencia artificial para que componga la típica canción pop de Navidad. El resultado es una primera respuesta, y pone los pelos de punta.
Antes de dar al Play, una mínima introducción a la canción por parte de un crítico de la revista Musical Instrument Proffesional:
El resultado es raro, por decirlo finamente. Si eres un fan de la cantante humanoide japonesa con voz de sintetizador Hatsune Miku, probablemente te guste. Si no, bueno, probablemente tengas pesadillas esta noche.
Neural Story Singing Christmas from Hang Chu on Vimeo.
La canción es un experimento llevado a cabo por Hang Chu y Raquel Urtasan dos expertos en visión computerizada en el laboratorio de computación de la Universidad de Toronto. Ambos investigadores trabajan en una red neural de aprendizaje que interpreta imágenes, pero un día se preguntaron como reaccionaría la plataforma a la música.
Para la prueba, hicieron escuchar a la IA 100 horas de música pop variada y después la encargaron componer una melodía basada en la foto del árbol de navidad que ilustra el vídeo. La red neural compuso la melodía, escribió la letra y añadió los acordes. Finalmente, interpretó la canción mediante un sintetizador de voz que parece la prima canadiense de GladOS y que sus creadores llaman cariñosamente Neural Karaoke.
Los investigadores aclaran que para la computadora la música solo es un ejercicio analítico, no entiende de música, simplemente estudia el significado de la imagen y aplica las matemáticas. Eso sí, ahora nos morimos de curiosidad por saber qué entiende esa IA por Death Metal. Bien pensado, probablemente no sea buena idea hacer que una IA escuche 100 horas de Dimmu Borgir y Children of Bodom o que tal el detector de metal de Moderatto? Bueno, es un decir.