Hoy en día hay numerosos modelos de Inteligencia Artificial están generando música, varios de ellos gratuitos. Muchos temen la creación de un mundo invadido por melodías genéricas y emocionalmente estériles, que además apartan en el proceso a los músicos humanos. Sin embargo, también hay señales que IA podría potenciar un auge de creatividad musical. Un indicador es la llegada de una nueva generación de algoritmos para crear música y su aplicación más práctica es el hecho que ayudan a compositores humanos. También es importante realizar, que el impacto de IA en la música está en sus inicios. Uno de los factores limitantes y a resolver son las incertidumbres legales asociadas al entrenamiento de los modelos y eso hoy en día tiene un costo alto. Sin embargo, los desarrolladores piensan que el entrenamiento ampliado realizado sobre la mejor música resolverá dificultades existentes y recortará costos.
Los nuevos modelos
En la realidad hacer música a través de IA no es nada nuevo. Las primeras muestras, que aparecieron hace 70 años eran modelos “basados-en-reglas”. Fueron cuidadosamente construidos traduciendo los principios de teoría musical a instrucciones algorítmicas y con tablas de probabilidad que permitían determinar la nota y la progresión de la cuerda. El producto que salía de allí era musicalmente sólido, pero limitado en creatividad. Era un enfoque apropiado para la época, pero irrelevante para el presente y la muestra más clara del cambio ocurrió en Agosto de 2023. Allí fue cuando Meta lanzó el código fuente para AudioCraft, una suite de grandes modelos generativos de música, construidos usando aprendizaje automático. Las empresas de IA se lanzaron a utilizar el software de Meta para entrenar nuevos generadores de música. MusicGen, usando dicho modelo analizó patrones en 400.000 grabaciones (con una duración colectiva de 28 meses) para producir 3.300 millones de “parámetros” o variables, que le permiten al algoritmo generar patrones de sonido en respuesta a prompts. El espacio que esto genera para genuinamente crear nuevas composiciones de IA no tiene precedentes.
Esos modelos ya son más fáciles de usar. En septiembre salió el modelo Stable Audio, entrenado usando 800.000 pistas y los usuarios lo guían con instrucciones en texto y audio. Como ejemplo, esto permite con facilidad cargar un solo de guitarra y recomponerlo en un piano en estilo jazz, sonando como un vinil. Los prompts en audio son muy importantes, ya que incluso músicos calificados tienen dificultades para poner la música en palabras y además los modelos mismos pueden no entender instrucciones complejas escritas.
LifeScore
El potencial de IA es inmenso, pero muchos en el sector continúan siendo escépticos. Un sentimiento muy extendido es que IA nunca producirá música verdadera, por cuanto nadie “ha roto su corazón en algún momento”. Sin embargo, hay emprendedores que aseguran que han encontrado como retener y reproducir la “huella musical única” de sus músicos usuarios. Se trata de LifeScore y su IA se limita a recomponer los elementos originales de las grabaciones de los usuarios, manteniendo el sentimiento (feel) del músico, en lugar de tratar de convertirlo en algo nuevo.
Toma aproximadamente un día conectarle al modelo las docenas de grabaciones de voz individuales y los tracks (troncales) de la producción original de una canción. Una vez que eso está listo, el software puede retrabajar cada track en un nuevo, tempo, clave o género en cuestión de segundos. Los artistas, presentes en el proceso, pueden escoger cual remix quieren mantener. Realizado en forma manual, típicamente esto mismo le toma varias semanas de trabajo a uno o más especialistas. Las empresas que ya están usando este servicio incluyen a Sony Music, Universal Music Group y el Warner Music Group. También artistas como David Gilmour de Pink Floyd, están aprovechando este IA para potenciar sus páginas web y permitirle a sus fanáticos hace remixes adaptados a sus gustos personales.
Empoderando a los músicos
La promesa más importante de la tecnología es el empoderamiento de los aficionados a la música, por cuanto IA maneja tareas técnicas que están más allá de las capacidades y de los recursos de ellos. El resultado es que IA está atrayendo legiones de nuevas personas a la generación de música, permitiendo mucha experimentación y se puede mencionar a: (a) rx – un asistente de IA que corrige errores en aspectos como el tono y el ritmo; (b) Boomy – una plataforma de automatización de música que permite producir canciones con prompts de texto y tiene más de 2 millones de usuarios.
Simultáneamente, IA tiene soluciones para profesionales de la música:
- rx – las bandas sonoras de “Barbie” y “Oppenheimer” fueron limpiadas en postproducción con rx.
- Transferencias de estilo – modelos que transforman música grabada con un instrumento a sonidos que provienen de otro instrumento.
- Transferencias de voz – un emprendimiento rebana los sonidos cantados por cantantes profesionales y reacomoda las tajadas en líricas escritas por los usuarios del servicio.
- Herramientas de IA que recrean las voces de los cantantes en otros idiomas.
- Fuentes de inspiración – Músicos reconocidos frecuentemente usan MusicGen y sus competidores como fuentes de inspiración.
Se hace referencia a A new generation of music-making algorithms is here. También aparece en mi Portal . La imagen es cortesía Bing Image Creator.
Comentarios recientes