Inicio Actualidad La inteligencia artificial podría revolucionar a la industria musical

La inteligencia artificial podría revolucionar a la industria musical

Todos hemos sido testigos de las capacidades de aplicación que ha tenido la Inteligencia Artificial (IA) en los últimos tiempos. Pero, ¿te has imaginado de qué es capaz esta tecnología en la industria musical?

Los avances en inteligencia artificial podrían hacer que la composición musical sea más fácil que nunca, básicamente una máquina está haciendo la mitad del trabajo.

Las primeras sesiones de prueba para SampleRNN, un software artificialmente inteligente desarrollado por el dúo de científicos informáticos CJ Carr y Zach Zukowski, AKA Dadabots, sonaron más como un concierto de screamo, un subgénero agresivo de emo que surgió a principios de la década de 1990, que como un experimento de aprendizaje automático.

Carr y Zukowski esperaban que su programa pudiera generar álbumes completos de black metal y rock alimentándolo con pequeños fragmentos de sonido. El primer ensayo consistió en codificar e ingresar en unas pocas canciones de Nirvana.

«Cuando produjo su primera salida, esperaba escuchar el silencio o algún tipo de ruido debido a un error que cometimos, o algo parecido al canto». Pero no. Lo primero que hizo fue gritar acerca de Jesús.

Publicidad

No es misterio para nadie como la inteligencia artificial ya se utiliza en la música a través de servicios de transmisión como Spotify, la cual se encarga de analizar lo que escuchamos para que de esa forma puedan recomendar mejor lo que podríamos disfrutar a continuación. No obstante a la IA se le pide cada vez más que componga la música en sí misma, y ​​este es el problema que enfrentan muchos más científicos informáticos, además de Dadabots.

Los músicos, populares, experimentales y otros, han estado utilizando la IA en diversos grados durante las últimas tres décadas.

El principal, Brian Eno, lo usó no solo para crear nueva música perpetuamente infinita en su reciente álbum Reflection, sino también para brindar una experiencia visual completa en The Ship de 2016.

Sin mencionar los arreglos en el álbum Visions of Space del compositor mexicano Iván Paz, que suena un poco como un atasco intergaláctico, se realizaron mediante algoritmos que él mismo creó. Más recientemente, el productor Baauer, que encabezó las listas de éxitos estadounidenses en 2012 con su pista viral Harlem Shake, creó Hate Me con Lil Miquela, un avatar artificial digital de Instagram. El siguiente paso para los seres sintéticos como estos es crear música por su cuenta, esto siempre y cuando logren que el software deje de conversar de Dios.

Un poco de historia


La primera partitura generada por una computadora, un cuarteto de cuerdas llamado Illiac Suite, fue desarrollada en 1957 por Lejaren Hiller, y, como era de esperarse, se encontró con una gran controversia entre la comunidad clásica. Los compositores de la época eran intensamente puristas.

«La mayoría de los músicos, académicos o compositores, siempre han sostenido esta idea de que la creación de música es innatamente humana», explica el profesor de música californiano David Cope.

Además añade como «de alguna manera, el programa de computadora era una amenaza para ese aspecto humano único de la creación». Avanzando rápidamente hacia 1980 Cope comenzó a construir una computadora que podía leer música de una base de datos escrita en código numérico.

Siete años después, había creado Emi (Experimentos en Inteligencia Musical, pronunciado «Emmy»). Y es así como Cope logró componer una pieza musical y se la pasaría a su personal para que transcribiera la notación en código de forma que Emi la analizara.

Publicidad

Después de algunas horas de procesamiento, Emi producía una composición completamente nueva, escrita en código que el personal de Cope re-transcribiría en pentagramas. Es relevante destacar como Emi podría responder no solo a la música de Cope, sino también a los sonidos de Bach, Mozart y otros clásicos de la música clásica y conjurar una pieza que pudiera adaptarse a su estilo compositivo.

Por otro lado, una de las sensaciones de canto de YouTube, Taryn Southern, ha construido un LP compuesto y producido completamente por inteligencia artificial utilizando una revisión de los métodos de Cope. En su álbum I AM AI, Southern utiliza una plataforma de código abierto de IA llamada Amper para ingresar preferencias como género, instrumentación, clave y tiempos por minuto.

Amper es un compositor de música artificialmente inteligente fundado por los compositores de películas Drew Silverstein, Sam Estes y Michael Hobe: toma comandos como «pop temperamental» o «música clásica moderna» y crea discos en su mayoría coherentes que coinciden en el tono. Desde allí, un artista puede elegir seleccionar cambios específicos en la melodía, la instrumentación de ritmo y más.

Southern, afirma que la IA no tiene que ser perfecta, a veces rechaza hasta 30 versiones de cada canción generada por Amper a partir de sus parámetros.

Una vez que Amper produce algo con un buen sonido, la Youtuber lo exporta a GarageBand, arregla lo que el programa ha creado y agrega letras.

Esto es una revelación importante, ya que el trabajo de Southern predice un futuro de músicos que hacen música a través de la IA en sus computadoras personales.

La artista ha realizado un importante trabajo que le permitió crear alianza con Samsung, Google y HTC, y ahora está trabajando en formar de hacer que el arte a través de la inteligencia artificial y la realidad virtual sea más accesible.

Publicidad

Sin embargo, la inteligencia artificial no es solo una herramienta útil, puede usarse incluso para explorar preguntas vitales sobre la naturaleza de la expresión humana.

De hecho el director creativo de colectivo de arte y tecnología de Nueva York, The Mill, Rama Allen explica “El tema principal de mi trabajo es jugar con el concepto de ‘fantasma en la máquina’: el fantasma es el espíritu humano y la máquina es la tecnología avanzada que intentamos aplicar. Estoy interesado en la colaboración entre los dos y en los resultados inesperados que pueden surgir».

Sin mencionar que este es el tema central detrás del proyecto musical AI de Mill. VeaSonido, que debutó en el festival SXSW del año pasado en Austin, un programa de escultura de sonido altamente reactivo diseñado por la voz humana. Las esculturas en sí mismas son, como dice Allen, «como una huella digital».

El proyecto nació cuando Allen vio al beatboxer de Londres, Reeps One, en vivo y comenzó a pensar en la relación recíproca entre la mímica de la máquina y la música. «Pensé, ¿qué pasaría si pudiera crear otra pieza de tecnología que le permita visualizar una forma en su mente, y dar vida a esa forma?»

Ver sonido es uno de los ejemplos más intrigantes de las maneras en que los artistas y la inteligencia artificial pueden aprender entre sí para crear algo nuevo: avanzar la idea de la entrada basada en datos hacia una relación más recíproca entre el hombre y la máquina.

Sin embargo mientras Allen, Southern y Dadabots ejemplifican una armonía ideal, la realidad es que la inteligencia artificial es una industria, y la sinergia utópica de los proyectos de los experimentadores sin duda dará paso a la manipulación, incluso a la explotación absoluta, por parte del comercio.

De hecho el brillante programa de aprendizaje de máquinas de Spotify ofrece recomendaciones a sus oyentes, y la empresa contrató al experto en inteligencia artificial François Pachet para promover el afianzamiento de la compañía en el campo. Pachet trabajó en Flow Machines de Sony, un programa que utiliza la inteligencia artificial para componer canciones pop.

Un dato relevante es como Spotify ya ha sido acusado de empujar a artistas falsos en sus listas de reproducción, simples seudónimos del pop de cinta transportadora creado por un equipo de productores en la sombra para evadir los pagos de regalías, sin embargo la compañía ha negado los cargos.

Por lo que, después de todo, es relevante preguntarse si ¿comenzarán a producir su propia música desarrollada a través de la Inteligencia Artificial? 

Se puede decir que algunos gigantes se han posiciona ya dentro de la industria. La asistente de inteligencia artificial de Amazon, Alexa, cuenta con una nueva habilidad llamada DeepMusic, que entrelaza capas de muestras de audio para que coincidan con el ambiente establecido por los usuarios. Y mientras las melodías suenan como una computadora, Amazon ya puede encauzar la música desarrollada por IA en los hogares, lo que crea una turbia interacción entre la corporación, el asistente de inteligencia artificial y el creador de la inteligencia artificial.

Sin mencionar la existencia de algunas empresas como AI Music el año pasado trabajaron en herramientas que permiten moldear las canciones existentes para que coincidan con el contexto en el que se reproducen; como cambiar los ritmos mientras se conduce o aumentar los graves mientras el oyente está haciendo jogging.

Patrick Stobbs, cofundador del compositor de música AI Jukedeck, mencionó recientemente que el programa pasaría de ajustar música a sintetizarla realmente. La compañía con sede en Londres, cuya base de clientes requiere lo que se ha descrito como «música funcional», ya ha producido trabajos para empresas importantes como Coca-Cola y Google.

Es posible imaginar un futuro en el que la inteligencia artificial no solo produzca música en espera, sino también música para anuncios, series de televisión y bandas sonoras de cenas discretas; por lo que cabe la pregunta: ¿los compositores deberían sentirse intimidados?

No obstante los artistas que utilizan la IA son firmes en que su trabajo pretende aumentar la vida de artistas y no artistas por igual, no reemplazarlos. «En este punto, es más sorprendente para nosotros escuchar lo que los humanos harán con eso», expresó Carr de Dadabots. «Todo lo que estamos haciendo es un gran plan para colaborar con las bandas que amamos».

Un futuro asistido por la IA plantea interrogantes sobre las desigualdades existentes, la dominación corporativa y la integridad artística: ¿cómo podemos prosperar en un mundo de automatización y trabajo asistido por AI sin exacerbar los cismas sociales y económicos que han persistido durante siglos? Es probable que no lo hagamos. Pero en la visión más utópica, la música será la primera incursión en el aprendizaje automático para muchas personas, permitiendo la colaboración que edifica al oyente, al músico y a la máquina.

Dejar respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

- Publicidad -

Most Popular

¿Qué es Ravencoin (RVN)? Declaraciones de verdad sobre poseedores de activos

¿Qué es Ravencoin (RVN)? Ravencoin (RVN) es una cadena de bloques dirigida a la creación de una transferencia...

¿Qué es y cómo comprar Fusion (FSN)? Una blockchain para todos los smart contracts

Fusion tiene como visión principal construir una plataforma pública de varias capas con la intención de que todas sus funciones...

¿Qué es Augur (REP)? Un motor de búsqueda descentralizado con el que todos ganamos

¿Qué es Augur (REP)?  Augur es una "plataforma de mercado de previsión" descentralizada open source basada en Ethereum que aprovecha...

¿Qué es Hashgraph? ¿Blockchain debe preocuparse?

Una nueva tecnología de contabilidad distribuida conocida como Hashgraph ha estado despertando curiosidades y creando rumores sobre blockchain. Pero, ¿Qué es? En pocas palabras,...

¿Qué es ICON (ICX)? Conexión entre blockchains

 Esta criptomoneda surgió en un buen momento, tal que en apenas unos meses alcanzó su mayor precio hasta el momento. Llegó a...
- Publicidad -