En el corazón de Nueva York, una nueva forma de espectáculo está transformando la experiencia musical: conciertos sin artista humano, donde la música surge en tiempo real a partir de algoritmos que interpretan el estado de ánimo del público. En estos eventos, la inteligencia artificial analiza rostros, movimientos, el volumen ambiental e incluso las pulsaciones registradas por relojes inteligentes, para componer piezas únicas y adaptativas que convierten cada función en una vivencia irrepetible.
El fenómeno, que se expande por galerías y centros culturales de barrios como Brooklyn, Chelsea y Queens, se apoya en sistemas avanzados como AIVA, Riffusion, Google Magenta, Suno y Harmonai (Stable Audio), además de modelos desarrollados específicamente para estos entornos. Estas plataformas, alimentadas por extensos conjuntos de datos musicales, emplean técnicas de aprendizaje automático y sensores ambientales para crear lo que se ha denominado “concert algorithms”. El resultado se aleja del recital tradicional y se aproxima a una instalación inmersiva e interactiva, donde la frontera entre espectador y obra se diluye.

La popularidad de estas experiencias responde a varios factores. Por un lado, la democratización de herramientas de inteligencia artificial ha permitido que la creación de música compleja en cuestión de segundos esté al alcance de más personas y espacios. Por otro, el auge de las “experiencias inmersivas” y el arte reactivo ha captado el interés de museos y galerías, que buscan propuestas híbridas en la intersección de arte, tecnología y datos biométricos. Además, la desconfianza hacia el “en vivo” tradicional y la fascinación por la autoría algorítmica han impulsado la curiosidad por espectáculos que nunca se repiten: cada concierto generado por IA es, por definición, único.
El impacto económico de esta tendencia es considerable. Según Research and Markets (2024), el mercado de inteligencia artificial aplicada a la música superará los 3.300 millones de dólares en 2027. Plataformas como Suno AI y Udio ya producen millones de pistas mensuales, lo que evidencia la magnitud de la transformación en curso. Estudios del MIT Media Lab han demostrado que la música generativa mejora la sensación de “flow” y la sincronización emocional entre los asistentes, reforzando el atractivo de estas propuestas.

Instituciones de prestigio como el MoMA y el Museo de la Imagen Moving Image (MOMI) han incorporado obras basadas en sonido y aprendizaje automático a sus programaciones, consolidando la legitimidad artística de este tipo de experimentación. En palabras del propio MoMA, “Las obras de arte basadas en aprendizaje automático desafían nuestras definiciones tradicionales de creatividad y autoría”, según la presentación “Machine Art & Intelligence” de 2023.
El funcionamiento de estos conciertos se apoya en la capacidad de la IA para analizar y responder a las emociones humanas. Rosalind Picard, creadora del concepto de affective computing en el MIT, explicó: “La computación consciente de las emociones permite que los sistemas perciban el afecto humano y respondan de manera creativa”, según recoge el sitio del MIT. Esta interacción en tiempo real convierte a la audiencia en coautora de la experiencia, ya que la música se ajusta a los cambios colectivos de ánimo y energía.

El carácter generativo de la música, definido por Brian Eno como “música que es siempre diferente y cambiante, creada por un sistema”, según una entrevista publicada en Generative Music, 1995 (reeditada en 2020), se materializa aquí en un formato colectivo y adaptativo. El MIT Media Lab subraya que “Los sistemas de IA pueden analizar el estado de ánimo, el tempo y la estructura para crear piezas originales que se adaptan en tiempo real”, según su informe sobre música reactiva de 2022.
La industria musical observa con atención este fenómeno, preguntándose si estas experiencias pueden coexistir con los espectáculos tradicionales. Para muchos artistas experimentales y tecnólogos, estos conciertos representan un laboratorio ideal, donde es posible diseñar la música en función del ritmo cardíaco, la energía colectiva o incluso el feedback en redes sociales. El público, por su parte, se enfrenta a la paradoja de disfrutar de una obra sin creador humano visible, lo que plantea interrogantes sobre la naturaleza del arte, la autoría y el futuro de la música en vivo.

Como sintetizó The Guardian en 2023: “La IA no es solo una herramienta: está convirtiéndose en una colaboradora en la composición y la interpretación musical”.







