1. Inicio
  2. Recursos
  3. Qué es la música experimental con inteligencia artificial
Inteligencia ArtificialPrincipiante

Qué es la música experimental con inteligencia artificial

Qué es la música experimental con inteligencia artificial

La música experimental generada o asistida por IA no es un subgénero nuevo: es una extensión lógica de décadas de exploración algorítmica. Lo que cambió en los últimos dos años es la accesibilidad radical de las herramientas — hoy cualquier artista puede generar audio de calidad profesional desde un prompt de texto. Para quienes trabajan en los márgenes de la electrónica experimental, eso no reemplaza la práctica: la amplifica y la complica al mismo tiempo.

Música experimental con inteligencia artificial en Latinoamérica — guía para artistas
La intersección entre IA generativa y música experimental define una parte central de la práctica artística digital contemporánea.

Definición y contexto histórico

La música generada por IA es audio creado o estructurado mediante algoritmos de aprendizaje automático que, entrenados sobre grandes colecciones de audio, aprenden a predecir y producir secuencias sonoras coherentes. El proceso no implica necesariamente ausencia de intervención humana: en la mayoría de los contextos experimentales, la IA opera como una herramienta dentro de un flujo de trabajo más amplio.

El antecedente más citado es el sistema ILLIAC Suite (1957), donde Lejaren Hiller y Leonard Isaacson usaron una computadora mainframe para componer música a partir de reglas de contrapunto. En los años ochenta, David Cope desarrolló EMI (Experiments in Musical Intelligence), capaz de generar corales en el estilo de Bach con suficiente verosimilitud como para generar un debate filosófico que anticipó el actual. El salto cualitativo llegó con las redes neuronales profundas: en 2016, Google publicó el proyecto Magenta bajo el paraguas de Google Brain, con el objetivo explícito de explorar si el aprendizaje automático podía producir arte con valor estético autónomo. En 2023 y 2024, plataformas como Suno y Udio democratizaron ese acceso hasta convertirlo en un fenómeno de consumo masivo.

Para la escena experimental, el momento relevante no es la facilidad de uso de estas plataformas — es la disponibilidad de modelos abiertos y frameworks intervenibles. La diferencia entre usar Suno como usuario final y usar Magenta como artista es la diferencia entre consumir y practicar.

Herramientas de IA para crear música experimental

Herramientas de inteligencia artificial para crear música experimental en 2025
El ecosistema de herramientas de IA para música experimental se expandió considerablemente entre 2024 y 2026.

El ecosistema actual es heterogéneo: desde plataformas de consumo con interface web hasta modelos open-source que requieren Python y GPU. Esta es una panorámica de las herramientas más relevantes para práctica experimental.

Suno AI es, por uso global, la plataforma más extendida. En mayo de 2025 lanzó la versión 4.5, que incorpora soporte para más de 1.200 géneros musicales, generación de pistas de hasta 8 minutos y edición de stems individuales. En julio de 2025 añadió la función Add Vocals, que permite partir de un instrumental propio — generado o subido — y agregar voces sintetizadas. A finales de 2025 firmó un acuerdo con Warner Music Group para entrenar modelos de nueva generación con catálogo licenciado. La limitación central para uso experimental es que el control sobre la arquitectura del sonido es opaco: el artista ajusta parámetros de superficie, no el modelo.

Udio ofrece resultados de alta calidad vocal y mayor densidad lírica que Suno en tests comparativos de 2025. Su flujo de trabajo se basa en construcción por bloques — intro, estrofa, puente — lo que resulta más cercano a la composición estructural. En 2025 enfrenta un litigio con sellos discográficos por el uso de material protegido en su entrenamiento, lo que genera incertidumbre sobre su continuidad operativa.

AIVA (Artificial Intelligence Virtual Artist) es el sistema de composición con mayor orientación hacia música instrumental estructurada. Está registrado ante la SACEM, la sociedad de gestión de derechos de Francia y Luxemburgo — el único sistema de IA que ha recibido reconocimiento formal de una entidad de derechos de autor. Genera partituras MIDI editables, exporta a formatos de DAW estándar y permite subir audio propio para crear estilos personalizados. Es especialmente útil para compositores que trabajan con electrónica académica o bandas sonoras.

Google Magenta / Magenta RealTime es la opción más relevante para práctica experimental avanzada. En junio de 2025, Google publicó Magenta RealTime (Magenta RT), un modelo de transformer autorregresivo con 800 millones de parámetros, entrenado sobre aproximadamente 190.000 horas de audio instrumental, disponible bajo licencia Apache 2.0 en GitHub y Hugging Face. La característica diferenciadora es la generación en tiempo real: el modelo produce audio más rápido que el tiempo de reproducción — 1,25 segundos de cómputo por cada 2 segundos de audio — y permite cambiar prompts de estilo mientras la música se está generando. Acepta control por texto o por audio de referencia. Para performance en vivo y instalaciones sonoras, este nivel de interactividad no tiene equivalente en las plataformas comerciales.

Meta AudioCraft / MusicGen es otra opción open-source relevante: publicado en 2023, MusicGen es un modelo de generación de audio controlable por texto y melodía de referencia, disponible para descarga y uso local. Requiere más configuración técnica que Suno o Udio pero ofrece control total sobre el proceso.

Artistas que trabajan con IA en Latinoamérica

La adopción de IA en la práctica experimental latinoamericana no sigue el patrón del usuario de plataforma de consumo. Los artistas más interesantes trabajan con modelos como herramientas dentro de sistemas más complejos — junto con síntesis modular, Live Coding o instalación sonora.

Arca (Alejandra Ghersi Rodríguez) es el referente más citado internacionalmente. Nacida en Caracas, Venezuela, establecida en Barcelona, Ghersi ha construido un cuerpo de obra que opera en la intersección entre música electrónica experimental, arte visual y performance. Entre 2020 y 2021 publicó el quinteto de álbumes Kick, que integra reggaetón deconstruido, techno, ambient e IDM. En 2021 se convirtió en la primera artista venezolana y latinoamericana nominada a un Grammy en la categoría de álbum dance/electrónico. Su práctica no es dependiente de un único stack tecnológico — trabaja con producción de audio, diseño visual generativo y performance en formatos cambiantes — lo que la convierte en una referencia de cómo la experimentación con IA se integra en una práctica artística más amplia sin reducirse a ella.

El colectivo chileno Matar a un Panda, formado por Carla Redlich y Jean Didier Larrabure, recibió una Mención Honrosa en la categoría Nuevo Arte de Animación de Ars Electronica 2024 por la obra No se van los que se aman. La pieza construye una narrativa performativa a través de un diálogo con sistemas de lenguaje, generando un “cuerpo digital” que interroga las nociones de identidad y duelo. Es uno de los pocos trabajos latinoamericanos de esa edición reconocidos en una categoría central del festival.

En el circuito de festivales como los artistas documentados en Amplify DAI, la tendencia dominante no es el uso de IA como sustituto de la composición sino como material para procesamiento en tiempo real: audio generado como capa dentro de performances de síntesis modular, o prompts usados para generar texturas que se manipulan después en SuperCollider o Max/MSP.

Debate: ¿Es la música generada por IA arte?

La pregunta no tiene una respuesta técnica — es filosófica y legal al mismo tiempo, y en Latinoamérica tiene un desarrollo jurídico específico que vale conocer.

Los argumentos a favor de reconocer valor artístico a la música generada por IA se apoyan en la premisa de que el arte no requiere intención consciente del agente que produce el objeto — solo que el objeto produzca experiencia estética en quien lo recibe. La selección del prompt, el curado del resultado y la integración en un contexto más amplio constituyen actos artísticos incluso si la síntesis sonora es automatizada.

Los argumentos en contra señalan que los modelos de IA se entrenan sobre trabajo humano previo sin compensación ni consentimiento, lo que convierte la generación en una forma de extracción. En 2025, Udio enfrentó una demanda de la RIAA por este motivo, sumándose a los litigios previos que afectaron a otras plataformas generativas. Los músicos que documentaron cómo sus grabaciones aparecen como material de entrenamiento sin autorización tienen un agravio concreto, no solo filosófico.

En términos de derechos de autor, el panorama latinoamericano está fragmentado. La Suprema Corte de Justicia de México determinó que las obras creadas exclusivamente por IA sin intervención creativa humana no generan derechos de autor. En Colombia, la normativa permite protección fonográfica pero no autoría para obras 100% generadas por sistema. Ecuador introdujo en 2025 una propuesta de ley específica para proteger la voz humana frente a la clonación sin consentimiento. El común denominador es la indefinición: la legislación vigente no fue diseñada para este escenario y los tribunales están resolviendo caso por caso.

Para la práctica experimental, la posición más coherente con la historia del género es la que no resuelve la tensión sino que la usa como material: trabajar con IA sabiendo que el sistema tiene una deuda con el archivo musical humano, y hacer eso visible en lugar de ocultarlo.

Cómo empezar: primeros pasos para músicos y artistas

La entrada más directa para quien viene de producción de música electrónica convencional no es Suno ni Udio — es Magenta RealTime, porque permite integrar la generación de IA dentro de un flujo de trabajo de DAW existente. Está disponible como prototipo de plugin (Infinite Crate) que alimenta audio directamente al DAW, y como modelo descargable para quienes tienen entorno Python configurado.

Para quienes empiezan desde cero con herramientas de IA específicamente:

  1. Suno AI (plan gratuito): Genera las primeras pistas con prompts descriptivos. Experimenta con géneros que no existen — mezclas imposibles — para entender los límites del modelo. El objetivo no es la pista final: es entender qué controlas y qué no.
  2. AIVA (plan gratuito con límite mensual): Genera una pieza instrumental, descarga el MIDI y ábrelo en cualquier DAW. Edita la partitura, cambia instrumentos, altera la estructura. Esta combinación — IA para borrador, humano para intervención — es el workflow más común en práctica experimental.
  3. Magenta RealTime (requiere Python + GPU o uso en Colab): Si ya tienes experiencia con entornos de código, el notebook de Google Colab es el punto de entrada sin instalación local. El modelo acepta prompts de texto y audio de referencia; el output es audio en tiempo real que puedes grabar y procesar.
  4. Meta MusicGen (Hugging Face): Para generación local sin dependencia de plataformas externas. Útil para contextos donde la privacidad del material o la conectividad son variables relevantes.

El paso más importante no es técnico: es definir qué rol ocupa la IA en tu práctica. ¿Es un instrumento que tocas en tiempo real? ¿Un generador de material en bruto que procesas después? ¿Un sistema con el que negocias el resultado final? Esa decisión determina qué herramienta tiene sentido usar.

Para profundizar en herramientas específicas, los recursos de Amplify DAI sobre cómo usar Suno AI en español y sobre arte generativo con p5.js son puntos de continuación directa desde este artículo.