La musique expérimentale générée ou assistée par IA n’est pas un nouveau sous-genre : c’est une extension logique de décennies d’exploration algorithmique. Ce qui a changé au cours des deux dernières années, c’est l’accessibilité radicale des outils — aujourd’hui, n’importe quel·le artiste peut générer de l’audio de qualité professionnelle depuis un prompt textuel. Pour qui travaille aux marges de l’électronique expérimentale, ça ne remplace pas la pratique : ça l’amplifie et la complique en même temps.

Définition et contexte historique
La musique générée par IA est de l’audio créé ou structuré par des algorithmes d’apprentissage automatique qui, entraînés sur de grandes collections sonores, apprennent à prédire et à produire des séquences audio cohérentes. Ce processus n’implique pas nécessairement l’absence d’intervention humaine : dans la plupart des contextes expérimentaux, l’IA fonctionne comme un outil au sein d’un flux de travail plus large.
L’antécédent le plus cité est la ILLIAC Suite (1957), où Lejaren Hiller et Leonard Isaacson ont utilisé un ordinateur central pour composer de la musique à partir de règles de contrepoint. Dans les années 1980, David Cope a développé EMI (Experiments in Musical Intelligence), capable de générer des chorals dans le style de Bach avec suffisamment de vraisemblance pour susciter un débat philosophique qui anticipait les discussions actuelles. Le bond qualitatif est venu avec les réseaux de neurones profonds : en 2016, Google a publié le projet Magenta sous l’égide de Google Brain, avec pour objectif explicite d’explorer si l’apprentissage automatique pouvait produire de l’art ayant une valeur esthétique autonome. En 2023 et 2024, des plateformes comme Suno et Udio ont démocratisé cet accès jusqu’à en faire un phénomène de consommation de masse.
Pour la scène expérimentale, le moment pertinent n’est pas la facilité d’usage de ces plateformes — c’est la disponibilité de modèles ouverts et de frameworks intervenables. La différence entre utiliser Suno comme utilisateur·rice final·e et utiliser Magenta comme artiste est la différence entre consommer et pratiquer.
Outils d’IA pour créer de la musique expérimentale
L’écosystème actuel est hétérogène : des plateformes de consommation avec interface web aux modèles open source qui nécessitent Python et GPU. Voici un panorama des outils les plus pertinents pour la pratique expérimentale.
Suno AI est, par usage global, la plateforme la plus répandue. En mai 2025, elle a lancé la version 4.5, qui intègre le support de plus de 1 200 genres musicaux, la génération de pistes jusqu’à 8 minutes et l’édition de stems individuels. En juillet 2025, elle a ajouté la fonction Add Vocals, qui permet de partir d’un instrumental — généré ou importé — et d’y ajouter des voix synthétisées. Fin 2025, elle a signé un accord avec Warner Music Group pour entraîner des modèles de nouvelle génération avec un catalogue sous licence. La limite centrale pour l’usage expérimental est que le contrôle sur l’architecture du son est opaque : l’artiste ajuste des paramètres de surface, pas le modèle. Pour un guide complet sur cette plateforme, voir notre guide Suno AI.
Google Magenta / Magenta RealTime est l’option la plus pertinente pour la pratique expérimentale avancée. En juin 2025, Google a publié Magenta RealTime (Magenta RT), un modèle de transformer autoregressif avec 800 millions de paramètres, entraîné sur environ 190 000 heures d’audio instrumental, disponible sous licence Apache 2.0 sur GitHub et Hugging Face. La caractéristique différenciante est la génération en temps réel : le modèle produit de l’audio plus vite que le temps de lecture — 1,25 seconde de calcul pour 2 secondes d’audio — et permet de changer les prompts de style pendant que la musique se génère. Il accepte un contrôle par texte ou par audio de référence. Pour la performance en direct et les installations sonores, ce niveau d’interactivité n’a pas d’équivalent dans les plateformes commerciales.
AIVA (Artificial Intelligence Virtual Artist) est le système de composition le plus orienté vers la musique instrumentale structurée. Il est enregistré auprès de la SACEM, la société de gestion des droits française et luxembourgeoise — le seul système d’IA à avoir reçu une reconnaissance formelle d’une entité de droits d’auteur. Il génère des partitions MIDI éditables, exporte vers des formats DAW standard et permet de charger son propre audio pour créer des styles personnalisés.
RAVE (Realtime Audio Variational autoEncoder) est un modèle open source développé par l’IRCAM (Paris) pour la synthèse et la transformation sonore en temps réel. Il apprend à encoder et décoder les caractéristiques d’un corpus de sons, puis permet de générer des variations et des transformations de ce corpus en temps réel. C’est un outil particulièrement pertinent pour les artistes qui travaillent avec des identités sonores spécifiques — des corpus d’instruments particuliers, de voix, d’environnements — et qui souhaitent les transformer algorithmiquement en performance.
NSynth (Neural Synthesizer), développé par le projet Magenta de Google en 2017, est un outil qui permet de synthétiser de nouveaux sons par interpolation entre des instruments existants — un son qui est 50 % piano et 50 % guitare, ou 30 % voix et 70 % flûte. Il est disponible comme plugin VST et comme modèle téléchargeable. Sa valeur pour la pratique expérimentale est dans la création de timbres qui n’existent pas dans la lutherie conventionnelle.
Artistes travaillant avec l’IA en musique expérimentale
L’adoption de l’IA dans la pratique expérimentale ne suit pas le modèle de l’utilisateur·rice de plateforme de consommation. Les artistes les plus intéressant·es travaillent avec des modèles comme outils à l’intérieur de systèmes plus complexes — aux côtés de la synthèse modulaire, du Live Coding ou de l’installation sonore.
Arca (Alejandra Ghersi Rodríguez) est la référence la plus citée internationalement. Née à Caracas, établie à Barcelone, Ghersi a construit un corpus d’oeuvres qui opère à l’intersection de la musique électronique expérimentale, de l’art visuel et de la performance. Son quintette d’albums Kick (2020–2021) intègre reggaetón déconstruit, techno, ambient et IDM. En 2021, elle est devenue la première artiste vénézuélienne et latino-américaine nommée aux Grammy dans la catégorie album dance/électronique.
Le collectif chilien Matar a un Panda, formé par Carla Redlich et Jean Didier Larrabure, a reçu une Mention d’honneur dans la catégorie Nouveau Art d’Animation d’Ars Electronica 2024 pour l’oeuvre No se van los que se aman. La pièce construit une narrative performative à travers un dialogue avec des systèmes de langage, générant un «corps numérique» qui interroge les notions d’identité et de deuil.
Dans le circuit de festivals comme ceux documentés sur Amplify DAI, la tendance dominante n’est pas l’usage de l’IA comme substitut à la composition mais comme matériau pour le traitement en temps réel : audio généré comme couche dans des performances de synthèse modulaire, ou prompts utilisés pour générer des textures qui sont ensuite manipulées dans SuperCollider ou Max/MSP.
Débat : la musique générée par IA est-elle de l’art ?
La question n’a pas de réponse technique — elle est à la fois philosophique et légale, et son développement jurisprudentiel varie selon les territoires.
Les arguments en faveur de reconnaître une valeur artistique à la musique générée par IA s’appuient sur la prémisse que l’art ne requiert pas d’intention consciente de l’agent qui produit l’objet — seulement que cet objet produise une expérience esthétique chez qui le reçoit. La sélection du prompt, le curation du résultat et l’intégration dans un contexte plus large constituent des actes artistiques même si la synthèse sonore est automatisée.
Les arguments contraires soulignent que les modèles d’IA s’entraînent sur du travail humain antérieur sans compensation ni consentement, ce qui fait de la génération une forme d’extraction. En 2025, Udio a fait face à une poursuite de la RIAA pour ce motif. Les musicien·nes qui ont documenté comment leurs enregistrements apparaissent comme matériau d’entraînement sans autorisation ont un grief concret, pas seulement philosophique.
Au Canada, la situation réglementaire évolue : le Bureau du droit d’auteur a confirmé que les oeuvres générées exclusivement par IA sans contribution humaine créative ne sont pas protégées par la Loi sur le droit d’auteur. La participation créative humaine — dans la sélection, le curation ou la transformation — reste le critère déterminant pour la protection.
Pour la pratique expérimentale, la position la plus cohérente avec l’histoire du genre est celle qui ne résout pas la tension mais l’utilise comme matériau : travailler avec l’IA en sachant que le système a une dette envers l’archive musicale humaine, et rendre cela visible plutôt que de le dissimuler.
Comment commencer : premiers pas pour les musicien·nes et artistes
L’entrée la plus directe pour qui vient de la production de musique électronique conventionnelle n’est pas Suno ni Udio — c’est Magenta RealTime, parce qu’il permet d’intégrer la génération d’IA dans un flux de travail DAW existant.
Pour qui commence depuis zéro avec des outils d’IA spécifiques :
- Suno AI (plan gratuit) : générez les premières pistes avec des prompts descriptifs. Expérimentez avec des genres qui n’existent pas — des mélanges impossibles — pour comprendre les limites du modèle. L’objectif n’est pas la piste finale : c’est de comprendre ce que vous contrôlez et ce que vous ne contrôlez pas.
- AIVA (plan gratuit avec limite mensuelle) : générez une pièce instrumentale, téléchargez le MIDI et ouvrez-le dans n’importe quelle DAW. Éditez la partition, changez les instruments, modifiez la structure. Cette combinaison — IA pour le brouillon, humain pour l’intervention — est le flux de travail le plus courant en pratique expérimentale.
- Magenta RealTime (nécessite Python + GPU ou usage dans Colab) : si vous avez déjà de l’expérience avec des environnements de code, le notebook Google Colab est le point d’entrée sans installation locale. Le modèle accepte des prompts textuels et de l’audio de référence; l’output est de l’audio en temps réel que vous pouvez enregistrer et traiter.
- RAVE (IRCAM) : pour qui veut travailler avec l’identité sonore d’un corpus spécifique. Requiert Python et une configuration technique plus poussée, mais offre une qualité de transformation sonore sans équivalent dans les plateformes commerciales.
L’étape la plus importante n’est pas technique : c’est de définir quel rôle occupe l’IA dans votre pratique. Est-ce un instrument que vous jouez en temps réel ? Un générateur de matière brute que vous traitez ensuite ? Un système avec lequel vous négociez le résultat final ? Cette décision détermine quel outil a du sens à utiliser.