Après être restée longtemps cantonnée aux laboratoires scientifiques et salles de musique savante, la musique composée par intelligence artificielle (IA) tente désormais de s’infiltrer dans des créations plus pop. Pour preuve, l’apparition, en ce début d’année, de deux albums de musique populaire redevables à des logiciels d’IA.

Hello World, commercialisé le 12 janvier et en partie enregistré à Paris, est un album collectif auquel a notamment participé Stromae, l’artiste pop qu’on ne présente plus, et Médéric Collignon, le jazzman aux trois Victoires de la musique. Des fragments de chansons ont été composés par la suite logicielle Flow Machines, qui produit des mélodies surprenantes et des enchaînements d’accords qui cassent les codes.

I am AI, un album de musique pop, est quant à lui annoncé pour ce début d’année, mais son premier single est sorti en août. Ses parties instrumentales ont été composées automatiquement par le logiciel Amper, en fonction des choix de l’artiste.

Effet de mode ?

En Europe et aux Etats-Unis, plusieurs start-up proposent d’autres logiciels d’IA aux musiciens comme AI Music, Popgun, Humtap, Melodrive ou encore Groov. AI. Effet de mode ou révolution ? Gérard Assayag, directeur d’une unité de recherche au prestigieux Institut de recherche et coordination acoustique/musique (Ircam), penche plutôt pour la première hypothèse.

« Dans ce domaine, les connaissances doivent encore mûrir. On nous présente souvent des morceaux dans lesquels les algorithmes ont construit l’ossature de la mélodie et des accords qui l’accompagnent, mais tout le reste (arrangement, orchestration, mixage) est fait de manière classiquement humaine. Or les morceaux pop partagent 80 % de leurs structures d’accords ; ce n’est pas là qu’est l’invention, la singularité qui crée le tube. Il y a évidemment une démarche marketing à affirmer que les IA créent tout à coup des morceaux de “musique populaire”. »

Il faut dire que la combinaison de mots « intelligence artificielle » est un étendard payant pour une jeune pousse, tant elle est en vogue parmi les investisseurs de la Silicon Valley. L’Union européenne elle-même a financé le logiciel Flow Machines, à travers le Conseil européen de la recherche.

Mais cette effervescence n’est pas qu’une illusion. Gérard Assayag concède que « quelque chose est en train de commencer à frémir, à bouillir ». Les expérimentations mêlant musique et IA sont loin d’être nouvelles, elles remontent aux années 1960. Mais la musique par IA est probablement en train de franchir un cap, grâce aux évolutions rapides des connaissances sur les réseaux de neurones artificiels.

Jusqu’aux années 2010, les chercheurs ont surtout essayé d’édifier des systèmes d’IA à partir de règles qu’eux-mêmes édictaient. Une IA basée sur un réseau de neurones artificiels est beaucoup plus libre : elle crée ses propres règles. En se « nourrissant » de centaines de musiques du même style, elle repère les récurrences et apprend elle-même à les imiter.

De l’imitation à la création

Toutefois, l’apprentissage automatique pose problème. Cette technique est redoutable lorsqu’il s’agit d’imiter un style ou un compositeur. Mais imiter à la perfection est-il un bon objectif artistique ? L’architecte système du logiciel Amper, Cole Ingraham, n’en est pas convaincu :

« Un artiste qui se contente d’imiter un genre est perçu comme moins important que l’objet de son imitation. De l’autre côté, un artiste trop créatif est, au mieux, souvent vu comme en avance sur son temps. Au pire comme un épouvantable artiste. »

Pour François Pachet, qui a dirigé le laboratoire parisien Sony SCL à l’origine de Flow Machines, « la création est une combinaison subtile d’imitation et d’innovation très dosée. Je ne suis pas certain qu’il existe des règles en la matière. La créativité est un problème qui reste très mal posé. On ne sait pas ce que c’est. » Selon lui, la plupart des chercheurs en musique par IA s’intéressent surtout à l’imitation. Mais comment créer un automate doué de « créativité artificielle » ? Les chercheurs explorent plusieurs voies.

Flow Machines, par exemple, est fondé sur des modèles mathématiques moins sûrs, quitte à produire davantage de fausses notes. Pour générer des mélodies ou des accords créatifs, François Pachet donne des contraintes contradictoires, impossibles à résoudre, pour obtenir un résultat original.

En forçant l’algorithme à coller deux bouts de musique incollables, la surprise émerge. En demandant à Flow Machines une mélodie « rock » tout en imposant des accords « pop », l’intelligence artificielle produit des résultats inattendus.

Gérard Assayag fait état d’une autre ruse : faire collaborer deux réseaux de neurones artificiels aux rôles bien distincts. C’est le dialogue de ces systèmes – baptisés réseaux adversariaux – qui produit quelque chose de nouveau.

« Un “réseau faussaire” essaie de produire des œuvres. Face à lui, un réseau expert doit évaluer si l’œuvre a été produite par ledit faussaire, ou provient plutôt du “vrai” monde. Ces réseaux apprennent de leurs erreurs, donc s’améliorent en permanence. Le faussaire produit des œuvres qui sont à la fois de plus en plus originales, mais aussi de plus en plus crédibles. »

Les musiciens remplacés ?

Les professionnels de la musique doivent-ils craindre la concurrence des systèmes d’IA ? De l’avis général, il n’existe aujourd’hui aucun programme d’IA capable de produire une chanson séduisante de A à Z, avec sa mélodie, ses accords, ses rythmes, ses instruments, ses effets…

Mais avec des logiciels comme Amper, les ingénieurs du son, les musiciens de studio, les producteurs pourraient avoir moins de travail, comme le laisse deviner le processus de création de Tayler Southern, qu’elle expliquait au site The Verge après le premier single d’I Am AI :

« [Habituellement], je dois toujours travailler avec un producteur, qui peut se saisir de ma vision, puis en faire quelque chose que j’aime vraiment. Il y arrive parfois. D’autres fois, je lutte pour trouver une osmose avec cette personne. Voilà pourquoi l’IA est super. J’ai une vision pour une chanson et je peux l’explorer avec Amper jusqu’à ce que je sois contente (…). Parfois, le résultat me surprend (…). Ça peut me donner l’impression de me libérer, parce que tu n’as pas besoin de bases en instrumentation pour fabriquer un super chanson. Tu as juste besoin d’une bonne oreille (…). Je suis convaincue que c’est le démarrage de la musique par IA, de la même façon que le sample a changé le hip hop. »

L’objectif est aussi d’économiser de l’argent, comme l’explique à CNN Drew Silverstein, PDG d’Amper Music : « La création humaine et les musiciens humains ne disparaîtront pas. Nous essayons juste de faire en sorte que passer plus de 10 000 heures et dépenser des milliers de dollars ne soit plus une obligation pour partager et exprimer des idées. »

La jeune pousse Jukedeck a probablement commencé d’amputer les revenus de certains compositeurs : son système d’IA génère de la musique au kilomètre destinée au fond sonore de vidéos. Le résultat est de piètre qualité, mais le prix de chaque morceau est attractif : un dollar pour les petites entreprises.

Prochaine étape, les musiques d’ambiance, comme l’a déclaré le jeune fondateur de Jukedeck au journal The Guardian : « Est-ce qu’un jour un logiciel qui vous connaît sera capable de composer une musique pour vous endormir ? Absolument. C’est typiquement le domaine dans lequel une intelligence artificielle peut s’avérer utile. »

La qualité en ligne de mire ?

Comment un système d’IA parviendrait-il à composer des chansons de qualité ? Plusieurs observateurs français ou américains évoquent un scénario qui les inquiète. L’idée serait de mettre des centaines de réseaux neuronaux artificiels en concurrence. Leurs compositions, d’abord médiocres, seraient diffusées à grande échelle sur Internet, avec Deezer ou Spotify, par exemple. Cela permettrait de savoir quels réseaux neuronaux ont créé les chansons les plus populaires, puis de les cloner. Les réseaux moins efficaces seraient éliminés. Le cycle de création serait relancé des milliers de fois. Les compositions s’amélioreraient petit à petit.

François Pachet, qui a récemment quitté Sony pour Spotify, n’y croit pas :

« Cela ne donnera rien. Les gens ne sont pas d’accord sur ce qu’est une bonne chanson. Dans le champ de la “créativité computationnelle”, des chercheurs travaillent à des choses proches. Rien de musicalement intéressant n’en est jamais sorti. »

Gérard Assayag, lui, rappelle surtout que depuis bientôt soixante ans, « aucun modèle d’IA n’a réussi à produire une rupture musicale » comme le chromatisme de Wagner, le son de Jimi Hendrix ou les rythmes de James Brown.