(Paris) « Un instrument virtuel » : ce que l’intelligence artificielle offre à la création musicale va être mis en scène mercredi dans un concert-évènement à Paris, où un compositeur-interprète dialoguera avec le public et la machine.

« Chacun connaît ou fantasme les avancées de l’intelligence artificielle », (IA) affirme Franck Madlener, directeur de l’Institut de recherche et coordination acoustique-musique (Ircam) fondé par Pierre Boulez, figure historique de la musique contemporaine. « Dans ce concert, Music of Choices, les créateurs jouent avec ce que permet la machine : la copie, la similarité et la stimulation ».

Seul sur scène, entouré de trois pianos, le compositeur et musicien franco-grec Alexandros Markeas crée un échange dans la grande salle du centre Pompidou, avec l’IA, qui joue des notes en réponse aux siennes, et le public, qui répond à des questions préparées par la compagnie de théâtre musicale La Cage, pour orienter le concert.

« Ce qui m’intéresse, c’est de jouer, d’avoir une réaction de la part du système et d’y réagir », explique le compositeur. « J’ai envie de créer des musiques qui résultent d’une surprise ». Le concert se tient dans le cadre du festival ManiFeste, qui associe la musique à d’autres disciplines (théâtre, danse, arts numériques…).

Instrument virtuel

L’intelligence artificielle avec laquelle joue Alexandros Markeas est faite de deux systèmes qui réagissent à ses notes de manière différente.

« Le premier, “Yana”, analyse les fréquences des sons joués par le musicien et cherche à reproduire les plus significatives », explique Manuel Poletti, réalisateur en informatique musicale de l’Ircam.

« On joue avec une imperfection du système », précise Alexandros Markeas. « Il joue une constellation de notes successives pour essayer de retrouver le son originel du piano ».

Le second système, Dyci2, « analyse les notes d’Alexandros Markeas et décide à chaque instant de ce qu’il va jouer », en réaction au compositeur, explique le créateur de cette IA, le chercheur de l’Ircam Jérôme Nika.

« Avant qu’il puisse jouer sur scène, il a fallu nourrir de musique cet instrument virtuel pour lui donner une mémoire musicale et lui composer des comportements : lui dire “tantôt tu vas t’intéresser à l’énergie d’un morceau, tantôt à son harmonie, tantôt tu vas essayer d’imiter, tantôt non” », insiste le chercheur qui évite le terme d’« intelligence artificielle ». « Ce sont d’abord des choix artistiques humains ».

Deux dialogues

« L’IA entre en dialogue avec Alexandros Markeas et grandit au fil du spectacle : de balbutiant, son langage devient musical », décrit la scénographe du concert et directrice artistique de La Cage, Aliénor Dauchez. « Tandis que les choix qui sont proposés au public lui permettent d’entrer en dialogue avec la musique ».

À l’entrée de la salle, les spectateurs se voient remettre les codes d’accès à une série de questions qui apparaissent sur l’écran de leur téléphone au fil du spectacle.

« J’ai d’abord cru que l’IA faisait sa musique à partir des réponses que le public donnait », avoue Jeanne Gilois, modéliste de 26 ans ayant assisté à la générale du concert. En réalité, les réponses sont envoyées au compositeur et projetées sur scène, certaines sous forme de statistiques ; libre ensuite au musicien d’orienter son jeu en fonction d’elles.

Plusieurs choix sont proposés au public, certains sur le déroulé du concert, à propos du rythme ou du ton de la musique. D’autres, plus généraux, demandent de décider si l’on aime les chats, les ruines ou les jouets…

« Que suis-je en train de faire maintenant ? Essayer de vous comprendre ? Vous satisfaire ? Jouer ? » : le spectateur est progressivement interpellé sur l’interaction entre le compositeur et l’IA.

« L’IA apparaît progressivement comme un nouveau personnage qui essaie de dialoguer ou de prendre la place du pianiste », raconte Charles Lefaux, graphiste de 39 ans qui considère avoir assisté « à de la création de musique, basée sur nos attentes à nous. La machine crée quelque chose, chaque fin de spectacle peut être différente ».