CPQ – Résumé artistique

La musique résultant de l’interaction avec les « agents / instruments » informatiques au cœur de C’est pour quoi correspond au mélange acoustique entre les voix générées par une machine mobilisant sa « mémoire musicale », et les « structures » ou « stimuli » ( venant par exemple d’un co-improvisateur humain) qui provoquent ce processus. La nouvelle pratique musicale qu’apporte ces outils est celle de pouvoir ainsi improviser / composer à l’échelle des « intentions » (les « structures » et « stimuli » évoqués précédemment). C’est ce jeu de l’entremêlement ou de la divergence entre les intentions et leurs conséquences qui sera donné à écouter à l’aide d’un dispositif associant écoute intime et écoute collective.  

Ce projet met en place un espace clos associant un système de diffusion spatialisé de 4 haut-parleurs ainsi que des casques ouverts. Le « mixage » dans lequel se retrouve le spectateur est donc double : celui des intentions avec celui des conséquences, et celui de l’écoute individuelle avec l’écoute collective. Le déroulé temporel se divise en 3 phases : écoute des intentions intimes et des conséquences collectives ; puis écoute des intentions collectives et des conséquences intimes ; enfin écoute collective du mélange total, un bruit blanc dans les casques ayant invité les spectateurs à les enlever. L’enregistrement de séances d’improvisation a permis de créer trois formes durant entre 6 et 10 minutes : une improvisation « free jazz, hip hop, et spectrale » enregistrée avec Steve Lehman, et deux improvisations « génératives, répétitives, et/ou texturales » enregistrées avec Rémi Fox. La playlist ci-dessous montre des simulations stéréos des versions « en mettant le casque » et « en enlevant le casque » :

Playlist de « simulations stéréos » des 3 improvisations présentées dans l’installation, « en mettant le casque » et « en enlevant le casque ».

Il pourrait paraître paradoxal de travailler sur des technologies d’apprentissage pour l’interaction improvisée et de proposer une forme figée par l’enregistrement, mais cet aspect participe au propos : l’objectif est justement de s’affranchir de tout effet didactique et de présenter le résultat « nu » d’un processus de création utilisant ces instruments d’une nouvelle génération, en sortant de la confortable forteresse de « l’IA créative », celle de la démonstration technique d’un processus attisant la curiosité et a priori « digne d’intérêt » détournant ainsi du jugement de la création elle-même.

Le projet s’articule autour des outils de la librairie DYCI2 (https://github.com/DYCI2/Dyci2Lib) développée au sein de l’équipe Représentations Musicales à l’IRCAM, cette librairie informatique repose sur des modèles de machine learning et est développée par l’auteur au sein de l’équipe Représentations Musicales de l’Ircam.

Interface d’un dispositif conçu avec les objets de la librairie DYCI2 : un modèle de mémoire appris sur un fichier audio où chaque point coloré représente un segment musical, un module d’ « intentions manuelles » et d’ « intentions » provenant de l’écoute du saxophone. Exemple issu de la performance du duo « C’est pour ça » au festival Ars Electronica 2019. 


Les articles scientifiques à ce sujet sont disponibles à l’adresse suivante : 
https://jeromenika.com/research-designing-generative-agents/.

Les projets musicaux les ayant mis en œuvres sont listés ici :
https://jeromenika.com/category/creation/