La musique résultant de l’interaction avec les « agents / instruments » informatiques au cœur de C’est pour quoi correspond au mélange acoustique entre les voix générées par une machine mobilisant sa « mémoire musicale », et les « structures » ou « stimuli » ( venant par exemple d’un co-improvisateur humain) qui provoquent ce processus. La nouvelle pratique musicale qu’apporte ces outils est celle de pouvoir ainsi improviser / composer à l’échelle des « intentions » (les « structures » et « stimuli » évoqués précédemment). C’est ce jeu de l’entremêlement ou de la divergence entre les intentions et leurs conséquences qui sera donné à écouter à l’aide d’un dispositif associant écoute intime et écoute collective.
Ce projet met en place un espace clos associant un système de diffusion spatialisé de 4 haut-parleurs ainsi que des casques ouverts. Le « mixage » dans lequel se retrouve le spectateur est donc double : celui des intentions avec celui des conséquences, et celui de l’écoute individuelle avec l’écoute collective. Le déroulé temporel se divise en 3 phases : écoute des intentions intimes et des conséquences collectives ; puis écoute des intentions collectives et des conséquences intimes ; enfin écoute collective du mélange total, un bruit blanc dans les casques ayant invité les spectateurs à les enlever. L’enregistrement de séances d’improvisation a permis de créer trois formes durant entre 6 et 10 minutes : une improvisation « free jazz, hip hop, et spectrale » enregistrée avec Steve Lehman, et deux improvisations « génératives, répétitives, et/ou texturales » enregistrées avec Rémi Fox. La playlist ci-dessous montre des simulations stéréos des versions « en mettant le casque » et « en enlevant le casque » :
Il pourrait paraître paradoxal de travailler sur des technologies d’apprentissage pour l’interaction improvisée et de proposer une forme figée par l’enregistrement, mais cet aspect participe au propos : l’objectif est justement de s’affranchir de tout effet didactique et de présenter le résultat « nu » d’un processus de création utilisant ces instruments d’une nouvelle génération, en sortant de la confortable forteresse de « l’IA créative », celle de la démonstration technique d’un processus attisant la curiosité et a priori « digne d’intérêt » détournant ainsi du jugement de la création elle-même.
Le projet s’articule autour des outils de la librairie DYCI2 (https://github.com/DYCI2/Dyci2Lib) développée au sein de l’équipe Représentations Musicales à l’IRCAM, cette librairie informatique repose sur des modèles de machine learning et est développée par l’auteur au sein de l’équipe Représentations Musicales de l’Ircam.

Les articles scientifiques à ce sujet sont disponibles à l’adresse suivante :
https://jeromenika.com/research-designing-generative-agents/.
Les projets musicaux les ayant mis en œuvres sont listés ici :
https://jeromenika.com/category/creation/.