Séminaire 6:
Geste d’improvisation et analyse corporelle
Mardi 12 mai 2020, 14h30 – 17h30
Salle Stravinsky, IRCAM
Geste d’improvisation et analyse corporelle
Mardi 12 mai 2020, 14h30 – 17h30
Salle Stravinsky, IRCAM
À partir d’une session d’enregistrement avec Li Li-Chin (sheng) et Benjamin Lévy (OMax), cette présentation introduira trois enjeux d’une analyse de l’improvisation libre.
Le premier concerne le mélange entre un instrument acoustique (le sheng) et un dispositif électroacoustique (le logiciel OMax). Dans cette session d’enregistrement, OMax joue le rôle d’un double du sheng oscillant constamment entre identité et altérité. L’objectif sera ici de définir ce qui constitue le langage des musiciens dans le domaine de l’improvisation libre, non idiomatique, et d’analyser le rapport du sheng avec son double électroacoustique.
Le deuxième enjeu se situe en musicologie numérique. Quels outils permettent de comparer deux lignes musicales utilisant la même source de timbre ? Avec quels outils provenant de l’acoustique musicale et du traitement du signal pouvons-nous les analyser ? Existe-t-il des méthodes de traitement manuel ou automatique et des techniques de visualisation facilitant la recherche musicologique ?
Enfin, le troisième enjeu concerne une question plus large dans le domaine des performance studies. Durant la session d’enregistrement, les deux musiciens ont été filmés afin d’analyser leurs interactions. Un des objectifs sera d’identifier des méthodes d’analyse manuelles ou automatiques permettant de mettre en évidence les corrélations entre, d’un côté le son et la musique et, de l’autre l’image.
Pierre Couprie Titulaire d’une thèse de musicologie sur l’analyse et la représentation morphologique des musiques électroacoustiques, chercheur à l’Institut de Recherche en Musicologie (CNRS UMR8223), membre de l’Association Francophone d’Informatique Musicale (AFIM) et de la Société Française d’Analyse Musicale (SFAM), il concentre ses recherches sur la musique électroacoustique et le développement d’outils interactifs pour l’analyse, la pédagogie et la performance musicale.
Il est maître de conférences HDR et enseigne la pédagogie et les technologies numériques pour la recherche à Sorbonne Université. Il collabore depuis 2004 avec le Music, Technology and Innovation – Institute for Sonic Creativity (MTI2) de l’université De Monfort sur des projets de référencement et d’analyse de la musique électroacoustique. Depuis 2015, il collabore aussi avec la compagnie musicale Motus sur l’enregistrement et l’analyse de l’interprétation des musiques acousmatiques. Depuis 2006, il développe des logiciels (iAnalyse, EAnalysis et, plus récemment MotusLabTool) afin d’analyser et représenter la musique dans un contexte de recherche musicologique mais aussi de pédagogie. En 2015, il obtient le Prix Qwartz Max Mathews de l’innovation technologique pour ses logiciels.
Il est aussi musicien improvisateur en électroacoustique au sein du collectif Les Phonogénistes et de l’Orchestre National Électroacoustique.
Le sheng produit un son proche de l’harmonica ou de l’accordéon. En effet, ces instruments
partagent le même mode de production sonore : pour chaque note, une anche métallique est mise en vibration par un flux d’air produit par l’instrumentiste ou par un soufflet. La fréquence produite dépend de la raideur et de la masse de l’anche. Chaque anche est donc minutieusement accordée en modifiant la masse par ajout ou limage de matière pour l’accordéon ou à l’aide d’une cire pour le sheng.
Ce principe a déjà été validé dans Modalys à partir d’un modèle d’anche faible proche de l’anche de la clarinette. Pour modéliser le sheng, nous devons porter un modèle d’anche libre dans la version actuelle du logiciel. En effet, un modèle avait été développé à l’occasion d’une étude de l’accordéon menée par le département « Acoustique Instrumentale » de l’Ircam il y a quelques années. Pendant cette présentation, nous espérons montrer un modèle temps réel du sheng utilisant cette connexion plus proche du fonctionnement physique de l’instrument.
Jean Lochard est Réalisateur en Informatique Musicale chargez de l’enseignement à l’Ircam depuis 2001. Il enseigne l’acoustique, les techniques pour l’analyse-synthèse et le temps réel aux compositeurs du Cursus de Composition et d’informatique musicale du département Pédagogie & Actions Culturelles. Il s’est particulièrement spécialisé dans la synthèse sonore par modèle physique avec entre autre le logiciel Modalys développé par l’Ircam. Il a également réalisé les Ircamax, plugin pour Ableton Live et Najo Max Interface, une interface facilitant l’utilisation du logiciel Max. Il poursuit par ailleurs son travail de musicien électronique : remix d’Emilie Simon, ciné-concerts, spectacles avec la compagnie Suonare e Cantare, création d’applications pour le Karlax, réalisations informatiques pour Avril, Pierre Estève, Jean Michel Jarre, Jackson and his Computer Band… Son premier LP « A Quiet Place On This Planet » est sorti en 2015 suivi en 2019 par l’album « New Brain ».