Générativité
et interactivité en musique et en art
électroacoustique
Roland CAHEN 03/05/2000
Introduction :
Je me passionne pour les musiques
électroacoustiques interactives et la générativité
depuis quelques années tout en en percevant les limites sur le plan
artistique. Ces termes désignent plusieurs genres, et non des styles,
dont les principaux sont : musique électroacoustique en direct,
musique instrumentale à dispositif, musique algorithmique, musique
électroacoustique de procédures, installations sonores interactives,
création multimédia interactive…
C’est une recherche et non un corpus pétrifié.
Cependant ce domaine est loin d’être vierge et il a
considérablement évolué en une bonne trentaine
d’années. La musique et l’art des sons
électroacoustique sont sollicités pour répondre
aujourd’hui à quantité de nouvelles créations,
productions, expressions, ou situations interactives.
Qu’entendons nous par
interaction :
Interaction, c’est l’action (qui se produit)
entre.
Si il y a entre, il y a donc au deux
éléments ou davantage.
C’est donc avant tout une relation.
L’interaction se décline verticalement et
horizontalement (paradigme, syntaxe), c’est à dire hors temps et
dans le temps.
Hors temps c’est une relation d’état,
elle est établie ou elle évolue, par exemple 2 notes de musiques
établissent entre elles une relation d’intervalle.
Dans le temps, c’est une relation dynamique, elle
se construit par les changements d’états mutuels des éléments.
Pour qu’une interaction dans le temps soit
signifiante, elle se construit le plus souvent sur liens de cause à
effet entre les actions des éléments : cela signifie
qu’à une action répond une réaction plus ou moins déterminée
dont dépendent les actions suivantes.
Il existe des relations temporelles différentes, en
particulier structurées par des relations d’analogie
différences, c’est-à-dire des relations comparatives.
Les formes musicales utilisent couramment ces deux modes
d’interactions.
Les formes interactives proposent, outre l’interaction intrinsèque des éléments entre eux, une interaction dynamique entre le spectateur et les éléments. Elles mettent l’accent non plus sur l’achèvement de l’objet, mais sur la relation du spectateur avec l’œuvre. Elles mettent le spectateur à l’intérieur de l’œuvre et proposent qu’il soit impliqué dans sa personnalisation voire sa réalisation. L’objectif étant de renforcer les liens entre eux par une appropriation active. Une œuvre participative n’est en aucun cas une œuvre plus forte ni moins forte qu’une œuvre fixée. Elle perdra souvent en profondeur, mais l’expérience gagnera en vécu. L’œuvre n’est pas ici un modèle mais une situation à vivre ou vécue. L’histoire de l’art, du théâtre ou du divertissement est une variation continue de la relation entre le spectateur et l’œuvre. L’art interactif apparaît dans ce contexte comme une péripétie de plus et en aucun cas comme une rupture fondamentale. Ce qui est nouveau, c’est que les frontières déjà fragilisées entre les genres : art plastique, musique, théâtre… s’enlisent ici et fusionnent largement.
Je suis embarrassé pour répondre au
musicien qui me dit que toute musique est interactive. Dois-je lui dire que
c’est justement pour cela que les nouvelles technologies
s’intéressent à ce concept, auquel cas il me taxera
volontiers de suppôt de Bill Gates, ce qui m’insulterait, ou bien que
l’interactivité en musique est traditionnellement limitée
à un domaine réduit de situations qui explose aujourd’hui
avec les nouveaux outils d’écriture, ce qui le vexerait.
Qu’est-ce que la
générativité en musique :
Un
système génératif est dit tel lorsqu’il produit,
qu’il génère de la matière, du sens, de la relation,
du mouvement…etc et pour nous ici plus particulièrement du son ou
de la musique par lui-même, sans ou avec le minimum d’intervention
extérieure de la part d’une personne, d’un groupe, ou
d’un autre dispositif qui le contrôlerait. Cette définition
théorique pose d’emblée la question des limites de
l’autonomie.
Quel
système en effet peut être considéré comme autonome
c’est-à-dire fermé et à quoi pourrait bien servir un
tel dispositif s’il existait. En pratique on restera donc volontairement
plus flou et l’on se contentera d’affirmer que la mer
génère des vagues ou du sable alors qu’elle produit du poisson
ou des naufrages. ‘Génére’ indique ici que la mer est
à l’origine des vagues de part sa taille et les effets
météorologiques, ‘produit’ signifie que la mer est
bien une condition nécessaire à la vie des poissons, ici son
contexte, mais qu’elle n’en est pas la seule cause.
Il
s’agit d’une distinction de causalité. C’est l’idée
de cause exclusive.
La notion
de cause serait donc à la fois au cœur de la genèse lorsqu’elle
est exclusive et de l’interaction dans le cas d’une relation de
cause à effet.
Donc,
de mon point de vue, plus une musique est générative, moins elle
est interactive.
Jean
Pierre Balpe, un des premier explorateur de la création
générative en France considère lui la
générativité comme un degré supérieur sur
l'échelle de l'interactivité.
Générativité
implique selon moi le temps réel. Si une chose à
été générée dans le passé, elle a
donc due être fixée sur un support (physique ou virtuel)
Types
d'action :
Déclenchement
:
L'action
de l'utilisateur déclenche un événement unique ou une
chaîne d'événements prédéterminée
(fixée sur support) ou générative (partiellement
déterminées par les conditions initiales et l'algorithme)
Contrôle
continu :
L'utilisateur
contrôle l'évolution, l'ordonnancement, le contenu d'un
événement ou d'un flux d'évènements.
Ces deus type d'action
conviennent également à deux types de sons : les sons impulsionnels
et les sons entretenus. La plupart des sons entrent dans ces deux
catégories. Ce qui les différencient c'est que l'action dans le
cas des premiers consiste à les déclencher, c'est le cas des
instruments de percussions. Alors que dans le cas des seconds, l'action
consiste à les commencer, à les entretenir et à moduler
éventuellement leur entretient, puis à les terminer. C'est le cas
des instruments à cordes frottées, les vents etc… La
musique est dans le cas des premiers obtenue soit par leur comportement
autonome, on pourrait dire génératif, soit par l'organisation des
itérations et de leurs différences d'un son à l'autre
successivement (organisation horizontale ou syntagmatique) et/ou
simultanément (organisation verticale ou paradigmatique).
Dans le cas des seconds, la
musique naît de l'organisation des particularités et des
évolutions internes du son ou de plusieurs sons entre eux.
Autrement dit, en partant de
l'action pour produire le son, on choisira plus logiquement un son pulsionnel
lorsque l'action se fera sur un simple bouton de déclenchement alors que
si l'on dispose d'un contrôle continu, on gagnera à utiliser un
son entretenu.
L’origine
ou la cause ?
Pierre Schaeffer utilise le
concept de cause pour désigner l’objet et la raison qui produisent
le son. Ce terme sent bon les études classiques. Associé à
un sujet caché il renvoie au religieux et constitue une homophonie
amusante du fait qu’un son qui ne causerait pas serait pour ainsi dire un
silence. Bref !
Pour plusieurs raisons,
j’ai besoin aujourd’hui de le questionner ce concept. Plus
particulièrement dans un souci différent de l’approche
électroacoustique, celui du son et de la musique
électroacoustique interactive.
Ce qui produit le son,
l’objet que Pierre Schaeffer appelle le corps sonore, incarne davantage
l’origine que la cause du son. Sa connaissance ne donne pas,
contrairement à la cause, la raison du son entendu. Pour moi, le violon
n’est pas la cause du son, mais son origine ou l’instrument qui le
produit, la cause est à chercher ailleurs, elle peut être
multiple, par exemple qu’un violoniste glisse son archet sur une corde ou
que l’instrument tombe de la chaise.
Considérant le
trièdre ‘ Cause Action Effet ’ ;
l’instrument, l’origine ou la source du son paraissent, se
rapporter davantage à l’Action, qu’à la cause
proprement dite du son. La cause, plus trouble, peut aussi bien être
issue de la lutherie, de la situation ou de la raison même de produire.
Comment et
pourquoi les choses produisent du son ?
La musique
interactive se préoccupe des causes, non plus pour analyser le
phénomène sonore pour lui-même, mais pour organiser des
situations relationnelles entre un effet ; un son et sa cause ;
l’événement qui le produit.
La notion de cause dans son
acception courante est donc requise et suggère une rectification de
l’usage du concept de cause en musique électroacoustique.
Nous sommes donc
aujourd’hui conduits à constituer une grammaire des causes
sonores.
Chaîne des causes et des
effets :
La raison de produire ou de modifier le son
L’origine du son produit
Action de le produire
Le son lui-même
Les conséquences ultérieures
La
relativité de la cause :
Il y a toujours une cause
derrière chaque cause, et chaque corps sonore est un système
complexe.
Par exemple la cause du rebond de
la balle de ping-pong n’est pas seulement le corps de la balle mais aussi
l’action de la lâcher, la hauteur de la chute, la rigidité
et la rugosité de la surface de rebond…etc., il arrive même
que la balle ne soit pas ronde.
Un corps sonore n’est pas
un objet autonome, il est à la fois complexe en lui-même et en
interaction avec son environnement.
Autre exemple, le vent dans un
arbre : c’est un phénomène complexe de flux et de
reflux, de tourbillons… etc, et il n’y a de production sonore que
grâce à l’interaction dynamique de chaque filet d’air
en mouvement avec chaque feuille de l’arbre selon un plan de
déroulement global spécifique.
Ce n’est pas beau tout
à fait par hasard.
Les sons ne
sont pas aussi sages que les images :
La plupart des modes relationnels
Cause, action, effet utilisés dans les dispositifs interactifs restent
très convenus.
La nature regorge pourtant de
situations de production sonore d’une richesse infinie offrant une
palette de modèles au concepteur multimédia.
En veut on un exemple ?
Lorsqu’il s’agit d’associer un son à une image ;
ce « son » est le plus souvent appréhendé
comme un élément de durée illimitée, continu,
homogène et sans forme, de préférence une boucle du plus
court fragment possible. Or combien de fois rencontrons nous dans la nature des
phénomènes aussi pauvres ?
Dans
l’installation Icare développée au CICV avec Ivan
Chabannaud et Bruno Herbelin, nous étions parti sur l’idée,
finalement simpliste, que les objets de notre monde virtuel produisent un son
qui augmente lorsqu’on s’approche de l’objet et dont le
panoramique varie en fonction de l’angle entre l’objet et
l’axe de la tête du navigateur. Nous avions bien ri de nous
entendre convenir ensemble que : « à vue
d’œil c’est audible ». Très vite nous avons
constaté que les effets étaient très monotones et que lier
seulement le comportement sonore des objets à la distance et la
direction du navigateur revenait à l’assujettir à
l’âge du capitaine. Par la suite nous avons
expérimenté toutes sortes de modes d’interactions dans
lesquelles le rôle du son n’est pas seulement d’accompagner
la présence visuelle d’un objet mais : par exemple de rendre
un comportement musical indicatif ou significatif.
Synthèse, contrôle, variations ou brassage
d’échantillons sonores ?
Qui
dit générativité dit synthèse, mais le plus souvent
une genèse partielle, c’est-à-dire utilisant des parties
préétablies, est plus riche qu’une synthèse
produisant des sonorités triviales aux paramètres insignifiants.
Percevoir l’interactivité
Une
des question problématique en musique interactive est la
perceptibilité de l’interaction, autrement dit : si vous
entrez dans une pièce sombre, que vous tournez l’interrupteur et
qu’aucune lumière ne s’allume, vous êtes en droit de penser
que l’ampoule est grillée. Dans les relations humaines ou dans une
installation artistique, le même problème se pose, mais la
solution est autrement plus complexe. Plus la réaction est
élémentaire et immédiate plus elle est perceptible, mais
plus elle est triviale et nous place dans la position de l’instrumentiste
qui doit faire ses gammes. Plus au contraire la réaction est
élaborée, conceptuelle ou culturelle, plus elle est inattendue,
décalée dans le temps ou incertaine, moins elle répond
à la sollicitation. On ne s’étonne plus du silence de Dieu.
Il est cependant souvent possible de lier les deux, c’est-à-dire
tenir un propos sophistiqué avec des mots simples, mais c’est plus
difficile.
De
même il est souhaitable que la générativité soit
perçue sinon, elle pourrait avantageusement être remplacée
par un travail prédéterminé.
Toutefois,
la complexité des dispositifs, en particulier les réseaux,
modifient considérablement la nature concrète de l'objet
audiovisuel au point qu'il n'a plus ni support, ni localisation, ni
temporalité au sens propre ou que ces données se trouvent
réparties entre différentes instances. Ainsi, tout contenu
devient à la fois interactif, génératif et
prédéterminé, ce qui ne simplifie pas notre affaire.
Le systématisme
Un
des problèmes majeurs rencontré en musique
générative est le systématisme des procédures
génératives et des contrôles. Une fois un algorithme
établi, les variations étant réduites à des effets
« qui fonctionnent », on n’en sort plus. À
l’inverse, plus les possibilités du procédé sont
étendues plus le risque de rencontrer des comportements erratiques ou
redondants est important. Comme les changements de procédés sont
le plus souvent des ruptures de comportement violentes, on est sans cesse dans
la recherche d’un compromis satisfaisant et souvent instable.
L’insuffisance des outils
Dans
le domaine multimédia les outils sonores souffrent d’une grande
pauvreté, toute proportion gardée, par rapport à
l’image. La plupart d’entre eux sont consacrés aux seules
situations conventionnelles et interdisent toute invention qui ne soit pas
strictement répertoriée.
Il y
a quelques exceptions, d’outils forcément limités, comme le
logiciel Max, qui malheureusement survit difficilement au marché
écrasant des séquenceurs et des guitares électriques.
Historiquement deux tendances principales :
Se
côtoient dans le domaine musical électroacoustique : l'approche
instrumentale et l'approche concrète. On retrouve également ces deux
points de vue dans les musique interactives : ces deux approches antagonistes
en France sont issues de deux écoles opposées, cette articulation
se retrouve également entre les pays anglo-saxons et latins.
La
tendance instrumentale, héritière de la tradition musicale
classique qui considère les dispositifs électroacoustiques
interactifs comme des extensions de la lutherie et qui met l'écriture et
la partition au centre de la conception musicale.
Cette
tendance s'est considérablement développée en France en
particulier autour d'institutions comme l'IRCAM, elle même issue de la
"Musique Electronique" qui s'est développée
après la guerre en Allemagne, en particulier à Cologne et
Darmstadt et avec comme représentants les compositeurs Stockhausen,
Boulez, Ligeti mais également dans un autre style Berio ou
Xénakis. Ces compositeurs ont employé les instruments
électroacoustiques comme un moyen d'atteindre des performances
impossibles avec les instruments sans électronique et de produire des
situations instrumentales nouvelles. Puis dans les années 70/80
l'ensemble l'Itinéraire de Michael Levinas, Hugues Dufourt,
Gérard Grisey, Philippe Manoury, Tristan Murail et d'autres ont
donnés à la musique pour dispositif électronique ses
lettres de noblesse en étendant les possibilités d'interaction
à mesure que les outils d'informatique musicale se sont
perfectionnés…
L'instrument
étant au centre de la notion d'interactivité cette approche
réserve néanmoins le plus souvent l'interaction musicale aux
seuls musiciens.
La
tendance électroacoustique héritière de la tradition
Schaefferienne de la musique concrète qui s'est dès la fin des
années 40 à cherché dans les moyens
électroacoustique les possibilité d'une nouvelle musique.
Il
s'agit donc de reconsidérer l'articulation compositeur - instrumentiste
- auditeur pour fabriquer concrètement la musique sans chercher à
imiter la musique instrumentale mais en explorant les formes spécifiques aux manipulations électroacoustiques
Cette démarche s'écarte du domaine instrumental et des notions
traditionnelles de hauteur et rythmes pour privilégier le son comme la
matière centrale du propos esthétique. Les œuvres souvent
appelées acousmatiques sont fixées sur des bandes, des
ordinateurs, ou des supports variés et sont le plus souvent peu
interactives. Mais il existe également de nombreuses formes
électroacoustiques interactives : installations, diffusion,
réalités virtuelles…etc. Toute forme de création
sonore n'utilisant ni instrument ni partition mais des ordinateurs, des
cédéroms ou une part électronique générative
s'inscrit dans cette approche électroacoustique. Mais le plus important
est que cette approche est centrée sur la perception plutôt que
sur la conception. Sur l'expérimentation plutôt que sur le savoir.
Sur l'auditeur plutôt que sur le musicien. Ainsi le son à ses
raisons que la musique ne connais pas.
Les modes d'interaction
C'est
le type de rapport qui s'établie entre le sujet et l'interacteur et
l'objet de l'interaction.
Les
principale modes d'interaction sont : l'action sur un outil ou un instrument,
le jeu, le dialogue, l'exploration contemplative, la participation active
à une évolution ou au développement d'un sujet, la
construction ou la création interactive…
Œuvre à réaliser ou dispositif à
explorer ?
On
peut considérer qu'une musique interactive peut être une
œuvre ouverte totalement assumée comme un domaine à explorer
librement.
Apparaît
alors la notion de contraintes. Quelles sont les type et l'ambition des
contraintes dans l'objet musical interactif ?
S'agit
t'il de contraintes temporelles, stylistiques harmoniques,
d'échange…etc
Chaque
posture vis à vis du mode d'interaction peut être
considéré comme une forme de contrainte.
Et
les choix de libertés et de contraintes détermine une stylistique
propre à l'interactivité qui peut elle même se positionner,
sans que cela me paraisse indispensable, vis à vis des styles musicaux
tout court.
Trois notions :
1)
L'instrument ou le dispositif interactif : est un outil pour produire de
l'interactivité :
2)
La notion d'œuvre musicale interactive impliquerait à mon avis une
réalisation totalement aboutie et assumée par le compositeur,
alors qu'un dispositif qui ne revendique pas le statut de l'œuvre est en
quelque sorte l'idée non totalement réalisée dont il est
confié à un interacteur même non formé non
exercé la responsabilité de la réalisation.
3)
La notion d'installation musicale interactive propose à mon avis un
cadre moins contraint et moins contraignant pour l'interacteur.
Je
m'intéresse d'avantage à une musique non instrumentale, non
œuvre fonctionnant plutôt sur des modes ludiques, exploratoires et
contemplatifs qui s'approfondissent à mesure qu'on les découvre
mais qui offrent également dès la première consultation
une musique prenante.
Fabriquer
un instrument dont on enrichit sans fin les possibilités est une impasse
pour quiconque à déjà pratiqué le studio et en
particulier la synthèse. C'est au contraire le plus souvent avec les
dispositifs relativement simple que l'on obtient les meilleurs
résultats. Encore faut-il qu'ils offre une richesse expressive et
permettent les nuances.
Vers une Typologie de la musique interactive :
Robert
Rowe dans son ouvrage "Systèmes musicaux interactifs"
développe les cadres d'une musique instrumentale interactive.
Systèmes
pilotés par la partition (ou l'ordinateur)
Systèmes
pilotés par l'exécution (ou l'interacteur)
Le
rôle de l'ordinateur est triple : Détection - Traitement -
Réponse
La
réponse peut être une transformation de l'action une
génération nouvelle ou un séquencement
Il
faut distinguer des systèmes : Solo où le dispositif joue le
rôle d'un instrument
Duo
où le dispositif se conduit comme un musicien
Le domaine de l’interactivité en musique :
Note : Les schémas ci dessous ne sont à
mon avis pas totalement convaincant, mais c'est tout ce que j'ai trouvé
pour l'instant, je cherche une meilleure formulation. Je vous les soumet tout
de même en espérant que quelqu'un pourra les améliorer ou
m'aider à le faire.
1 : L’action
Dans le cas du support ou de la
générativité, il n'y a quasiment pas d'intervention ou
d'action de la part de l'utilisateur, sinon la mise en route et l'arrêt
d'une suite d'événements.
Le jeu est à l'inverse le prototype de
l'interactivité avec comme modèle le jeu instrumental. Seulement
qui dit jeu instrumental dit aussi maîtrise de l'instrument. Le domaine
de l'interactivité serait en quelque sorte un jeu assisté par des
parties prédéterminées ou génératives.
On peut donc parler d'interactivité lorsqu'une
part de jeu se mélange à une part
prédéterminée ou générative, ou aux deux.
Par contre, un réalisation sur support utilisant une part
générative mais pas de jeu, ou un système
génératif déclenchant des parties
prédéterminés me parait échapper au domaine de
l'interactivité.
2 : La réaction
L'objet réagit aux sollicitations de multiple
manières : J'ai dans ce schéma réduit les réactions
à 3 limites que sont : la non réaction ; aveugle, c'est à
dire que l'objet est passif, la restitution fidèle ; miroir
fidèle, c'est à dire que l'objet restitue tout du moins l'image
d'une des composante de l'action, par exemple la force du mouvement est
convertie en variation de fréquence d'un signal continu, c'est la
situation interactive par excellence, mais aussi, la plus difficile à
maîtriser et la plus redondante si non maîtrisée. La
réaction "autre" est autonome, indéterminée,
l'objet réagit à quelque chose mais on ne sait pas très
bien à quoi ni pourquoi, si on est de bonne volonté on cherche
à comprendre du moins pendant un petit moment si le jeu semble en valoir
la chandelle.
Situation la plus commune en musique
électroacoustique interactive :
Situation où le dispositif sert de
médium entre deux personnes :
Les critères de l’interaction :
Indépendant Dépendant