"Les signaux sonores comme matériaux des nouvelles techniques compositionnelles" DEA Musicologie PARIS IV / IRCAM (1996)
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Edition numérique
Règles associées à la perception Règles associées à l'écriture des sons |
III - Les techniques compositionnelles Avec l'invention des échelles de la gamme, Guido d'Arezzo a créé l'alphabet qui allait permettre à l'écriture musicale de se développer à partir de la note comme représentation symbolique du son à jouer transcrit sur le papier. Aujourd'hui, cette représentation est remise en cause par les dimensions microscopiques du signal acoustique. La représentation physique du signal que l'on peut éditer, enregistrer, diffuser ou transmettre est dorénavant le point de départ de toutes représentations sonores dans un espace donné. Il est donc important de pouvoir mettre à jour des règles d'utilisation des signaux sonores qui tiennent compte à la fois des caractéristiques de la perception, du matériau, de l'instrumentarium et du dispositif de diffusion. Cette démarche rejoint celle des nombreux musiciens et théoriciens qui ont mis en forme, à un moment de l'histoire, les techniques d'écriture de leur époque : J. J. Fux, 1725 : Règles de composition du contrepoint ; J. P. Rameau, 1722 : "Traité d'harmonie" ; H. Berlioz, 1844 : "Traité d'instrumentation" ; A. Schoenberg, 1949 : "Composition avec 12 sons" ; M. Chion et G. Reibel, 1977 : "Les musiques électro-acoustiques". C'est ainsi qu'aujourd'hui, à partir de la théorie spectrale de Terhardt (1982), on pourra donner un fondement naturel à la rugosité et établir une nomenclature des spectres fondamentaux (sons purs, sons harmoniques, sons formantiques, sons inharmoniques et bruits) et définir leur domaine d'application. Sont décris dans ce chapitre, la situation présente ainsi que les règles associées à la perception, au matériau, à l'écriture, à l'instrumentarium et au dispositif de diffusion La situation La place considérable que les technologies du son ont prise dans les représentations en temps-réel (musiques amplifiées) et en temps différé (cinéma, disque, multimédia) bouleverse profondément les connaissances, les méthodes d'apprentissage et les pratiques compositionnelles traditionnelles. On constate aujourd'hui que les musiciens développent des esthétiques différentes (musiques amplifiées, musique techno ou musiques de supports), avec des équipements électroniques et informatiques souvent similaires : ■ instruments électriques (synthétiseurs, instruments MIDI, périphériques électroniques, etc.) ; ■ stations informatiques (ordinateurs dotées de toutes sortes de logiciels d'édition) ; ■ dispositifs de diffusion (microphone, table de mixage, haut-parleurs, etc.). Or, si la théorie musicale, le solfège et les pratiques instrumentales enseignées dans les écoles, s'appuient principalement sur le système tempéré et donc sur la tonalité et les sons harmoniques, une nouvelle "théorie musicale" cohérente basée sur le système hertzien et donc, sur la spectralité et tous les types de sons permettra d'enseigner les mondes sonores. L'électrification instrumentale Elle modifie en profondeur le système de représentation acoustique connu jusqu'à présent : ■ en intégrant de nouveaux instruments/équipements ; ■ en provoquant de nouveaux comportements ; ■ en représentant les sons différemment ; ■ en appelant de nouvelles méthodes pédagogiques. La comparaison des systèmes de représentation associés respectivement à l'énergie mécanique et à l'énergie électrique est à cet égard très parlante :
Cette remise en cause du système de représentation montre que l'enseignement doit créer d'autres conditions pour assurer la maîtrise de l'environnement électrique du XXIème s. L'outil informatique En l'espace de quelques années, la station informatique est devenu l'outil incontournable des musiciens. Que ce soient pour la conception des formes d'expression en temps réel (musiques amplifiées, musiques mixtes) ou en temps différé (installations sonores, musiques synthétiques ou produits multimédia), les logiciels permettent de soigner la diffusion, modéliser l'oeuvre ou traiter les sons. La représentation des sons Avec la présence d'un dispositif de diffusion électro-acoustique, le système de représentation acoustique traditionnel en salle ou en plein air s'est élargi. Le compositeur devenu concepteur de sons doit alors tenir compte de l'émission des signaux sonores amplifiés, traités et projetés dans l'espace de diffusion qu'il s'est choisi. Pour cela, il doit aujourd'hui connaître : ■ les mécanismes de la perception auditive ; ■ les paramètres des signaux sonores ; ■ les nouvelles règles d'écriture stéréophonique ; ■ les caractéristiques techniques des équipements et instruments électriques ; ■ les propriétés du dispositif de diffusion dans l'espace. Les nouvelles règles Vue la complexité des techniques et des technologies qui entrent en jeu lorsqu'il s'agit de créer une représentation sonore, il m'est apparu important de dégager un certain nombre de règles simples et facilement applicables. Ces règles qui doivent servir l'écriture des sons dans un espace de représentation vont ainsi définir les Nouvelles Techniques Compositionnelles suivantes. Règles associées à la perception Aujourd'hui, les mécanismes de la perception et les limitations de notre champ auditif nous amène à repenser la valeur artistique de la scène sonore, en organisant les signaux acoustiques, non plus dans l'absolu, mais en fonction du système de représentation choisi (dispositif instrumental, dispositif électro-acoustique ou dispositif multimédia). Ces propriétés liées au fonctionnement de l'oreille doivent servir à utiliser les paramètres des sons, pour réaliser telle ou telle intention artistique. De cette manière, le compositeur pourra mettre en relief les signaux émis par les instruments ou réaliser des illusions auditives avec n'importe quel dispositif électro-acoustique. L'aire d'audition Représentée par le diagramme de Fletcher, l'aire d'audition s'étend de 20 Hz à 16 kHz (domaine fréquentielle) et de O dB à 130 dB (domaine de pression). Le domaine temporel est limité, quant à lui, par les capacités d'intégration de l'oreille et par le temps maximum durant lequel le sujet reste attentif. Ce diagramme, qui diffère selon les individus, montre qu'il faut beaucoup plus d'énergie aux fréquences basses pour qu'elles soient perçues et met en évidence une zone sensible de l'oreille entre 500 Hz et 5 kHz (fréquence de la voix parlée).
L'attention Le degré d'attention n'étant pas le même suivant le type de signaux, on peut travailler : ■ sur une attention libre : musiques, sons naturels ; ■ sur une attention conditionnée par l'appréhension du signal : bruits, sons interactifs ; ■ sur une attention soutenue et conditionnée par la compréhension du langage : commentaire, dialogue parlé. Si on établit ainsi un ordre de durée, on constate que le caractère spatial d'un bruit engage une perception plus immédiate que le caractère temporel d'un commentaire parlé qui nécessite, quant à lui, une perception soutenue et attentive. On peut alors écrire l'ordre des durées suivant : ■ une fraction de seconde pour une note, un bruit sec ou un son interactif ; ■ quelques secondes pour un "objet sonore", un jingle (indicatif) ou un motif musical ; ■ plusieurs secondes pour un thème, une mélodie, une phrase ou une phrase musicale ; ■ plusieurs minutes pour un commentaire, une section, une séquence ou un mouvement. Lorsqu'il y a de la voix, de l'image et du texte, la perception va prioritairement de la voix, à l'image puis au texte : la voix étant la principale vectrice de la communication et de la compréhension, elle nécessite moins d'effort que la lecture.
Les bandes critiques L'oreille humaine possède la faculté de décomposer le spectre de fréquences en zones, appelées bandes critiques. Cette propriété fondamentale de l'ouïe joue un rôle essentiel sur la sensation d'intensité. L'oreille prend en compte la densité spectrale absolu en dessous de 500 Hz et la densité spectrale relative au-dessus de 500 Hz. En les rangeant l'une à côté de l'autre, on trouve 24 bandes critiques de 20 Hz à 16 kHz : la largeur d'une bande est indépendante du niveau.
La distance apparente C'est la distance attribuée à la source virtuelle du signal sonore diffusée par haut-parleur. On peut parler de "grosseur du plan sonore" par analogie avec le cadrage de l'image photographique. Cette "présence" du timbre serait liée à l'amplitude des composantes situées autour de 2000 Hz. L'éloignement de la source sonore est détecté par les oreilles à partir d'indices tels que : ■ la modification du spectre ; ■ la synchronisation des attaques (et transitoires) ; ■ le mélange entre onde directe et onde réfléchie ; ■ la présence de la réverbération.
L'espace auditif Notre état de vigilance, conscient des sensations sonores, intervient sur les dimensions d'un petit domaine de l'espace auditif, appelé cône de vigilance. Ce cône explore difficilement tout l'espace subjectif : la sensation sonore doit être proche de la tête et de l'axe auditif. Le cône de vigilance regroupe les sons psychologiquement proches de l'auditeur (voix) mais aussi les sons d'ambiance diffus de l'espace subjectif (bruits) : ils sont ainsi mieux perçus dans une zone d'écoute réduite Lorsque nous sommes passifs face à l'émergence des sensations, l'espace auditif se réduit à un cône étroit d'axe horizontal, dirigé vers l'avant et appelé cône de présence. Les signaux sonores y sont perçus de manière variable suivant la localisation psychologique et d'autant moins tangible qu'ils sont plus distants, moins frontales, plus éloignés du plan horizontal des oreilles et du plan de symétrie du corps humain.
L'horizon acoustique L'horizon acoustique (von Békésy, 1971) se caractérise par la profondeur du champ sonore, soit la distance maximale à laquelle un "objet sonore" peut être perçu. Lorsque les haut-parleurs sont placés dans l'espace auditif à une distance de 3 à 6 m (cas d'une chaîne HIFI), on peut simuler une mise en relief des "objets sonores" sur des distances comprises entre 2 et 400 m. Dans cet espace, la variation du spectre, liée au mouvement de l'"objet sonore" peut être facilement reproduite pour de faibles distances.
L'illusion auditive On peut parler d'illusions auditives chaque fois que notre perception du son est en désaccord avec sa description physique ou acoustique (Risset, 1983). Ces illusions révèlent souvent très clairement certaines propriétés spécifiques des mécanismes perceptifs et présentent un intérêt évident pour la composition sonore.
L'image auditive S. McAdam, Penser les sons (1994) "L'image auditive est définie comme une représentation psychologique d'une entité sonore qui manifeste une cohérence interne dans son comportement acoustique". Dans les conditions naturelles d'écoute, la cohérence spatiale de l'image auditive est déterminée par une relation entre les différences de temps et d'intensité des ondes incidentes qui parviennent aux oreilles. Les techniques de synthèse actuelles permettent de créer des "images auditives" en 3 dimensions dans lesquelles nous nous déplaçons virtuellement. Ces techniques tiennent compte du processus de compensation (ou réafférence vestibulaire) qui annule le déplacement apparent des sources quand on se déplace : alors que nous changeons constamment d'angle par rapport aux sources, nous mémorisons néanmoins des "images auditives" stables. Les arts du support (cinéma, disque, multimédia) sont le domaine de prédilection des "images auditives" artificielles. Michel Chion, "La toile trouée" (1988) "Le son transporte avec lui, la visualisation mentale et concrète d'un lieu".
La localisation Il y a certains lieux dont la résonance particulière conduit le son à être perçu à un endroit différent de celui où il est produit. S. McAdam, "Le son au cinéma" (1992) "Localiser un son, c'est déduire d'un certain nombre d'indications sensorielles, d'expériences antérieures et de connaissances, les coordonnées spatiales des ondes directes". Le foyer des signaux des instruments acoustiques est mieux localisé que celui des instruments électriques qui n'existe que par les haut-parleurs. Dans ce cas, les vibrations acoustiques sont encore plus dispersés dans l'espace. G. Malher "C'est ainsi, de toutes les directions, que les thèmes doivent surgir, sans rapports mutuels aux points de vue rythmique et mélodique : la seule chose est que l'artiste doit les ordonner et les unir en un tout cohérent". La différence de phase est surtout sensible aux fréquences graves alors que la différence d'intensité l'est aux fréquences aiguës. Entre 800 Hz et 15OO Hz, il faut tenir compte de la densité spectrale du signal, de la présence des transitoires, du rapport onde directe/onde réverbérée et de la valeur du temps de délai initial. Pour toutes les valeurs de temps de délai initial, comprises entre 600 ms et 50 ms, l'oreille localise le son du côté de l'incidence de l'onde directe quelle que soit la direction d'arrivée des ondes incidentes. Pour des valeurs inférieures à 600 ms, l'oreille effectue une localisation de sommation : au délai de 50 ms, la fusion ne se produit plus et l'oreille perçoit un écho.
La perception auditive Chez l'être humain, la perception auditive est à l'origine, une faculté instinctive de prévention contre les dangers naturels : elle joue donc souvent un rôle d'alerte plus efficace que la vue ou que le toucher. La perception est un processus actif où l'interprétation mentale se construit à partir de ce qui est donné à entendre : à chaque instant, la vibration sonore va exciter la membrane de l'oreille externe, stimuler le nerf auditif de l'oreille interne et déterminer les sensations. L'oreille est capable de détecter dans un temps très court (temps de propagation + temps physiologique + temps psychologique) la variation microscopique des signaux, et peut, dans un environnement complexe, analyser et reconnaître leurs significations (effet Coktail Party). Surtout sensible au contenu spectral et à l'évolution temporelle du signal, elle analyse avec une incroyable acuité, les plus petites modulations. Benjamin L. Whorf, Language, Thought and Reality "Chaque langue structure la perception de ceux qui la parlent".
Le point d'écoute A la différence de la peinture, qui a très tôt pris en compte la place du spectateur par rapport à la surface de représentation (perspective au XVIème s.), le point d'écoute n'est pas du tout formalisé dans l'écriture musicale. Bien souvent, l'importance de l'ensemble instrumental et le dispositif électro-acoustique vont conditionner la place de l'auditeur par rapport aux sources. On distingue ainsi : ■ les musiques de scène, sans amplification, qui mettent en avant le ou les solistes (instrumentistes ou chanteurs) pour les rapprocher des auditeurs ; ■ les musiques électriques amplifiées qui bénéficient de la diffusion par haut-parleurs peuvent créer une proximité et réduire les distances ; ■ les musiques interactives (jeux vidéo entre autre) qui permettent à l'auditeur de choisir un parcours dans l'oeuvre (CD, CD-ROM).
Le pouvoir séparateur Le cent (centième d'un demi-ton tempéré) représente l'unité correspondante au pouvoir séparateur de l'oreille sur les hauteurs, soit le plus petit intervalle perceptible dans les meilleurs conditions. Son expression mathématique résulte du découpage de l'octave en 1200 parties égales. Les propriétés de non-linéarité de l'oreille apportent : ■ des harmoniques subjectives ; ■ l'ajout d'un son fondamental ; ■ des sons de combinaison : addition, soustraction.
Le temps d'intégration Le temps d'intégration de l'oreille définit une valeur temporelle pour chaque classe de sons : il est donc variable et peut dépendre de facteurs psychologiques. On peut ainsi hiérarchiser les durées : ■ quelques millisecondes pour déterminer la hauteur d'un son pur de 1000 Hz ; ■ quelques dizaines de millisecondes pour apprécier la coloration d'une salle ; ■ 50 ms pour juger de la présence psychologique ; ■ 300 ms pour estimer les modulations ; ■ 5 à 10 sec. pour avoir conscience de la qualité d'un enchaînement entre 2 modulations ; ■ une à plusieurs minutes pour régler la dynamique d'une oeuvre musicale ; ■ un temps plus long encore pour estimer la signification esthétique. Cette croissance du temps d'intégration est un indicateur de la complexité des mécanismes de la perception.
Depuis le XVIème s., l'écriture musicale s'est développée à partir de la note comme représentation symbolique des sons. Depuis Schaeffer, cette représentation est remise en cause par les signaux acoustiques que l'on peut visualiser, éditer, modifier, diffuser ou transmettre. L'objet sonore devient l'élément de base de l'écriture comme représentation atomique de tous les sons, qu'ils soient parlés, bruités, naturels, instrumentaux ou synthétiques. Les bruits Il existe une quantité infinie de bruits (bruit blanc ; bruit de parole : affriquées, fricatives, plosives ; bruits "musicaux", bruits naturels, bruits synthétiques), qui se différencient tous par leur spectre, leur intensité et leur modulation. On peut ainsi hiérarchiser les durées : ■ les bruits à large bande : bruissement, bruits de fond, vents, jet de vapeur, etc. ; ■ les bruits à bande étroite : cris, grincements, chocs, ronflements, etc.
Les classes de spectre En offrant l'intégration et la classification de tous les types de sons, la représentation spectrale permet de visualiser : ■ la distribution de l'énergie spectrale ; ■ la combinaison du degré de fluctuation de l'enveloppe spectrale pendant la durée du son et du synchronisme des différentes harmoniques pendant l'attaque ; ■ la présence des vibrations inharmoniques. Suivant le type de sons employés, on utilise une représentation symbolique adaptée soit aux jeux de l'instrumentiste, soit aux besoins de l'analyse spectrale (acousmographe) : elle peut être ainsi musicale, textuelle ou graphique.
La densité spectrale Elle mesure le nombre de fréquences contenues dans le spectre du son. On distingue : ■ une fréquence simple (densité spectrale minimale du son pur) ; ■ les fréquences multiples de la fondamentale (sons harmoniques) ; ■ les groupements de fréquence dans une zone (formants des sons vocaux) ; ■ les fréquences non multiples de la fondamentale (sons inharmoniques) ; ■ une multitude de fréquence (densité spectrale maximale des sons bruités).
La longueur d'onde Elle est inversement proportionnelle à la fréquence du signal sonore et conditionne sa propagation dans l'espace : le son audible le plus grave (20 Hz) a une longueur d'onde de 17 m, alors que le son le plus aigu (20 kHz), a une longueur d'onde de 17 mm.
Les modulations Elles transforment à l'échelle microscopique, le signal acoustique ou électrique, de façon à enrichir et à porter l'émotion de ce qui est donné à entendre : ne reconnais-t-on pas le son d'un pianiste à ses attaques, le son d'un chanteur à son trémolo, ou le son d'un violoniste à son vibrato. On distingue : ■ la modulation de fréquence. L'oreille est très sensible à une modulation de 4 Hz. Pour les bruits, les écarts doivent être supérieurs à 20 Hz. Les intonations sont des variations microscopiques ; ■ la modulation d'amplitude. Le trémolo est une variation microscopique et rapide de l'amplitude ; ■ la fluctuation de l'enveloppe spectrale pendant la durée du son et la synchronisation des harmoniques pendant l'attaque.
Le signal sonore Variation de pression de l'air, variation de tension électrique ou variation mécanique, le signal sonore est une vibration acoustique qui prend la forme du milieu qui le transporte (air, électricité, eau) pour transmettre une information de l'émetteur (source) au récepteur (auditeur). Tout signal sonore possède un caractère spatial à plusieurs dimensions (fréquence, amplitude, enveloppe, spectre, durée), qui peuvent être soumises à des transformations linéaires.
Les sons instrumentaux Il existe une quantité infinie de sons instrumentaux qui dépendent à la fois du corps sonore (système de production) et de l'excitation de ce corps (corde, tube, peau, etc.) : tous ces sons se différencient par leur spectre, leur attaque, leur enveloppe et leur modulation dans le temps.
Les sons naturels Il existe une quantité infinie de sons naturels qui viennent du monde animal, végétal ou géographique qui les produit : tous ces sons se différencient par leur spectre, leur attaque, leur enveloppe et leur modulation dans le temps.
Les sons synthétiques Il existe une quantité infinie de sons synthétiques qui dépendent des technologies électroniques et informatiques qui les produisent : tous ces sons se différencient par leur spectre, leur attaque, leur enveloppe et leur modulation dans le temps. Parmi les différentes techniques, on distingue l'échantillonnage de la forme d'onde, la modulation de fréquence, la modélisation physique, la synthèse additive ou soustractive, la synthèse croisée, granulaire ou formatique.
Les transitoires La structure atomique de l'objet sonore fait apparaître au moins quatre transitoires : ■ l'attaque dont la durée très courte (de 1 à 200 ms) lance les composantes harmoniques ; ■ la chute (ou decay) dont la durée courte fait suite à l'attaque ; ■ l'entretien (ou sustain) dont la durée moyenne ou longue établit le son ; ■ l'extinction (ou release) dont la durée relativement longue s'enrichit des ondes réfléchies par le lieu de diffusion (réverbération de la salle).
Les voix Il existe une quantité infinie de voix qui dépendent à la fois du système vocal de celui qui parle, de son langage et de son état psychologique (intonation émotionnelle) : tous ces sons se différencient par leur spectre, leur attaque, leur enveloppe et leur modulation dans le temps. On distingue : ■ les voyelles : sons harmoniques ; ■ les syllabes : sons multiphoniques ou inharmoniques ; ■ les consonnes : sons bruités. Une voix transmet deux types de messages : ■ un message sémantique, parole dans une bande passante de 300 à 4000 Hz ; ■ un message esthétique perceptible au travers des qualités de la voix (timbre, débit, intonation). Les variations formantiques du spectre qui transmettent le message sémantique, sont indépendantes du type de voix : chuchotée, proche ou éloquente.
Règles associées à l'écriture des sons L'utilisation des nouveaux matériaux (sons inharmoniques, naturels, bruités ou synthétiques), des nouveaux instruments (station informatique, instruments MIDI, effets) et des dispositifs de diffusion électro-acoustiques obligent les compositeurs à inventer de nouvelles techniques compositionnelles. A partir de 1958, le Groupe de Recherche Musicale entreprend un vaste travail de recherche collectif pour faire de la composition, un lieu d'expérimentation. Le solfège expérimental de P. Schaeffer prépare ainsi les "objets sonores" en repérant dans leurs caractéristiques intrinsèques les conditions d'une articulation musicale. Les critères tels que l'allure, mais aussi le grain et la masse sont susceptibles de créer un discours. L'étude psycho acoustique de l'"objet", qui se situe entre l'analyse des paramètres physiques et celle des critères de perception, forme la typologie complémentaire de la morphologie des objets musicaux (P. Schaeffer : Traité des objets musicaux, 1966). L'apprentissage d'un solfège expérimental, d'une méthode d'écoute, d'un vocabulaire morpho-typologique et des techniques électro-acoustiques (modes d'emploi et fonctionnement des matériels) vont mettre à jour les étapes de réalisation d'une oeuvre musicale (M. Chion, G. Reibel : Les musiques électro-acoustiques, 1977). A Utrecht, dans les années 80, le Dr. W. Kaegi crée le système MIDIM, qui donne une interprétation acoustique du signal sonore grâce au son de synthèse VOSIM. Par un jeu de questions réponses, le compositeur décrit ses univers musicaux dans le programme Descripteur pour les classes de sons, qu'il a définies dans le programme Prédicateur. Pour la première fois, un logiciel établit un système de représentation numérique en cohérence avec le matériau, le support et l'outil. Aujourd'hui les techniques d'analyse, de synthèse et de traitement en temps réel des signaux acoustiques se sont affinées. Ils offrent aux musiciens des outils de composition d'une très grande richesse mais oublie cette cohérence du système d'écriture que l'on avait dans le système MIDIM. Car en créant un nouveau système d'écriture, les outils informatiques en réseaux révolutionnent, tout le système de représentation des énergies mécaniques. On retrouve dans les systèmes numériques d'écriture et de représentation d'aujourd'hui, la cohérence qui a prévalu depuis la Renaissance entre les systèmes symboliques d'écriture et de représentation. L'avenir de l'écriture est donc dans les arts du support (cinéma, audiovisuel, disque, multimédia interactif) qui peuvent dorénavant s'appuyer sur les paramètres physiques des signaux sonores pour créer et organiser leurs formes. Les concepts d'écriture Si l'écriture de la musique occidentale s'est développée autour de cinq grands concepts, les dispositifs électro-acoustiques et les réseaux numériques d'aujourd'hui, en modifiant la localisation et la transmission des sources sonores dans l'espace de diffusion, crée deux concepts nouveaux : celui de la stéréophonie et de la téléphonie. On distingue ainsi : ■ la monophonie (voix unique) ; ■ l'homophonie (groupe de voix jouant simultanément mais pouvant avoir des densités différentes : début de l'harmonie) ; ■ l'hétérophonie (plusieurs voix jouant ensemble différents aspects d'une même figure : techniques du contrepoint) ; ■ la polyphonie (plusieurs voix jouant ensemble plusieurs figures : techniques du contrepoint et de l'harmonie). ■ la symphonie (plusieurs timbres jouant ensemble sur différentes figures : techniques du contrepoint, de l'harmonie et de l'instrumentation) ; ■ la stéréophonie (plusieurs signaux projetés dans l'espace de diffusion : amplification et spatialisation : techniques du signal). ■ la téléphonie (plusieurs signaux projetés dans l'espace multimédia : transmission, amplification et spatialisation : techniques du signal).
La durée L'oreille est surtout sensible au contenu spectral et à l'évolution temporelle des sons. Elle est capable de détecter très rapidement des variations microscopiques, et peut, dans un environnement complexe, analyser les données qui lui parviennent et se concentrer sur l'une d'entre elles. Pour le musicien, le temps n'est donc pas un continuum indifférencié uniquement réglé par la mesure. Il doit prendre en compte : ■ la durée relative de chaque événement, suivant la structure de l'objet sonore et sa place dans l'espace (localisation, direction, distance) ; ■ le temps de propagation du signal, suivant la puissance de la source et le milieu de propagation (air, électricité) ; ■ le temps d'intégration de l'oreille, suivant la physiologie et la psychologie des auditeurs.
L'écho Phénomène sonore isolé temporellement, l'écho apparaît quand le retard entre le son direct et le son réfléchi est supérieur à 40 ms. L'écho dépend donc du pouvoir séparateur de l'oreille. On distingue : ■ l'écho tonal comme une séquence d'échos multiples dont le retard est très court et donc perçu comme un "objet" ; ■ le "flutter" écho comme écho répétitif entre deux murs proches parallèles et réfléchissants.
L'harmonie / Inharmonie La fusion (harmonie) et la fission (inharmonie) des timbres sont liées aux rapports de résonance que les composantes harmoniques entretiennent entre elles (degré de rugosité). La composition peut donc tirer parti de ces rapports plaisant ou déplaisants entre les sons. La théorie spectrale (Terhardt, 1982) peut être le point de départ d'une technique compositionnelle qui établit les domaines d'applications des timbres et en définira les meilleures utilisations (cf. Traité d'Harmonie de Rameau basé sur la résonance naturelle des corps sonores).
La hauteur Depuis les travaux de J. C. Risset (Mutations, 1969), on distingue deux types de hauteurs : la hauteur tonale et la hauteur spectrale. La hauteur tonale C'est la hauteur "harmonique" qui correspond à la fréquence fondamentale du son dont les harmoniques (ou partiels) sont les multiples de cette fréquence (Sauveur, 1700). En dessous de 500 Hz, on trouve 140 degrés de hauteurs différentiables : les échelons sont égaux ; Entre 500 Hz et 16 kHz, on trouve 480 degrés : les échelons croissent proportionnellement à la fréquence. Pour les sons graves inférieurs à 1500 Hz, la fréquence en Hz et la tonie en mels sont identiques. Pour les sons brefs, la tonie décroît à cause du temps d'intégration de l'oreille. La présence d'un formant dans un spectre peut faire apparaître des phénomènes paradoxaux. La hauteur spectrale C'est la hauteur liée au nombre, à la place et à l'amplitude des partiels dans le spectre. L'oreille donne une valeur de hauteur à partir de ses analyses sur les partiels. La hauteur n'étant plus un continuum indifférencié uniquement réglé par la gamme tempéré, le musicien doit savoir que : ■ la hauteur relative de chaque événement sonore, suivant la structure microscopique (enveloppe spectrale) ; ■ l'absorption fréquentielle du signal, en fonction du milieu de propagation (air, eau), de la puissance et de la localisation de la source (direction, distance) ; ■ la fréquence calculée par l'oreille, suivant la physiologie et la psychologie de l'auditeur.
L'intensité L'intensité musicale se note depuis le XVIème s. (Gabrieli, 1597) par les symboles de pp à ff mais ne fait l'objet de mesures précises que depuis peu. Ainsi, l'échelle logarithmique des décibels quantifie la sensation d'excitation qui tient compte de l'immense étendue du niveau acoustique et des performances de l'oreille humaine : du seuil d'audibilité à O dB au seuil de douleur à plus de 125 dB. On sait que l'intensité émise par une source, décroît de 6 dB, chaque fois que la distance de cette source par rapport à l'auditeur double. Le musicien doit prendre en compte : ■ l'intensité relative du son selon sa structure microscopique (enveloppe d'amplitude) ; ■ l'amplitude du signal en fonction du milieu de propagation (air, eau, etc.), de la puissance et de la localisation de la source (direction, distance) ; ■ l'amplitude calculée par l'oreille, suivant la physiologie et la psychologie de l'auditeur.
L'interactivité Le traitement des signaux en temps-réel, l'affichage graphique des paramètres à l'écran, le transfert d'informations MIDI entre les équipements et le stockage des données sur les supports numériques ont créé les conditions d'un échange très rapide avec tous les équipements électroniques. Cet échange dégage trois types d'interactions : ■ l'interaction de jeu entre l'instrumentiste MIDI et le dispositif électro-acoustique pour modifier les paramètres musicaux (musiques interactives) ; ■ l'interaction d'analyse entre le compositeur et la machine pour tester le résultat sonore et naviguer dans les bases d'informations (CD, DVD, sites Internet) ; ■ l'interaction d'écoute entre l'auditeur et le dispositif électro-acoustique pour choisir le déroulement de l'oeuvre (jeux vidéo, installations et paysages sonores).
Le masque La modification du seuil d'audibilité d'un son par un autre, lorsque les deux sont présents simultanément, est attribué au phénomène de masquage. On distingue 4 types de masque : ■ le masquage d'intensité et de hauteur : un son pur aigu faible est généralement masqué par un son pur grave et intense, mais n'est pas masqué par un son pur aigu fort ; ■ le masquage temporel (ou rétroactif) lorsque des signaux acoustiques sont couverts par des sons arrivant plus tard à l'oreille. Ce phénomène s'explique par le retard physiologique du traitement de l'information dans le cerveau ; ■ le masquage spectral : dans n'importe quel environnement sonore, la voix humaine masque généralement les autres sons (prégnance du message parlé), ainsi qu'un son inconnu qui attire l'attention (rôle d'alerte) ; ■ le masquage de localisation : quelque soit le système de représentation, la place de l'auditeur conditionne l'écoute des événements qui lui parviennent. L'audition et la vue sont donc souvent meilleures si elles ne sont pas masquées par des images et des sons proches.
Les opérations de composition Elles sont aujourd'hui bien mises en oeuvre dans les logiciels actuels grâce à toutes les fonctions d'édition sur les notes, sur les signaux audio ou sur les codes MIDI. Voir : Les éditeurs de sons On distingue 2 types d'opérations : ■ celles qui opèrent sur les notes pour donner lieu aux motifs, aux mélodies, aux accords et aux formes musicales (de la chanson à l'oeuvre symphonique) : transposition, harmonisation, renversement, altération, modulation, etc.; ■ celles qui opèrent sur les signaux audio pour donner lieu aux objets sonores, aux effets, aux paysages et aux formes électro-acoustique (de l'objet sonore à l'oeuvre électronique) : filtrage, compression, amplification, coupure, effets, spatialisation, modulation, etc. Aux opérations d'écriture, s'ajoutent les opérations d'interprétation : techniques de jeu, virtuosité, rubato, vibrato, compréhension des situation, improvisation, etc. Aux opérations d'édition, s'ajoutent les opérations de diffusion : techniques de transmission, débit, acoustique des salles, caractéristiques techniques des matériels, etc.
Les paramètres Quelque soit le système de représentation, le compositeur met en forme des signaux sonores dans le but de satisfaire l'esthétique du spectacle ou du produit à réaliser. Voir : Musique et Informatique On distingue : ■ les paramètres musicaux : hauteur, intensité, durée, timbre, etc. ; ■ les paramètres physiques : fréquence, amplitude, spectre, enveloppe, etc. ; ■ les paramètres audiofréquences des appareils : bande passante, signal/bruit, dynamique, courbe de réponse, distorsion, etc. ; ■ les paramètres perceptifs de l'auditeur : clarté, cohérence, présence, sonie, etc. ; ■ les paramètres de la salle d'écoute : bruit de fond, densité spectrale, réverbération, etc.
La propagation On peut comparer la propagation d'une onde acoustique au déplacement d'une particule qui reçoit une force externe. Cette particule déplace à son tour les particules voisines grâce aux liaisons élastiques du milieu : la perturbation initiale se propage ainsi et le mouvement de chaque particule entraîné possède les caractéristiques du mouvement original avec un retard proportionnel à l'éloignement de la source. Les relations de phase entre les ondes acoustiques qui proviennent de sources différentes, varient de façon tout à fait irrégulière, de point en point. Pour chaque point, le champ acoustique est la résultante de trois types d'ondes : ■ les ondes directes, émises par les sources ; ■ les ondes réfléchies et diffusées par la salle ; ■ les ondes diffractées par les éléments dans la salle : haut-parleurs, micros, auditeurs, etc. L'émission s'effectue toujours dans une certaine direction avec un éloignement apparent et peut créer une émotion affective ou esthétique suivant le conditionnement de l'auditeur. Tout signal sonore est donc indissociable du champ acoustique qui lui correspond.
La propagation On peut comparer la propagation d'une onde acoustique au déplacement d'une particule qui reçoit une force externe. Cette particule déplace à son tour les particules voisines grâce aux liaisons élastiques du milieu : la perturbation initiale se propage ainsi et le mouvement de chaque particule entraîné possède les caractéristiques du mouvement original avec un retard proportionnel à l'éloignement de la source. Les relations de phase entre les ondes acoustiques qui proviennent de sources différentes, varient de façon tout à fait irrégulière, de point en point. Pour chaque point, le champ acoustique est la résultante de trois types d'ondes : ■ les ondes directes, émises par les sources ; ■ les ondes réfléchies et diffusées par la salle ; ■ les ondes diffractées par les éléments dans la salle : haut-parleurs, micros, auditeurs, etc. L'émission s'effectue toujours dans une certaine direction avec un éloignement apparent et peut créer une émotion affective ou esthétique suivant le conditionnement de l'auditeur. Tout signal sonore est donc indissociable du champ acoustique qui lui correspond.
Le retard Pour chaque point, le champ acoustique est la résultante de trois types d'ondes : ■ un retard de nature physique ; ■ un retard de nature physiologique ; ■ un retard de nature psychologique. Il existe une relation entre la diminution de présence et l'augmentation du retard pour les sons les plus présents situés dans le cône d'attention.
La spatialisation Depuis le XVIème s (Ecole de St Marc), les compositeurs, avec G. Gabrieli (Magnificat), J.S. Bach (Passion selon St Matthieu), H. Berlioz (Requiem) et E. Varèse (Hyperprism), ont montré l'importance de la place des instruments dans l'espace pour créer un jeu musical en échos. Les facilités offertes aujourd'hui par les dispositifs électro-acoustiques ont donné à la spatialisation un rôle de premier plan. C'est ainsi qu'il n'est plus rare que la place des instrumentistes et la configuration des haut-parleurs soient clairement définies dans les partitions. Les techniques compositionnelles issues de la connaissance de l'acoustique des salles et de la perception auditive doivent permettre la formalisation de l'écriture stéréophonique : ■ jeu de réflexion qui s'opère dans l'espace où les signaux sont émis. Ce jeu donne une épaisseur au présent en associant le passé et le futur sur quelques microsecondes ; ■ émission unique de chaque source sonore dans l'espace pour s'unir (sons harmoniques) ou se séparer (sons multiphoniques, sons formantiques) ; ■ source sonore virtuelle des "images auditives" projetées par les haut-parleurs.
Le timbre La fusion des partiels pour donner naissance à un timbre (voix, son instrumental, son naturel, bruit ou sons synthétique) est liée aux rapports que les partiels entretiennent entre eux et avec l'enveloppe. C'est ainsi, que J. M. Grey propose une évaluation multidimensionnelle à partir de la distribution de l'énergie spectrale, du degré de fluctuation de l'enveloppe, du synchronisme de l'attaque et de la présence relative des transitoires inharmoniques. Cette évaluation permet d'établir une typologie des "objets sonores" (cf. P. Schaeffer, Traité des objets musicaux, 1966) qui donne un nouveau cadre pour la composition musicale, non plus basé sur la tonalité mais sur la spectralité (théorie spectrale de Terhardt, 1982). Comme les couleurs pour les objets visuels, les spectres mettent en relief les "objets sonores" en leur donnant une identité qui accélère le travail d'analyse et de compréhension de l'auditeur. Dans tous les systèmes de représentation, la discrimination des timbres facilite : ■ la compréhension du texte (ex: la voix au théâtre ou au cinéma) ; ■ l'écoute des plans sonores (ex: musique symphonique, bandes sons) ; ■ l'aisance de la navigation (bruit interactif dans les programmes multimédia). Avant toute réalisation, on pourra donc établir une charte sonore qui établit la fonction et le rôle des différents sons dans la représentation.
Les unités perceptuelles Pour le musicien, l'oeuvre sonore s'articule autour des événements énergétiques qu'il met en forme pour transmettre son esthétique à l'auditeur. Depuis Schaeffer (Traité des objets musicaux, 1966), l'événement sonore de base est associé à la structure microscopique de l'"objet sonore". Ainsi, l'écriture musicale qui s'est construite à partir des notes de la gamme et des des phonèmes alphabétiques, voient s'ouvrir aujourd'hui les dimensions physiques et perceptives des signaux sonores. Au final, les unités perceptuelles (couples mot/motif, phrase/mélodie, scénario/forme) de l'oeuvre sont tous les éléments que l'on articule à partir de l'alphabet phonétique. On distingue ainsi cinq unités perceptuelles : ■ les transitoires de l'objet sonore : attaque, entretien et chute ; ■ l'"objet sonore" (note, phonème) comme élément de l'alphabet ; ■ le motif (ou le mot) : il est constitué de plusieurs "objets sonores" (note, phonème) sur un temps court. Ensemble, les motifs (ou les mots) forment un vocabulaire ; ■ le thème (ou la phrase) : il est constitué de plusieurs motifs, articulés sur plusieurs secondes. Ensemble, les thèmes (ou les phrases) forment un discours, une histoire ; ■ la forme artistique (ou le scénario) : il est constitué des thèmes, articulés sur la durée de la forme (ex: sonate ou rondeau en musique, roman ou pièce de théâtre en littérature).
La vitesse On sait depuis Galilée, qu'un mouvement est relatif, et donc, qu'il dépend de la référence par rapport auquel il se situe. Dans la musique du Moyen Age, c'est le Cantus Firmus qui joue ce rôle de référentiel sur lequel les autres voix vont régler leur vitesse. Jusqu'au XVIIIème s., les techniques du contrepoint vont définir ainsi le mouvement des voix entre elles. Avec l'invention du métronome par Maelzel au XIXème s., le tempo définit précisément la vitesse d'exécution d'un mouvement : tempo=60 sec./n. On dispose alors d'une représentation des unités de temps (durée n) sous la forme de nombres réels en secondes. Au XXème s., Einstein a montré que le temps est lui aussi relatif et que la simultanéité est un concept vide de sens. Comme les instrumentistes ont une place unique dans l'espace et que le temps de propagation des signaux a ses propres lois, la synchronisation musicale théoriquement réglée par la mesure n'a pas de sens physique car elle est irréalisable. Certains compositeurs [Charles Ives (March 1776, 1904) et de K. Stockhausen (Gruppen, 1955)] ont formalisés ces propriétés dans des oeuvres aux mouvements complexes. Aujourd'hui, on ne peut plus penser et donc mettre en forme des signaux acoustiques sans tenir compte de la place des sources et des auditeurs. Comme chaque individu occupe une place unique dans l'espace, il ne peut y avoir de simultanéité temporelle entre les signaux qu'il reçoit, et ceux reçus par les autres. On en conclue que le compositeur doit traiter les signaux acoustiques et penser son esthétiques en fonction du système de représentation.
Règles associées à l'nstrumentarium L'électrification instrumentale a permis la création d'une lutherie électronique indépendante de la lutherie acoustique traditionnelle. Les synthétiseurs, les guitares électriques et tous les instruments MIDI peuvent être associés à de nombreux périphériques (boîte d'effets, boîte à rythme) et à de nombreux accès gestuels (pédale, méta-instrument, capteur). Le jeu instrumental se déroule dorénavant dans un espace de diffusion encadré par le dispositif électro-acoustique qui comprend une console de mixage et plusieurs haut-parleurs. Le jeu instrumental Si la majorité des instruments acoustiques (clavier, corde, vent, bois) permet un jeu essentiellement réglé sur la production de sons harmoniques, ce n'est que depuis le début du siècle, que la musique savante a progressivement intégré la production des bruits (percussions, piano préparé, modes de jeux bruités), des sons inharmoniques (cuivres) et des sons synthétiques (synthétiseurs). Les sons purs des générateurs de fréquence ont d'abord été produit en studio tout comme les sons naturels enregistrés sur bande magnétique ou réalisés par des générateurs de bruits. Aujourd'hui, les instruments MIDI produisent des signaux acoustiques (des sons purs aux sons bruités) dont on peut modifier en temps-réel la valeur des paramètres (fréquence, amplitude, durée, spectre, enveloppe).
Le rayonnement L'étude du rayonnement explore l'espace de diffusion de l'instrument aux différentes fréquences émises par celui-ci : on observe ainsi que l'image sonore varie énormément d'un point à l'autre de l'espace, en fonction du lieu de représentation et de ses parois (plancher pour la clarinette et le hautbois, mur du plafond pour le cor, plafond pour la flûte, état du sol pour la voix). Hector Berlioz "C'est ici le lieu de faire remarquer l'importance des divers points de départ des sons". Lorsque l'instrument est amplifié, le signal peut, par rebond successif, circuler dans l'espace de diffusion. Il reste à connaître et à mettre en forme ces rayons sonores selon leur énergie.
Règles associées à la diffusion des sons Dans les années 50, l'importance donnée au microphone et au magnétophone dans le dispositif de diffusion électro-acoustique a créé deux types de musiques : ■ d'un côté, des musiques qui se vivent en direct ("live") devant le micro : ce sont les musiques amplifiées (rock, jazz, techno) et les musiques mixtes, qui privilégient le jeu instrumental ; ■ de l'autre des musiques enregistrées qui se projettent en salle à partir du support magnétique (bande, cassette) ou numérique (CD, CD-ROM) : ce sont les musiques de films, les musiques concrètes, les musiques électro-acoustiques, les musiques électroniques et interactives qui privilégient l'écoute. Pour le musicien, qui développe un univers sonore diffusé par haut-parleurs, la connaissance des caractéristiques techniques de ces sources, comme sources des vibrations acoustiques dans l'espace réel est très important. Les haut-parleurs Par rapport aux instruments acoustiques, les haut-parleurs du dispositif de diffusion électro-acoustique modifie l'espace de représentation des sons. Le musicien doit ainsi apprendre à produire, à transformer et à diffuser les signaux acoustiques de telle façon que ceux-ci créent dans la zone d'écoute de l'auditeur des "images auditives" pertinentes et intéressantes.
Les lieux de représentation Au fil des siècles, les espaces de représentation des musiques ont évolué avec les instruments et avec les manifestations auxquelles ils sont attachés. On peut ainsi dénombrer sept lieux de représentation : ■ l'église ou la chapelle pour les musiques vocales ou instrumentales ; ■ la salle de concert de taille réduite ou gigantesque pour des musiques jouées par des instruments acoustiques (ensemble instrumental, orchestre symphonique) ; ■ le plein air ou la rue pour des musiques de défilé, jouées par des instruments acoustiques (instruments à vent, percussions) ; ■ la salle de cinéma (écran + haut-parleurs) pour des musiques enregistrées. ■ la salle audiovisuelle (écran + haut-parleurs) pour des musiques enregistrées (cassette vidéo) ou télédiffusées. ■ l'espace électro-acoustique pour des musiques amplifiées (instruments électriques) ou diffusées à partir d'enregistrement (installations sonores). ■ l'espace multimédia (haut-parleurs + ordinateur) pour des musiques enregistrées en local (CD, CD-ROM) ou à distance (serveurs sur Internet). Cette dépendance de l'instrument par rapport au lieu fait que toutes les musiques sont attachés à un espace de représentation.
Les dispositifs de diffusion On en distingue quatre : ■ le dispositif de diffusion électro-acoustique doté d'un ensemble de haut-parleurs disposé en "orchestre" (Acousmonium du GRM ou Gmebaphone du GMEB), en château (musiques amplifiées ou sonorisation en plein air, en ligne (environnements ou installations sonores). Ici, la multiplication des enceintes augmentent les degrés de liberté mais rend difficile la création du relief sonore ; ■ le dispositif 3/2 avec 2 enceintes frontales, 1 enceinte centrale et 2 enceintes arrières pour les effets (équilibre musical et homogénéité à l'ensemble : chaîne HIFI, télévision stéréo) ; ■ le casque ou la chaîne miniature : dispositif individuel qui permet l'écoute radio ou l'écoute des musiques enregistrées (cassette, CD, CD-ROM) ; ■ le dispositif virtuel : le spatialisateur est un dispositif de simulation des acoustiques des salles. La place, le nombre et le type des haut-parleurs d'un dispositif électro-acoustique permettent la création d'une scène auditive totalement différente d'une représentation acoustique. Les musiques d'environnement, les spectacles multimédias, les installations sonores, les simulations ou les jeux virtuels permettent ainsi à l'auditeur de se déplacer réellement entre les sources ou bien virtuellement.
Le relief sonore Le relief sonore est une perception globale qui fait abstraction de la signification des signaux sonores. Il situe les sources apparentes dans l'espace de diffusion, grâce aux paramètres physiques, malgré les modifications du champ acoustique. Les systèmes de diffusion électroacoustique donnent un nouvel aspect au relief sonore car ils définissent des espaces de représentations dans lesquels les relations entre l'espace et le temps sont modifiées.
Le temps de réverbération Une salle est un énorme transducteur à 3 dimensions qui agit sur les signaux par le moyen de ses formes, de ses volumes et de ses surfaces limitantes : ce transducteur est couplé avec les sources sonores et les auditeurs eux-mêmes. On distingue 3 classes de temps de réverbération : ■ environ 0.5 sec. pour dans une pièce d'habitation : valeurs comprises entre 0,3 et 1 sec. ; ■ 2 à 3 secondes pour une salle standard ; ■ 8 à 10 secondes pour une grande salle claire.
La transmission En introduisant dans le champ acoustique un corps diffractant, la fréquence du signal émis par la source n'est pas modifiée : c'est une propriété fondamentale de la transmission d'énergie dans les conditions où l'émetteur et le récepteur sont en repos relatif. Par contre, le champ acoustique rayonné par un instrument est très variable selon la fréquence émise.
La zone d'écoute C'est la réunion des emplacements pour lesquels l'écoute procure un agrément et un intérêt esthétique. Cette zone comprend des points où le message sonore n'est pas transmis intégralement, mais où l'auditeur dispose de repères suffisants pour une reconstitution satisfaisante. La zone d'écoute est limitée par les appareils de diffusion et son étendue est proportionnelle à la puissance des sources instrumentales (voix, instruments, etc.) ou des haut-parleurs (5 W pour une station multimédia, 50 W pour une chaîne HIFI : ■ Dans la rue, la zone d'écoute est libre et non définie. Elle est traversée par toutes les sources sonores du lieu (sons naturels, bruits, etc.) ; ■ Dans la salle de concert, la zone d'écoute est définie par le rayonnement des sources sonores acoustiques (instruments, voix, etc.). Chaque auditeur a donc un point d'écoute par rapport aux sources qui lui est propre ; ■ Dans l'espace audiovisuel, la zone d'écoute est rigoureusement définie par la place des haut-parleurs. Elle est un lieu de sons multiples : une voix peut être traitée comme un bruit d'ambiance, le bruit peut être composé musicalement et la musique peut supporter des mots ; ■ Dans l'espace multimédia, la zone d'écoute est plus proche que dans l'espace audiovisuel. La voix est associée à celle de l'enseignant (rôle pédagogique).
|