"Les signaux sonores comme matériaux des nouvelles techniques compositionnelles"

DEA Musicologie PARIS IV / IRCAM (1996)

 

Edition numérique

 

Règles associées à la perception

Règles associées au matériau

Règles associées à l'écriture des sons

Règles associées à l'instrumentarium

Règles associées à la diffusion des sons

Retour au début du document

III - Les techniques compositionnelles

Avec l'invention des échelles de la gamme, Guido d'Arezzo a créé l'alphabet qui allait permettre à l'écriture musicale de se développer à partir de la note comme représentation symbolique du son à jouer transcrit sur le papier.

Aujourd'hui, cette représentation est remise en cause par les dimensions microscopiques du signal acoustique. La représentation physique du signal que l'on peut éditer, enregistrer, diffuser ou transmettre est dorénavant le point de départ de toutes représentations sonores dans un espace donné.

Il est donc important de pouvoir mettre à jour des règles d'utilisation des signaux sonores qui tiennent compte à la fois des caractéristiques de la perception, du matériau, de l'instrumentarium et du dispositif de diffusion.

Cette démarche rejoint celle des nombreux musiciens et théoriciens qui ont mis en forme, à un moment de l'histoire, les techniques d'écriture de leur époque : J. J. Fux, 1725 : Règles de composition du contrepoint ; J. P. Rameau, 1722 : "Traité d'harmonie" ; H. Berlioz, 1844 : "Traité d'instrumentation" ;  A. Schoenberg, 1949 : "Composition avec 12 sons" ; M. Chion et G. Reibel, 1977 : "Les musiques électro-acoustiques".

C'est ainsi qu'aujourd'hui, à partir de la théorie spectrale de Terhardt (1982), on pourra donner un fondement naturel à la rugosité et établir une nomenclature des spectres fondamentaux (sons purs, sons harmoniques, sons formantiques, sons inharmoniques et bruits) et définir leur domaine d'application.

Sont décris dans ce chapitre, la situation présente ainsi que les règles associées à la perception, au matériau, à l'écriture, à l'instrumentarium et au dispositif de diffusion 

La situation

La place considérable que les technologies du son ont prise dans les représentations en temps-réel (musiques amplifiées) et en temps différé (cinéma, disque, multimédia) bouleverse profondément les connaissances, les méthodes d'apprentissage et les pratiques compositionnelles traditionnelles. 

On constate aujourd'hui que les musiciens développent des esthétiques différentes (musiques amplifiées, musique techno ou musiques de supports), avec des équipements électroniques et informatiques souvent similaires :

■  instruments électriques (synthétiseurs, instruments MIDI, périphériques électroniques, etc.) ;

■  stations informatiques (ordinateurs dotées de toutes sortes de logiciels d'édition) ;

■  dispositifs de diffusion (microphone, table de mixage, haut-parleurs, etc.).

Or, si la théorie musicale, le solfège et les pratiques instrumentales enseignées dans les écoles, s'appuient principalement sur le système tempéré et donc sur la tonalité et les sons harmoniques, une nouvelle "théorie musicale" cohérente basée sur le système hertzien et donc, sur la spectralité et tous les types de sons permettra d'enseigner les mondes sonores. 

L'électrification instrumentale

Elle modifie en profondeur le système de représentation acoustique connu jusqu'à présent  :

■  en intégrant de nouveaux instruments/équipements ;

■  en provoquant de nouveaux comportements ;

■  en représentant les sons différemment ;

■  en appelant de nouvelles méthodes pédagogiques.

La comparaison des systèmes de représentation associés respectivement à l'énergie mécanique et à l'énergie électrique est à cet égard très parlante  :

Caractéristiques

Energie mécanique

Energie électrique 

Support

Papier (partition)

Fichier numérique 

Représentation

Note

Signal sonore 

Système musical

Système tempéré

Système hertzien 

Théorie musicale

Tonalité

Spectralité 

Type de sons

Son harmonique

Tous les sons 

Instruments

Instrument acoustique

Instruments électriques 

Diffusion 

Orchestre

Dispositif électro-acoustique 

Cette remise en cause du système de représentation montre que l'enseignement doit créer d'autres conditions pour assurer la maîtrise de l'environnement électrique du XXIème s. 

L'outil informatique

En l'espace de quelques années, la station informatique est devenu l'outil incontournable des musiciens.

Que ce soient pour la conception des formes d'expression en temps réel (musiques amplifiées, musiques mixtes) ou  en temps différé (installations sonores, musiques synthétiques ou produits multimédia), les logiciels permettent de soigner la diffusion, modéliser l'oeuvre ou traiter les sons.

La représentation des sons

Avec la présence d'un dispositif de diffusion électro-acoustique, le système de représentation acoustique traditionnel en salle ou en plein air s'est élargi.

Le compositeur devenu concepteur de sons doit alors tenir compte de l'émission des signaux sonores amplifiés, traités et projetés dans l'espace de diffusion qu'il s'est choisi.

Pour cela, il doit aujourd'hui connaître :

■  les mécanismes de la perception auditive ;

■  les paramètres des signaux sonores ;

■  les nouvelles règles d'écriture stéréophonique ;

■  les caractéristiques techniques des équipements et instruments électriques ;

■  les propriétés du dispositif de diffusion dans l'espace.

Les nouvelles règles

Vue la complexité des techniques et des technologies qui entrent en jeu lorsqu'il s'agit de créer une représentation sonore, il m'est apparu important de dégager un certain nombre de règles simples et facilement applicables.

Ces règles qui doivent servir l'écriture des sons dans un espace de représentation vont ainsi définir les Nouvelles Techniques Compositionnelles suivantes. 

Règles associées à la perception

Aujourd'hui, les mécanismes de la perception et les limitations de notre champ auditif nous amène à repenser la valeur artistique de la scène sonore, en organisant les signaux acoustiques, non plus dans l'absolu, mais en fonction du système de représentation choisi (dispositif instrumental, dispositif électro-acoustique ou dispositif multimédia).

Ces propriétés liées au fonctionnement de l'oreille doivent servir à utiliser les paramètres des sons, pour réaliser telle ou telle intention artistique. De cette manière, le compositeur pourra mettre en relief les signaux émis par les instruments ou réaliser des illusions auditives avec n'importe quel dispositif électro-acoustique.

L'aire d'audition

Représentée par le diagramme de Fletcher, l'aire d'audition s'étend de 20 Hz à 16 kHz (domaine fréquentielle) et de O dB à 130 dB (domaine de pression).

Le domaine temporel est limité, quant à lui, par les capacités d'intégration de l'oreille et par le temps maximum durant lequel le sujet reste attentif.

Ce diagramme, qui diffère selon les individus, montre qu'il faut beaucoup plus d'énergie aux fréquences basses pour qu'elles soient perçues et met en évidence une zone sensible de l'oreille entre 500 Hz et 5 kHz (fréquence de la voix parlée). 

Règles P1 

1- Les infrasons (inférieurs à 20 Hz) et les ultra-sons (supérieurs à 16 kHz) ne sont pas perçus. 

2- Les voix parlées (entre 100 Hz et 3000 Hz) entrent dans la zone sensible de l'oreille et prennent automatiquement plus d'importance par rapport aux autres sons.

Voir aussi : Bande critique, Espace auditif

L'attention

Le degré d'attention n'étant pas le même suivant le type de signaux, on peut travailler :

■  sur une attention libre : musiques, sons naturels ;

■  sur une attention conditionnée par l'appréhension du signal : bruits, sons interactifs ;

■  sur une attention soutenue et conditionnée par la compréhension du langage : commentaire, dialogue parlé.

Si on établit ainsi un ordre de durée, on constate que le caractère spatial d'un bruit engage une perception plus immédiate que le caractère temporel d'un commentaire parlé qui nécessite, quant à lui, une perception soutenue et attentive.

On peut alors écrire l'ordre des durées suivant :

■  une fraction de seconde pour une note, un bruit sec ou un son interactif  ;

■  quelques secondes pour un "objet sonore", un jingle (indicatif) ou un motif musical ;

■  plusieurs secondes pour un thème, une mélodie, une phrase ou une phrase musicale ;

■  plusieurs minutes pour un commentaire, une section, une séquence ou un mouvement.

Lorsqu'il y a de la voix, de l'image et du texte, la perception va prioritairement de la voix, à l'image puis au texte : la voix étant la principale vectrice de la communication et de la compréhension, elle nécessite moins d'effort que la lecture.

Règles P2 

1- Chaque classe de sons possède un degré d'attention propre à chaque auditeur . 

2- On choisit les sons en fonction de leur durée pour l'impact que l'on veut produire.

Voir aussi : Perception auditive

Les bandes critiques

L'oreille humaine possède la faculté de décomposer le spectre de fréquences en zones, appelées bandes critiques. Cette propriété fondamentale de l'ouïe joue un rôle essentiel sur la sensation d'intensité.

L'oreille prend en compte la densité spectrale absolu en dessous de 500 Hz et la densité spectrale relative au-dessus de 500 Hz. En les rangeant l'une à côté de l'autre, on trouve 24 bandes critiques de 20 Hz à 16 kHz : la largeur d'une bande est indépendante du niveau.

Règles P3 

1- La perception de l'intensité et de la hauteur varie avec la place de la bande critique (de 1 à 24). 

2- Pour être perçues, les modulations d'amplitude (trémolo) et les modulations de fréquence (vibrato) devront être plus ou moins importantes suivant la bande.

Voir aussi : Aire d'audition, Espace auditif

La distance apparente

C'est la distance attribuée à la source virtuelle du signal sonore diffusée par haut-parleur. On peut parler de "grosseur du plan sonore" par analogie avec le cadrage de l'image photographique. Cette "présence" du timbre serait liée à l'amplitude des composantes situées autour de 2000 Hz.

L'éloignement de la source sonore est détecté par les oreilles à partir d'indices tels que :

■  la modification du spectre ;

■  la synchronisation des attaques (et transitoires) ;

■  le mélange entre onde directe et onde réfléchie ;

■  la présence de la réverbération.

 

Règles P4 

1- La présence du timbre est liée à l'intensité des partiels autour de 2kHz (zone sensible de l'oreille). 

2- Une atténuation de 6 dB correspond au doublement de la distance de la source par rapport à l'auditeur.

Voir aussi : Horizon acoustique, Localisation

L'espace auditif

Notre état de vigilance, conscient des sensations sonores, intervient sur les dimensions d'un petit domaine de l'espace auditif, appelé cône de vigilance. Ce cône explore difficilement tout l'espace subjectif : la sensation sonore doit être proche de la tête et de l'axe auditif.

Le cône de vigilance regroupe les sons psychologiquement proches de l'auditeur (voix) mais aussi les sons d'ambiance diffus de l'espace subjectif (bruits) : ils sont ainsi mieux perçus dans une zone d'écoute réduite

Lorsque nous sommes passifs face à l'émergence des sensations, l'espace auditif se réduit à un cône étroit d'axe horizontal, dirigé vers l'avant et appelé cône de présence. Les signaux sonores y sont perçus de manière variable suivant la localisation psychologique et d'autant moins tangible qu'ils sont plus distants, moins frontales, plus éloignés du plan horizontal des oreilles et du plan de symétrie du corps humain.

Règles P5 

1- Les dimensions du cône de vigilance et du cône de présence de l'espace auditif font que nous sommes toujours placés à un point d'écoute de la scène auditive. 

2- Tenir compte de l'acuité de notre espace auditif, justifie un dispositif de diffusion électro-acoustique proche de notre système auditif, dans un rayon de 3 à 6 m : dispositif 3/2, chaîne HIFI, station multimédia, dispositif électro-acoustique au cinéma.

Voir aussi : Aire d'audition, Perception auditive

L'horizon acoustique

L'horizon acoustique (von Békésy, 1971) se caractérise par la profondeur du champ sonore, soit la distance maximale à laquelle un "objet sonore" peut être perçu.

Lorsque les haut-parleurs sont placés dans l'espace auditif à une distance de 3 à 6 m (cas d'une chaîne HIFI), on peut simuler une mise en relief des "objets sonores" sur des distances comprises entre 2 et 400 m. Dans cet espace, la variation du spectre, liée au mouvement de l'"objet sonore" peut être facilement reproduite pour de faibles distances.

Règles P6 

1- Chaque système de représentation possède un horizon acoustique qui lui est propre : on peut le comparer à l'horizon visuel d'un tableau. 

2- La vitesse des "objets sonores" est négligeable quand ils se déplacent sur l'horizon, donc à une distance très grande de l'auditeur.

Voir aussi : Distance apparente

L'illusion auditive

On peut parler d'illusions auditives chaque fois que notre perception du son est en désaccord avec sa description physique ou acoustique (Risset, 1983).

Ces illusions révèlent souvent très clairement certaines propriétés spécifiques des mécanismes perceptifs et présentent un intérêt évident pour la composition sonore.

Règles P7 

1- Composer avec les signaux acoustiques permet de faire entrer l'auditeur dans des espaces virtuels et paradoxals : paradoxes de hauteurs, paradoxes de durées, univers synthétiques, etc. 

2- Les arts des supports (cinéma, audiovisuel, multimédia) sont le domaine de prédilection des illusions auditives. Aujourd'hui, le traitement par ordinateur permet aux instrumentistes, munis de capteurs, de contrôler en temps-réel ses effets.

Voir aussi : Image auditive, Perception auditive

L'image auditive

S. McAdam, Penser les sons  (1994)

"L'image auditive est définie comme une représentation psychologique d'une entité sonore qui manifeste une cohérence interne dans son comportement acoustique".

Dans les conditions naturelles d'écoute, la cohérence spatiale de l'image auditive est déterminée par une relation entre les différences de temps et d'intensité des ondes incidentes qui parviennent aux oreilles.

Les techniques de synthèse actuelles permettent de créer des "images auditives" en 3 dimensions dans lesquelles nous nous déplaçons virtuellement.

Ces techniques tiennent compte du processus de compensation (ou réafférence vestibulaire) qui annule le déplacement apparent des sources quand on se déplace : alors que nous changeons constamment d'angle par rapport aux sources, nous mémorisons néanmoins des "images auditives" stables.

Les arts du support (cinéma, disque, multimédia) sont le domaine de prédilection des "images auditives" artificielles.

Michel Chion, "La toile trouée" (1988)

"Le son transporte avec lui, la visualisation mentale et concrète d'un lieu".

 

Règles P8 

1- Travailler sur des signaux acoustiques diffusés uniquement par haut-parleur, permet de créer des "images auditives" inédites comme la stéréophonie. 

2- La création d'"images auditives" demande une connaissance précise des grandeurs manipulées.

Voir aussi : Illusion auditive, Perception auditive

La localisation

Il y a certains lieux dont la résonance particulière conduit le son à être perçu à un endroit différent de celui où il est produit.

S. McAdam, "Le son au cinéma" (1992)

"Localiser un son, c'est déduire d'un certain nombre d'indications sensorielles, d'expériences antérieures et de connaissances, les coordonnées spatiales des ondes directes".

Le foyer des signaux des instruments acoustiques est mieux localisé que celui des instruments électriques qui n'existe que par les haut-parleurs. Dans ce cas, les vibrations acoustiques sont encore plus dispersés dans l'espace.

G. Malher

"C'est ainsi, de toutes les directions, que les thèmes doivent surgir, sans rapports mutuels aux points de vue rythmique et mélodique : la seule chose est que l'artiste doit les ordonner et les unir en un tout cohérent".

La différence de phase est surtout sensible aux fréquences graves alors que la différence d'intensité l'est aux fréquences aiguës. Entre 800 Hz et 15OO Hz, il faut tenir compte de la densité spectrale du signal, de la présence des transitoires, du rapport onde directe/onde réverbérée et de la valeur du temps de délai initial.

Pour toutes les valeurs de temps de délai initial, comprises entre 600 ms et 50 ms, l'oreille localise le son du côté de l'incidence de l'onde directe quelle que soit la direction d'arrivée des ondes incidentes. Pour des valeurs inférieures à 600 ms, l'oreille effectue une localisation de sommation : au délai de 50 ms, la fusion ne se produit plus et l'oreille perçoit un écho.

Règles P9 

1- L'oreille localise le son du côté de l'onde directe pour un délai initial entre 600 ms et 50 ms. 

2- L'oreille effectue une localisation synthétique pour un temps de délai inférieur à 600 ms.

3- L'oreille perçoit un écho pour un délai supérieur à 50 ms.

Voir aussi : Distance apparente, Horizon acoustique

La perception auditive

Chez l'être humain, la perception auditive est à l'origine, une faculté instinctive de prévention contre les dangers naturels : elle joue donc souvent un rôle d'alerte plus efficace que la vue ou que le toucher.

La perception est un processus actif où l'interprétation mentale se construit à partir de ce qui est donné à entendre : à chaque instant, la vibration sonore va exciter la membrane de l'oreille externe, stimuler le nerf auditif de l'oreille interne et déterminer les sensations.

L'oreille est capable de détecter dans un temps très court (temps de propagation + temps physiologique + temps psychologique) la variation microscopique des signaux, et peut, dans un environnement complexe, analyser et reconnaître leurs significations (effet Coktail Party). Surtout sensible au contenu spectral et à l'évolution temporelle du signal, elle analyse avec une incroyable acuité, les plus petites modulations.

Benjamin L. Whorf, Language, Thought and Reality

"Chaque langue structure la perception de ceux qui la parlent".

 

Règles P10 

1- Il est important que le compositeur traite les signaux acoustiques en fonction du type de représentation qu'il choisit. 

2- La perception hiérarchise les différents types de sons. On distingue ainsi : les bruits interactifs en contact direct avec la machine ; les sons vocaux perçus dans un rayon de proximité (de 1 à 3 m) ; les sons instrumentaux qui se placent dans un dispositif orchestral (de quelques mètres à plusieurs centaines de mètres) ; les sons naturels qui se placent dans un paysage sonore (distance lointaine).

Voir aussi : Aire d'audition, Espace auditif

Le point d'écoute

A la différence de la peinture, qui a très tôt pris en compte la place du spectateur par rapport à la surface de représentation (perspective au XVIème s.), le point d'écoute n'est pas du tout formalisé dans l'écriture musicale.

Bien souvent, l'importance de l'ensemble instrumental et le dispositif électro-acoustique vont conditionner la place de l'auditeur par rapport aux sources.

On distingue ainsi :

■  les musiques de scène, sans amplification, qui mettent en avant le ou les solistes (instrumentistes ou chanteurs) pour les rapprocher des auditeurs ;

■  les musiques électriques amplifiées qui bénéficient de la diffusion par haut-parleurs peuvent créer une proximité et réduire les distances ;

■  les musiques interactives (jeux vidéo entre autre) qui permettent à l'auditeur de choisir un parcours dans l'oeuvre (CD, CD-ROM).

 

Règles P11 

1- Chaque système de représentation attribue une disposition spatiale d'écoute à ces auditeurs. Il revient donc au compositeur de penser l'oeuvre musicale en fonction des points qu'il veut offrir. 

2- Les techniques de composition doivent tenir compte du système de représentation (place de l'auditeur par rapport aux haut-parleurs dans un dispositif stéréophonique par exemple).

Voir aussi : Horizon acoustique, Perception auditive

Le pouvoir séparateur

Le cent (centième d'un demi-ton tempéré) représente l'unité correspondante au pouvoir séparateur de l'oreille sur les hauteurs, soit le plus petit intervalle perceptible dans les meilleurs conditions. Son expression mathématique résulte du découpage de l'octave en 1200 parties égales.

Les propriétés de non-linéarité de l'oreille apportent  :

■  des harmoniques subjectives ;

■  l'ajout d'un son fondamental ;

■  des sons de combinaison : addition, soustraction.

 

Règles P12 

1- Prendre en compte le pouvoir séparateur de l'oreille (perception des hauteurs, domaine de compréhension, etc.) permet de jouer sur des échelles ou des continuums de sons différents. 

2- Prendre en compte les phénomènes harmoniques subjectifs permet de créer des contextes spectraux paradoxaux (sons descendants ou montants).

Voir aussi : Aire d'audition, Bande critique

Le temps d'intégration

Le temps d'intégration de l'oreille définit une valeur temporelle pour chaque classe de sons : il est donc variable et peut dépendre de facteurs psychologiques.

On peut ainsi hiérarchiser les durées :

■  quelques millisecondes pour déterminer la hauteur d'un son pur de 1000 Hz  ;

■  quelques dizaines de millisecondes pour apprécier la coloration d'une salle ;

■  50 ms pour juger de la présence psychologique ;

■  300 ms pour estimer les modulations ;

■  5 à 10 sec. pour avoir conscience de la qualité d'un enchaînement entre 2 modulations ;

■  une à plusieurs minutes pour régler la dynamique d'une oeuvre musicale ;

■  un temps plus long encore pour estimer la signification esthétique.

Cette croissance du temps d'intégration est un indicateur de la complexité des mécanismes de la perception.

Règles P13 

1- La prise en compte des paramètres perceptifs établissent des esthétiques respectant l'environnement sonore de l'auditeur. 

2- Le temps d'intégration perceptif peut se rattacher à l'emploi des différentes durées des éléments sonores : l'objet sonore (phonème), le motif (mot), le thème ou la mélodie (la phrase), la succession des thèmes (l'histoire, le scénario).

Voir aussi : Perception auditive, Pouvoir séparateur

Règles associées au matériau

Depuis le XVIème s., l'écriture musicale s'est développée à partir de la note comme représentation symbolique des sons. Depuis Schaeffer, cette représentation est remise en cause par les signaux acoustiques que l'on peut visualiser, éditer, modifier, diffuser ou transmettre.

L'objet sonore devient l'élément de base de l'écriture comme représentation atomique de tous les sons, qu'ils soient parlés, bruités, naturels, instrumentaux ou synthétiques.

Les bruits

Il existe une quantité infinie de bruits (bruit blanc ; bruit de parole : affriquées, fricatives, plosives ; bruits "musicaux", bruits naturels, bruits synthétiques), qui se différencient tous par leur spectre, leur intensité et leur modulation.

On peut ainsi hiérarchiser les durées :

■  les bruits à large bande : bruissement, bruits de fond, vents, jet de vapeur, etc.  ;

■  les bruits à bande étroite : cris, grincements, chocs, ronflements, etc.

 

Règles M1 

1- On se sert des bruits (consonnes, percussions, etc.) pour ponctuer une mélodie (flux auditif), un discours (dialogue au cinéma), un paysage sonore ou une interaction (programme multimédia) . 

2- On se sert de la référence causale du bruit pour illustrer une scène ou un environnement.

Voir aussi : Signal sonore, Sons, Classe de spectre

Les classes de spectre

En offrant l'intégration et la classification de tous les types de sons, la représentation spectrale permet de visualiser :

■  la distribution de l'énergie spectrale  ;

■  la combinaison du degré de fluctuation de l'enveloppe spectrale pendant la durée du son et du synchronisme des différentes harmoniques pendant l'attaque ;

■  la présence des vibrations inharmoniques.

Suivant le type de sons employés, on utilise une représentation symbolique adaptée soit aux jeux de l'instrumentiste, soit aux besoins de l'analyse spectrale (acousmographe) : elle peut être ainsi musicale, textuelle ou graphique.

Règles M2 

1- La notation traditionnelle (portée de 5 lignes : hauteur, intensité, durée, instrument, tempo, mode de jeux) est la plus appropriée pour les sons harmoniques. 

2- La notation sur une seule ligne (hauteur relative, intensité, durée, timbre, tempo, mode de jeux) est appropriée pour les sons inharmoniques et bruités.

3- La notation textuelle (hauteur relative, intensité, durée relative, timbre, vitesse d'élocution et mode de jeux) est la plus appropriée pour la voix.

4- La notation fréquentielle sur plusieurs lignes (hauteur précise, intensité, durée) est utilisée pour l'analyse du contenu spectrale.

5- La notation graphique (hauteur relative, grosseur du trait, durée relative) est appropriée pour donner une image des sons naturels, électro-acoustiques ou synthétiques.

Voir aussi : Bruits, Densité spectrale, Signal sonore

La densité spectrale

Elle mesure le nombre de fréquences contenues dans le spectre du son.

On distingue :

■  une fréquence simple (densité spectrale minimale du son pur)  ;

■  les fréquences multiples de la fondamentale (sons harmoniques) ;

■  les groupements de fréquence dans une zone (formants des sons vocaux) ;

■  les fréquences non multiples de la fondamentale (sons inharmoniques) ;

■  une multitude de fréquence (densité spectrale maximale des sons bruités).

 

Règles M3 

1- Un son pur ne peut être produit que par un générateur de fréquence. 

2- Les sons harmoniques ont plus facilement tendance à fusionner que les sons parlés et bruités.

3- Les sons vocaux attirent plus facilement l'attention car ils sont porteurs du langage.

Voir aussi : Classe de spectre, Signal sonore

La longueur d'onde

Elle est inversement proportionnelle  à la fréquence du signal sonore et conditionne sa propagation dans l'espace : le son audible le plus grave (20 Hz) a une longueur d'onde de 17 m, alors que le son le plus aigu (20 kHz), a une longueur d'onde de 17 mm.

Règles M4 

1- La longueur d'onde provoque un rayonnement omnidirectionnel jusqu'à 500 Hz et un rayonnement directionnel pour les fréquences plus élevées. 

2- Lorsque les dimensions de l'obstacle sont très grandes par rapport à la longueur d'onde, une partie de l'énergie incidente est réfléchie (réflexion).

3- L'absorption de l'air n'est pas négligeable pour les fréquences élevées.

Voir aussi : Classe de spectre, Signal sonore

Les modulations

Elles transforment à l'échelle microscopique, le signal acoustique ou électrique, de façon à enrichir et à porter l'émotion de ce qui est donné à entendre : ne reconnais-t-on pas le son d'un pianiste à ses attaques, le son d'un chanteur à son trémolo, ou le son d'un violoniste à son vibrato.

On distingue :

■  la modulation de fréquence. L'oreille est très sensible à une modulation de 4 Hz. Pour les bruits, les écarts doivent être supérieurs à 20 Hz. Les intonations sont des variations microscopiques  ;

■  la modulation d'amplitude. Le trémolo est une variation microscopique et rapide de l'amplitude ;

■  la fluctuation de l'enveloppe spectrale pendant la durée du son et la synchronisation des harmoniques pendant l'attaque.

 

Règles M5 

1- L'oreille est très sensible aux modulations de fréquences voisines de 4 Hz. 

2- Pour les bruits, les écarts de fréquences doivent être supérieurs à 20 Hz pour être audible.

Voir aussi : Signal sonore

Le signal sonore

Variation de pression de l'air, variation de tension électrique ou variation mécanique, le signal sonore est une vibration acoustique qui prend la forme du milieu qui le transporte (air, électricité, eau) pour transmettre une information de l'émetteur (source) au récepteur (auditeur).

Tout signal sonore possède un caractère spatial à plusieurs dimensions (fréquence, amplitude, enveloppe, spectre, durée), qui peuvent être soumises à des transformations linéaires.

Règles M6 

1- Traité par un équipement électro-acoustique, le signal sonore est dépendant des paramètres audiofréquences : bande passante, courbe de réponse, distorsion, diaphonie, drop, signal/bruit. 

2- Traité et composé par les compositeurs, le signal sonore est dépendant des paramètres musicaux : hauteur, intensité, durée, timbre, mode de jeux.

3- Traité et interprété par l'auditeur, le signal sonore est dépendant des paramètres perceptifs : clarté, cohérence, présence, sonie, tonie.

4- Traité et transformée par la salle d'écoute, le signal sonore est dépendant des paramètres de la propagation : réflexion, réverbération, traînage, bruit de fond.

Voir aussi : Classe de spectre, Densité spectrale

Les sons instrumentaux

Il existe une quantité infinie de sons instrumentaux qui dépendent à la fois du corps sonore (système de production) et de l'excitation de ce corps (corde, tube, peau, etc.) : tous ces sons se différencient par leur spectre, leur attaque, leur enveloppe et leur modulation dans le temps.

Règles M7 

1- Les sons harmoniques et formantiques permettent la création d'un ou plusieurs flux mélodiques (gamme, alphabet, motif, thème et phrase des langues et des musiques).

2- Les sons bruités (consonnes, percussions, etc.) servent à ponctuer le flux mélodique (consonne, début de syllabe des langues et des musiques).

3- Les sons inharmoniques et multiphoniques font parti des techniques de jeux récentes sur le spectre : on les trouve dans les musiques populaires, folkloriques, religieuses ou contemporaines.

Voir aussi : Classe de spectre, Bruits, Sons naturels, Sons synthétiques, Voix

Les sons naturels

Il existe une quantité infinie de sons naturels qui viennent du monde animal, végétal ou géographique qui les produit : tous ces sons se différencient par leur spectre, leur attaque, leur enveloppe et leur modulation dans le temps.

Règles M8 

1- L'impact de ces sons sert à accompagner une action (début, fin de séquence, etc.).

2- Les références de ces sons servent à illustrer ou à donner un rendu aux images (évènement naturel, paysage sonore, etc.).

Voir aussi : Classe de spectre, Bruits, Son naturels, Sons synthétiques, Voix

Les sons synthétiques

Il existe une quantité infinie de sons synthétiques qui dépendent des technologies électroniques et informatiques qui les produisent : tous ces sons se différencient par leur spectre, leur attaque, leur enveloppe et leur modulation dans le temps.

Parmi les différentes techniques, on distingue l'échantillonnage de la forme d'onde, la modulation de fréquence, la modélisation physique, la synthèse additive ou soustractive, la synthèse croisée, granulaire ou formatique.

Règles M9 

1- L'impact de ces sons sert les effets spéciaux (jingle, indicatif, publicité, etc.). 

2- La non-référence de ces sons sert à donner un rendu extraordinaire aux images.

Voir aussi : Classe de spectre, Bruits, Sons naturels, Sons synthétiques, Voix

Les transitoires

La structure atomique de l'objet sonore fait apparaître au moins quatre transitoires :

■  l'attaque dont la durée très courte (de 1 à 200 ms) lance les composantes harmoniques  ;

■  la chute (ou decay) dont la durée courte fait suite à l'attaque ;

■  l'entretien (ou sustain) dont la durée moyenne ou longue établit le son ;

■  l'extinction (ou release) dont la durée relativement longue s'enrichit des ondes réfléchies par le lieu de diffusion (réverbération de la salle).

 

Règles M10 

1- La forme du transitoire d'attaque personnalise l'événement sonore : il identifie la source. 

2- La qualité de l'entretien fait entendre le jeu musical de l'instrumentiste (justesse des hauteurs, précision des durées, variation des intensités, modulation des harmoniques).

3- La nature de l'extinction fait entendre les qualités acoustiques du lieu de diffusion.

Voir aussi : Classe de spectre

Les voix

Il existe une quantité infinie de voix qui dépendent à la fois du système vocal de celui qui parle, de son langage et de son état psychologique (intonation émotionnelle) : tous ces sons se différencient par leur spectre, leur attaque, leur enveloppe et leur modulation dans le temps.

On distingue :

■  les voyelles : sons harmoniques ;

■  les syllabes : sons multiphoniques ou inharmoniques ;

■  les consonnes : sons bruités.

Une voix transmet deux types de messages :

■  un message sémantique, parole dans une bande passante de 300 à 4000 Hz ;

■  un message esthétique perceptible au travers des qualités de la voix (timbre, débit, intonation).

Les variations formantiques du spectre qui transmettent le message sémantique, sont indépendantes du type de voix : chuchotée, proche ou éloquente.

Règles M11 

1- Dans n'importe quel nuage sonore, la voix attire immédiatement l'attention. 

2- Les éléments sonores de l'alphabet phonétique international (voyelle, consonne, syllabe) peuvent être le point de départ pour organiser de nouveaux mondes sonores (cf. Cantus Firmus).

Voir aussi : Classe de spectre, Bruits, Sons naturels, Sons synthétiques

Règles associées à l'écriture des sons

L'utilisation des nouveaux matériaux (sons inharmoniques, naturels, bruités ou synthétiques), des nouveaux instruments (station informatique, instruments MIDI, effets) et des dispositifs de diffusion électro-acoustiques obligent les compositeurs à inventer de nouvelles techniques compositionnelles.

A partir de 1958, le Groupe de Recherche Musicale entreprend un vaste travail de recherche collectif pour faire de la composition, un lieu d'expérimentation. Le solfège expérimental de P. Schaeffer prépare ainsi les "objets sonores" en repérant dans leurs caractéristiques intrinsèques les conditions d'une articulation musicale.

Les critères tels que l'allure, mais aussi le grain et la masse sont susceptibles de créer un discours. L'étude psycho acoustique de l'"objet", qui se situe entre l'analyse des paramètres physiques et celle des critères de perception, forme la typologie complémentaire de la morphologie des objets musicaux (P. Schaeffer : Traité des objets musicaux, 1966).

L'apprentissage d'un solfège expérimental, d'une méthode d'écoute, d'un vocabulaire morpho-typologique et des techniques électro-acoustiques (modes d'emploi et fonctionnement des matériels) vont mettre à jour les étapes de réalisation d'une oeuvre musicale (M. Chion, G. Reibel : Les musiques électro-acoustiques, 1977).

A Utrecht, dans les années 80, le Dr. W. Kaegi crée le système MIDIM, qui donne une interprétation acoustique du signal sonore grâce au son de synthèse VOSIM. Par un jeu de questions réponses, le compositeur décrit ses univers musicaux dans le programme Descripteur pour les classes de sons, qu'il a définies dans le programme Prédicateur. Pour la première fois, un logiciel établit un système de représentation numérique en cohérence avec le matériau, le support et l'outil.

Aujourd'hui les techniques d'analyse, de synthèse et de traitement en temps réel des signaux acoustiques se sont affinées. Ils offrent aux musiciens des outils de composition d'une très grande richesse mais oublie cette cohérence du système d'écriture que l'on avait dans le système MIDIM.

Car en créant un nouveau système d'écriture, les outils informatiques en réseaux révolutionnent, tout le système de représentation des énergies mécaniques.

On retrouve dans les systèmes numériques d'écriture et de représentation d'aujourd'hui, la cohérence qui a prévalu depuis la Renaissance entre les systèmes symboliques d'écriture et de représentation.

L'avenir de l'écriture est donc dans les arts du support (cinéma, audiovisuel, disque, multimédia interactif) qui peuvent dorénavant s'appuyer sur les paramètres physiques des signaux sonores pour créer et organiser leurs formes.

Les concepts d'écriture

Si l'écriture de la musique occidentale s'est développée autour de cinq grands concepts, les dispositifs électro-acoustiques et les réseaux numériques d'aujourd'hui, en modifiant la localisation et la transmission des sources sonores dans l'espace de diffusion, crée deux concepts nouveaux : celui de la stéréophonie et de la téléphonie.

On distingue ainsi :

■  la monophonie (voix unique) ;

■  l'homophonie (groupe de voix jouant simultanément mais pouvant avoir des densités différentes : début de l'harmonie) ;

■  l'hétérophonie (plusieurs voix jouant ensemble différents aspects d'une même figure : techniques du contrepoint) ;

■  la polyphonie (plusieurs voix jouant ensemble plusieurs figures : techniques du contrepoint et de l'harmonie).

■  la symphonie (plusieurs timbres jouant ensemble sur différentes figures : techniques du contrepoint, de l'harmonie et de l'instrumentation) ;

■  la stéréophonie (plusieurs signaux projetés dans l'espace de diffusion : amplification et spatialisation : techniques du signal).

■  la téléphonie (plusieurs signaux projetés dans l'espace multimédia : transmission, amplification et spatialisation : techniques du signal).

 

Règles E1 

1- L'écriture stéréophonique passe par la connaissance spectrale et perceptive des signaux (voix, sons instrumentaux, sons naturels, bruits, etc.).

2- La mise en relief des sons demande une attention toute particulière à la localisation des instruments, à la place des haut-parleurs et à la diffusion des sons amplifiés ou pré-enregistrés.

Voir aussi : Propagation, Spatialisation

La durée

L'oreille est surtout sensible au contenu spectral et à l'évolution temporelle des sons. Elle est capable de détecter très rapidement des variations microscopiques, et peut, dans un environnement complexe, analyser les données qui lui parviennent et se concentrer sur l'une d'entre elles.

Pour le musicien, le temps n'est donc pas un continuum indifférencié uniquement réglé par la mesure.

Il doit prendre en compte :

■  la durée relative de chaque événement, suivant la structure de l'objet sonore et sa place dans l'espace (localisation, direction, distance) ;

■  le temps de propagation du signal, suivant la puissance de la source et le milieu de propagation (air, électricité) ;

■  le temps d'intégration de l'oreille, suivant la physiologie et la psychologie des auditeurs.

 

Règles E2 

1- Pour être perçue, la durée du son doit être au minimum, égale à la période du fondamental. Pour le même événement, on peut donc avoir des durées différentes suivant les fréquences.

2- La valeur de la longueur d'onde conditionne le temps de propagation et le temps d'intégration de l'événement sonore.

3- L'effet de masque s'étend lorsque la durée et l'intensité du son masquant s'accroît.

4- Des sons harmoniques relativement courts et distants (intervalles supérieurs à la tierce, ont plus facilement tendance à se séparer en flux auditifs distincts que des sons harmoniques longs et proches (intervalles inférieurs à la tierce).

Voir aussi : Echo, Unités perceptuelles

L'écho

Phénomène sonore isolé temporellement, l'écho apparaît quand le retard entre le son direct et le son réfléchi est supérieur à 40 ms.

L'écho dépend donc du pouvoir séparateur de l'oreille.

On distingue :

■  l'écho tonal comme une séquence d'échos multiples dont le retard est très court et donc perçu comme un "objet" ;

■  le "flutter" écho comme écho répétitif entre deux murs proches parallèles et réfléchissants.

 

Règles E3 

1- L'écho apparaît quand le retard entre le son direct et le son réfléchi est supérieur à 40 ms.

2- En dessous de 30 ms, le son direct et le son réfléchi sont localisés au même endroit.

Voir aussi : Durée, Propagation

L'harmonie / Inharmonie

La fusion (harmonie) et la fission (inharmonie) des timbres sont liées aux rapports de résonance que les composantes harmoniques entretiennent entre elles (degré de rugosité). La composition peut donc tirer parti de ces rapports plaisant ou déplaisants entre les sons.

La théorie spectrale (Terhardt, 1982) peut être le point de départ d'une technique compositionnelle qui établit les domaines d'applications des timbres et en définira les meilleures utilisations (cf. Traité d'Harmonie de Rameau basé sur la résonance naturelle des corps sonores).

Règles E4 

1- Choisir et organiser les sons doit avant tout s'appuyer sur des critères de perception.

2- La composition musicale peut prendre comme point de départ les éléments sonores du langage (par exemple, l'alphabet phonétique international), sur lesquels elle va bâtir un environnement "harmonique" ou "inharmonique" composé de timbres en accord ou non avec eux.

Voir aussi : Hauteur, Timbre

La hauteur

Depuis les travaux de J. C. Risset (Mutations, 1969), on distingue deux types de hauteurs : la hauteur tonale et la hauteur spectrale.

La hauteur tonale

C'est la hauteur "harmonique" qui correspond à la fréquence fondamentale du son dont les harmoniques (ou partiels) sont les multiples de cette fréquence (Sauveur, 1700).

En dessous de 500 Hz, on trouve 140 degrés de hauteurs différentiables : les échelons sont égaux ; Entre 500 Hz et 16 kHz, on trouve 480 degrés : les échelons croissent proportionnellement à la fréquence. Pour les sons graves inférieurs à 1500 Hz, la fréquence en Hz et la tonie en mels sont identiques. Pour les sons brefs, la tonie décroît à cause du temps d'intégration de l'oreille. La présence d'un formant dans un spectre peut faire apparaître des phénomènes paradoxaux.

La hauteur spectrale

C'est la hauteur liée au nombre, à la place et à l'amplitude des partiels dans le spectre. L'oreille donne une valeur de hauteur à partir de ses analyses sur les partiels.

La hauteur n'étant plus un continuum indifférencié uniquement réglé par la gamme tempéré, le musicien doit savoir que :

■  la hauteur relative de chaque événement sonore, suivant la structure microscopique (enveloppe spectrale) ;

■  l'absorption fréquentielle du signal, en fonction du milieu de propagation (air, eau), de la puissance et de la localisation de la source (direction, distance) ;

■  la fréquence calculée par l'oreille, suivant la physiologie et la psychologie de l'auditeur.

 

Règles E5 

1- L'écriture tonale et spectrale demande de bien connaître les modes de jeux et les registres de chaque instrument. En contrôlant le fondamental et la densité spectrale, on peut produire les deux types de hauteurs.

2- Même si l'oreille peut percevoir le centième d'un demi-ton (le cent), l'utilisation des micro-intervalles est pratiquement irréalisable avec les instruments acoustiques. Ils appellent à des contrôles automatiques, plus fins, réalisées électroniquement. On note d'autre part que ces intervalles ne sont pas perceptibles en-dessous de 500 Hz.

Voir aussi : Harmonie, Timbre

L'intensité

L'intensité musicale se note depuis le XVIème s. (Gabrieli, 1597) par les symboles de pp à ff mais ne fait l'objet de mesures précises que depuis peu.

Ainsi, l'échelle logarithmique des décibels quantifie la sensation d'excitation qui tient compte de l'immense étendue du niveau acoustique et des performances de l'oreille humaine : du seuil d'audibilité à O dB au seuil de douleur à plus de 125 dB.

On sait que l'intensité émise par une source, décroît de 6 dB, chaque fois que la distance de cette source par rapport à l'auditeur double.

Le musicien doit prendre en compte :

■  l'intensité relative du son selon sa structure microscopique (enveloppe d'amplitude)  ;

■  l'amplitude du signal en fonction du milieu de propagation (air, eau, etc.), de la puissance et de la localisation de la source (direction, distance) ;

■  l'amplitude calculée par l'oreille, suivant la physiologie et la psychologie de l'auditeur.

 

Règles E6 

1- l'intensité d'une source sonore décroît de 6 dB lorsque sa distance à l'auditeur double.

2- L'effet de masque s'étend lorsque la durée et l'intensité du son masquant s'accroît.

3- Des sons harmoniques intenses et distants (intervalles supérieurs à la tierce) ont plus facilement tendance à se séparer en flux auditifs distincts que des sons harmoniques faibles et proches.

Voir aussi : Distance apparente

L'interactivité

Le traitement des signaux en temps-réel, l'affichage graphique des paramètres à l'écran, le transfert d'informations MIDI entre les équipements et le stockage des données sur les supports numériques ont créé les conditions d'un échange très rapide avec tous les équipements électroniques.

Cet échange dégage trois types d'interactions  :

■  l'interaction de jeu entre l'instrumentiste MIDI et le dispositif électro-acoustique pour modifier les paramètres musicaux (musiques interactives) ;

■  l'interaction d'analyse entre le compositeur et la machine pour tester le résultat sonore et naviguer dans les bases d'informations (CD, DVD, sites Internet) ;

■  l'interaction d'écoute entre l'auditeur et le dispositif électro-acoustique pour choisir le déroulement de l'oeuvre (jeux vidéo, installations et paysages sonores).

 

Règles E7 

1- La réalisation d'effets en temps réel (filtrage, modulation, synthèse, réverbération, etc.) passe par la connaissance des fonctions audionumériques disponibles.

2- L'utilisation des logiciels de synthèse ou de contrôle MIDI passe par la maîtrise de l'environnement informatique et des commandes.

3- La création et la réalisation d'une oeuvre interactive passent par l'analyse des interactions entre les informations numériques (son, image, vidéo, etc.) et l'utilisateur.

Voir aussi : Opérations, Paramètres

Le masque

La modification du seuil d'audibilité d'un son par un autre, lorsque les deux sont présents simultanément, est attribué au phénomène de masquage.

On distingue 4 types de masque :

■  le masquage d'intensité et de hauteur : un son pur aigu faible est généralement masqué par un son pur grave et intense, mais n'est pas masqué par un son pur aigu fort ;

■  le masquage temporel (ou rétroactif) lorsque des signaux acoustiques sont couverts par des sons arrivant plus tard à l'oreille. Ce phénomène s'explique par le retard physiologique du traitement de l'information dans le cerveau ;

■  le masquage spectral : dans n'importe quel environnement sonore, la voix humaine masque généralement les autres sons (prégnance du message parlé), ainsi qu'un son inconnu qui attire l'attention (rôle d'alerte) ;

■  le masquage de localisation : quelque soit le système de représentation, la place de l'auditeur conditionne l'écoute des événements qui lui parviennent. L'audition et la vue sont donc souvent meilleures si elles ne sont pas masquées par des images et des sons proches.

 

Règles E8 

1- Le masquage de localisation fait mieux comprendre le succès des salles de cinéma, des chaînes HIFI, des radios, des télévisions et des stations multimédias, car les "objets" audiovisuels diffusés entrent directement dans l'espace perceptif humain.

2- Comprendre les mécanismes des différents masquages permet au musicien de mieux composer le relief sonore et donc la profondeur d'une représentation.

Voir aussi : Intensité, Hauteur

Les opérations de composition

Elles sont aujourd'hui bien mises en oeuvre dans les logiciels actuels grâce à toutes les fonctions d'édition sur les notes, sur les signaux audio ou sur les codes MIDI.

Voir : Les éditeurs de sons

On distingue 2 types d'opérations :

■  celles qui opèrent sur les notes pour donner lieu aux motifs, aux mélodies, aux accords et aux formes musicales (de la chanson à l'oeuvre symphonique) : transposition, harmonisation, renversement, altération, modulation, etc.;

■  celles qui opèrent sur les signaux audio pour donner lieu aux objets sonores, aux effets, aux paysages et aux formes électro-acoustique (de l'objet sonore à l'oeuvre électronique) : filtrage, compression, amplification, coupure, effets, spatialisation, modulation, etc.

Aux opérations d'écriture, s'ajoutent les opérations d'interprétation : techniques de jeu, virtuosité, rubato, vibrato, compréhension des situation, improvisation, etc.

Aux opérations d'édition, s'ajoutent les opérations de diffusion : techniques de transmission, débit, acoustique des salles, caractéristiques techniques des matériels, etc.

Règles E9  

1- Les opérations d'écriture sur les notes ne s'appliquent que sur la représentation symbolique des sons : la partition résultante est destiné aux instrumentistes.

2- Les opérations d'édition sur les signaux audio ne s'appliquent que sur la représentation physique des sons : la bande son (ou piste audio) sert la création, la mise en place des effets, l'enregistrement et le mixage des musiques enregistrées.

Voir aussi : Concepts d'écriture, Paramètres

Les paramètres

Quelque soit le système de représentation, le compositeur met en forme des signaux sonores dans le but de satisfaire l'esthétique du spectacle ou du produit à réaliser.

Voir : Musique et Informatique

On distingue :

■  les paramètres musicaux : hauteur, intensité, durée, timbre, etc. ;

■  les paramètres physiques : fréquence, amplitude, spectre, enveloppe, etc. ;

■  les paramètres audiofréquences des appareils : bande passante, signal/bruit, dynamique, courbe de réponse, distorsion, etc. ;

■  les paramètres perceptifs de l'auditeur : clarté, cohérence, présence, sonie, etc. ;

■  les paramètres de la salle d'écoute : bruit de fond, densité spectrale, réverbération, etc.

 

Règles E10 

1- La compréhension des paramètres physiques du son permet de trouver d'autres jeux pour créer de nouvelles partitions.

2- La maîtrise des contrôles MIDI et des paramètres physiques enrichit dors et déjà les modes de jeux des instrumentistes pour créer de nouveaux répertoires.

3- La connaissance de la perception et de l'acoustique des salles permet de créer des "images auditives" en accord avec le système de représentation.

Voir aussi : Concepts d'écriture, Opérations, Hauteur, Intensité, Durée

La propagation

On peut comparer la propagation d'une onde acoustique au déplacement d'une particule qui reçoit une force externe. Cette particule déplace à son tour les particules voisines grâce aux liaisons élastiques du milieu : la perturbation initiale se propage ainsi et le mouvement de chaque particule entraîné possède les caractéristiques du mouvement original avec un retard proportionnel à l'éloignement de la source.

Les relations de phase entre les ondes acoustiques qui proviennent de sources différentes, varient de façon tout à fait irrégulière, de point en point.

Pour chaque point, le champ acoustique est la résultante de trois types d'ondes :

■  les ondes directes, émises par les sources ;

■  les ondes réfléchies et diffusées par la salle ;

■  les ondes diffractées par les éléments dans la salle : haut-parleurs, micros, auditeurs, etc.

L'émission s'effectue toujours dans une certaine direction avec un éloignement apparent et peut créer une émotion affective ou esthétique suivant le conditionnement de l'auditeur. Tout signal sonore est donc indissociable du champ acoustique qui lui correspond.

Règles E11 

1- La propagation des signaux est soumise au masquage de localisation : le système de représentation choisi conditionne l'emploi et la réussite des opérations.

2- Le temps de propagation du signal dépend à la fois de sa longueur d'onde, de la puissance de la source, de la place de cette source dans l'espace et du milieu.

3- La nature de la propagation dépend du contenu fréquentiel : rayonnement omnidirectionnel jusqu'à 500 Hz et directionnel aux fréquences aiguës.

Voir aussi : Echo, Retard

La propagation

On peut comparer la propagation d'une onde acoustique au déplacement d'une particule qui reçoit une force externe. Cette particule déplace à son tour les particules voisines grâce aux liaisons élastiques du milieu : la perturbation initiale se propage ainsi et le mouvement de chaque particule entraîné possède les caractéristiques du mouvement original avec un retard proportionnel à l'éloignement de la source.

Les relations de phase entre les ondes acoustiques qui proviennent de sources différentes, varient de façon tout à fait irrégulière, de point en point.

Pour chaque point, le champ acoustique est la résultante de trois types d'ondes :

■  les ondes directes, émises par les sources   ;

■  les ondes réfléchies et diffusées par la salle ;

■  les ondes diffractées par les éléments dans la salle : haut-parleurs, micros, auditeurs, etc.

L'émission s'effectue toujours dans une certaine direction avec un éloignement apparent et peut créer une émotion affective ou esthétique suivant le conditionnement de l'auditeur. Tout signal sonore est donc indissociable du champ acoustique qui lui correspond.

Règles E11 

1- La propagation des signaux est soumise au masquage de localisation : le système de représentation choisi conditionne l'emploi et la réussite des opérations.

2- Le temps de propagation du signal dépend à la fois de sa longueur d'onde, de la puissance de la source, de la place de cette source dans l'espace et du milieu.

3- La nature de la propagation dépend du contenu fréquentiel : rayonnement omnidirectionnel jusqu'à 500 Hz et directionnel aux fréquences aiguës.

Voir aussi : Echo, Retard

Le retard

Pour chaque point, le champ acoustique est la résultante de trois types d'ondes :

■  un retard de nature physique   ;

■  un retard de nature physiologique ;

■  un retard de nature psychologique.

Il existe une relation entre la diminution de présence et l'augmentation du retard pour les sons les plus présents situés dans le cône d'attention.

Règles E12 

1- Un retard très court (1 ou 2 ms jusqu'à 200 ou 300 ms) sur un signal d'entrée donne de la présence à un signal monophonique, crée une stéréophonie, double ou fait glisser le timbre.

2- Un retard en boucle inférieur à 20 ms, donne une résonance caractéristique (enrichissement des hautes fréquences par multiplication des harmoniques).

3- Un retard supérieur à 50 ms, devient un écho.

Voir aussi : Echo, Propagation

La spatialisation

Depuis le XVIème s (Ecole de St Marc), les compositeurs, avec G. Gabrieli (Magnificat), J.S. Bach (Passion selon St Matthieu), H. Berlioz (Requiem) et E. Varèse (Hyperprism), ont montré l'importance de la place des instruments dans l'espace pour créer un jeu musical en échos.

Les facilités offertes aujourd'hui par les dispositifs électro-acoustiques ont donné à la spatialisation un rôle de premier plan. C'est ainsi qu'il n'est plus rare que la place des instrumentistes et la configuration des haut-parleurs soient clairement définies dans les partitions.

Les techniques compositionnelles issues de la connaissance de l'acoustique des salles et de la perception auditive doivent permettre la formalisation de l'écriture stéréophonique :

■  jeu de réflexion qui s'opère dans l'espace où les signaux sont émis. Ce jeu donne une épaisseur au présent en associant le passé et le futur sur quelques microsecondes ;

■  émission unique de chaque source sonore dans l'espace pour s'unir (sons harmoniques) ou se séparer (sons multiphoniques, sons formantiques) ;

■  source sonore virtuelle des "images auditives" projetées par les haut-parleurs.

 

Règles E13 

1- Le choix et la place des instruments dans l'espace sont les conditions premières pour donner un cadre de départ aux formes sonores.

2- Le type, le nombre et la place des haut-parleurs dans le dispositif de diffusion électro-acoustique sont les conditions essentielles pour réussir les effets stéréophoniques souhaités.

Voir aussi : Concepts d'écriture

Le timbre

La fusion des partiels pour donner naissance à un timbre (voix, son instrumental, son naturel, bruit ou sons synthétique) est liée aux rapports que les partiels entretiennent entre eux et avec l'enveloppe.

C'est ainsi, que J. M. Grey propose une évaluation multidimensionnelle à partir de la distribution de l'énergie spectrale, du degré de fluctuation de l'enveloppe, du synchronisme de l'attaque et de la présence relative des transitoires inharmoniques.

Cette évaluation permet d'établir une typologie des "objets sonores" (cf. P. Schaeffer, Traité des objets musicaux, 1966) qui donne un nouveau cadre pour la composition musicale, non plus basé sur la tonalité mais sur la spectralité (théorie spectrale de Terhardt, 1982).

Comme les couleurs pour les objets visuels, les spectres mettent en relief les "objets sonores" en leur donnant une identité qui accélère le travail d'analyse et de compréhension de l'auditeur.

Dans tous les systèmes de représentation, la discrimination des timbres facilite :

■  la compréhension du texte (ex: la voix au théâtre ou au cinéma) ;

■  l'écoute des plans sonores (ex: musique symphonique, bandes sons) ;

■  l'aisance de la navigation (bruit interactif dans les programmes multimédia).

Avant toute réalisation, on pourra donc établir une charte sonore qui établit la fonction et le rôle des différents sons dans la représentation.

Règles E14 

1- Choisir et organiser les timbres sur leurs critères de perception permet de mieux les mettre en forme et en place dans le temps.

2- La composition formelle peut prendre appui sur les éléments sonores du texte, sur lesquels on va bâtir un environnement harmonique ou inharmonique avec des timbres en accord ou non avec lui.

Voir aussi : Harmonie

Les unités perceptuelles

Pour le musicien, l'oeuvre sonore s'articule autour des événements énergétiques qu'il met en forme pour transmettre son esthétique à l'auditeur.

Depuis Schaeffer (Traité des objets musicaux, 1966), l'événement sonore de base est associé à la structure microscopique de l'"objet sonore". Ainsi, l'écriture musicale qui s'est construite à partir des notes de la gamme et des des phonèmes alphabétiques, voient s'ouvrir aujourd'hui les dimensions physiques et perceptives des signaux sonores.

Au final, les unités perceptuelles (couples mot/motif, phrase/mélodie, scénario/forme) de l'oeuvre sont tous les éléments que l'on articule à partir de l'alphabet phonétique.

On distingue ainsi cinq unités perceptuelles :

■  les transitoires de l'objet sonore : attaque, entretien et chute ;

■  l'"objet sonore" (note, phonème) comme élément de l'alphabet ;

■  le motif (ou le mot) : il est constitué de plusieurs "objets sonores" (note, phonème) sur un temps court. Ensemble, les motifs (ou les mots) forment un vocabulaire ;

■  le thème (ou la phrase) : il est constitué de plusieurs motifs, articulés sur plusieurs secondes. Ensemble, les thèmes (ou les phrases) forment un discours, une histoire ;

■  la forme artistique (ou le scénario) : il est constitué des thèmes, articulés sur la durée de la forme (ex: sonate ou rondeau en musique, roman ou pièce de théâtre en littérature).

 

Règles E15 

1- Il est bon que chaque création réponde à un cahier des charges précis qui définit l'objectif final, les matériaux utilisés et les procédures de mise en oeuvre.

2- Le jeu entre les différentes unités perceptuelles est fonction du projet à réaliser : jingle, musique de film, DVD, musique symphonique, site web, etc.

Voir aussi : Opérations, Paramètres, Hauteur, Intensité, Durée, Timbre

La vitesse

On sait depuis Galilée, qu'un mouvement est relatif, et donc, qu'il dépend de la référence par rapport auquel il se situe. Dans la musique du Moyen Age, c'est le Cantus Firmus qui joue ce rôle de référentiel sur lequel les autres voix vont régler leur vitesse. Jusqu'au XVIIIème s., les techniques du contrepoint vont définir ainsi le mouvement des voix entre elles.

Avec l'invention du métronome par Maelzel au XIXème s., le tempo définit précisément la vitesse d'exécution d'un mouvement : tempo=60 sec./n. On dispose alors d'une représentation des unités de temps (durée n) sous la forme de nombres réels en secondes.

Au XXème s., Einstein a montré que le temps est lui aussi relatif et que la simultanéité est un concept vide de sens. Comme les instrumentistes ont une place unique dans l'espace et que le temps de propagation des signaux a ses propres lois, la synchronisation musicale théoriquement réglée par la mesure n'a pas de sens physique car elle est irréalisable.

Certains compositeurs [Charles Ives (March 1776, 1904) et de K. Stockhausen (Gruppen, 1955)] ont formalisés ces propriétés dans des oeuvres aux mouvements complexes.

Aujourd'hui, on ne peut plus penser et donc mettre en forme des signaux acoustiques sans tenir compte de la place des sources et des auditeurs. Comme chaque individu occupe une place unique dans l'espace, il ne peut y avoir de simultanéité temporelle entre les signaux qu'il reçoit, et ceux reçus par les autres.

On en conclue que le compositeur doit traiter les signaux acoustiques et penser son esthétiques en fonction du système de représentation.

Règles E16

1- L'interactivité des produits multimédias permet aujourd'hui d'intégrer, dans la lecture audiovisuelle, la vitesse d'écoute et de lecture propre à chaque public.

2- On peut utiliser les techniques de spatialisation pour déplacer artificiellement, à la vitesse souhaitée les sources virtuelles.

Voir aussi : Unités perceptuelles, Durée

Règles associées à l'nstrumentarium

L'électrification instrumentale a permis la création d'une lutherie électronique indépendante de la lutherie acoustique traditionnelle. Les synthétiseurs, les guitares électriques et tous les instruments MIDI peuvent être associés à de nombreux périphériques (boîte d'effets, boîte à rythme) et à de nombreux accès gestuels (pédale, méta-instrument, capteur).

Le jeu instrumental se déroule dorénavant dans un espace de diffusion encadré par le dispositif électro-acoustique qui comprend une console de mixage et plusieurs haut-parleurs.

Le jeu instrumental

Si la majorité des instruments acoustiques (clavier, corde, vent, bois) permet un jeu essentiellement réglé sur la production de sons harmoniques, ce n'est que depuis le début du siècle, que la musique savante a progressivement intégré la production des bruits (percussions, piano préparé, modes de jeux bruités), des sons inharmoniques (cuivres) et des sons synthétiques (synthétiseurs).

Les sons purs des générateurs de fréquence ont d'abord été produit en studio tout comme les sons naturels enregistrés sur bande magnétique ou réalisés par des générateurs de bruits.

Aujourd'hui, les instruments MIDI produisent des signaux acoustiques (des sons purs aux sons bruités) dont on peut modifier en temps-réel la valeur des paramètres (fréquence, amplitude, durée, spectre, enveloppe).

Règles I1 

1- Le jeu sur la hauteur est associé au jeu sur la densité spectrale, donc aux fréquences du signal : on pourra ainsi passer d'un son pur à un son bruité. 

2- Le jeu sur l'intensité est associé au jeu sur l'amplitude du signal : on peut ainsi associer ce paramètre à la distance de la source par rapport à l'auditeur.

3- Le jeu sur la durée est associé au jeu sur la durée du signal : on pourra ainsi passer des transitoires courts à des transitoires très long.

4- Le jeu sur le timbre est associé au jeu sur l'enveloppe et sur le spectre du signal : on peut ainsi passer d'une classe de son à une autre.

5- A tous ces jeux, s'ajoutent bien évidemment toutes les transformations du signal lorsqu'il se trouve dans un groupe d'objets : voyelle, consonne, syllabe, motif, mélodie, série, phrase.

Voir aussi : Opérations, Paramètres

Le rayonnement

L'étude du rayonnement explore l'espace de diffusion de l'instrument aux différentes fréquences émises par celui-ci : on observe ainsi que l'image sonore varie énormément d'un point à l'autre de l'espace, en fonction du lieu de représentation et de ses parois (plancher pour la clarinette et le hautbois, mur du plafond pour le cor, plafond pour la flûte, état du sol pour la voix).

Hector Berlioz

"C'est ici le lieu de faire remarquer l'importance des divers points de départ des sons".

Lorsque l'instrument est amplifié, le signal peut, par rebond successif, circuler dans l'espace de diffusion. Il reste à connaître et à mettre en forme ces rayons sonores selon leur énergie.

Règles I2 

1- La complexité du rayonnement acoustique demande une très grande attention d'écriture pour réussir les effets entre les timbres (cas de la musique symphonique) ou entre les signaux (cas de la musique électro-acoustique). 

2- Le lieu du rayonnement acoustique des sources (instruments, haut-parleurs) définit un espace de représentations avec des zones d'écoute radicalement différentes : espace ouvert (rue, terrain de jeux, espace fermé (salle de concert, cinéma), espace audiovisuel (chaîne HIFI) et espace multimédia.

Voir aussi : Zone d'écoute, Lieux de représentation

Règles associées à la diffusion des sons

Dans les années 50, l'importance donnée au microphone et au magnétophone dans le dispositif de diffusion électro-acoustique a créé deux types de musiques :

■  d'un côté, des musiques qui se vivent en direct ("live") devant le micro : ce sont les musiques amplifiées (rock, jazz, techno) et les musiques mixtes, qui privilégient le jeu instrumental ;

■  de l'autre des musiques enregistrées qui se projettent en salle à partir du support magnétique (bande, cassette) ou numérique (CD, CD-ROM) : ce sont les musiques de films, les musiques concrètes, les musiques électro-acoustiques, les musiques électroniques et interactives qui privilégient l'écoute.

Pour le musicien, qui développe un univers sonore diffusé par haut-parleurs, la connaissance des caractéristiques techniques de ces sources, comme sources des vibrations acoustiques dans l'espace réel est très important.

Les haut-parleurs

Par rapport aux instruments acoustiques, les haut-parleurs du dispositif de diffusion électro-acoustique modifie l'espace de représentation des sons.

Le musicien doit ainsi apprendre à produire, à transformer et à diffuser les signaux acoustiques de telle façon que ceux-ci créent dans la zone d'écoute de l'auditeur des "images auditives" pertinentes et intéressantes.

Règles D1 

1- Les haut-parleurs diffusent une multiplicité de sons : voix, bruits, sons naturels, etc.

2- Les haut-parleurs modifient les fonctions traditionnelles de localisation des sons par famille d'instruments.

3- Les haut-parleurs modifient les lois de la distance et de la perspective en élargissant les dimensions de l'espace de représentation, quelque soit le dispositif (orchestre de haut-parleurs, chaîne HIFI, système 3/2, station multimédia ou casque).

Voir aussi : Lieux de représentation

Les lieux de représentation

Au fil des siècles, les espaces de représentation des musiques ont évolué avec les instruments et avec les manifestations auxquelles ils sont attachés.

On peut ainsi dénombrer sept lieux de représentation :

■  l'église ou la chapelle pour les musiques vocales ou instrumentales ;

■  la salle de concert de taille réduite ou gigantesque pour des musiques jouées par des instruments acoustiques (ensemble instrumental, orchestre symphonique) ;

■  le plein air ou la rue pour des musiques de défilé, jouées par des instruments acoustiques (instruments à vent, percussions)  ;

■  la salle de cinéma (écran + haut-parleurs) pour des musiques enregistrées.

■  la salle audiovisuelle (écran + haut-parleurs) pour des musiques enregistrées (cassette vidéo) ou télédiffusées.

■  l'espace électro-acoustique pour des musiques amplifiées (instruments électriques) ou diffusées à partir d'enregistrement (installations sonores).

■  l'espace multimédia (haut-parleurs + ordinateur) pour des musiques enregistrées en local (CD, CD-ROM) ou à distance (serveurs sur Internet).

Cette dépendance de l'instrument par rapport au lieu fait que toutes les musiques sont attachés à un espace de représentation.

Règles D2 

1- La réponse précise de l'oeuvre sonore à un cahier des charges de création doit permettre une meilleur adéquation entre les sons choisis et l'espace de représentation.

2- Le choix de l'espace de représentation conditionne le travail sur les sons choisis : voix, sons instrumentaux, bruits, sons naturels.

Voir aussi : Dispositifs de diffusion

Les dispositifs de diffusion

On en distingue quatre :

■  le dispositif de diffusion électro-acoustique doté d'un ensemble de haut-parleurs disposé en "orchestre" (Acousmonium du GRM ou Gmebaphone du GMEB), en château (musiques amplifiées ou sonorisation en plein air, en ligne (environnements ou installations sonores). Ici, la multiplication des enceintes augmentent les degrés de liberté mais rend difficile la création du relief sonore ;

■  le dispositif 3/2 avec 2 enceintes frontales, 1 enceinte centrale et 2 enceintes arrières pour les effets (équilibre musical et  homogénéité à l'ensemble : chaîne HIFI, télévision stéréo) ;

■  le casque ou la chaîne miniature : dispositif individuel qui permet l'écoute radio ou l'écoute des musiques enregistrées (cassette, CD, CD-ROM) ;

■  le dispositif virtuel : le spatialisateur est un dispositif de simulation des acoustiques des salles.

La place, le nombre et le type des haut-parleurs d'un dispositif électro-acoustique permettent la création d'une scène auditive totalement différente d'une représentation acoustique. Les musiques d'environnement, les spectacles multimédias, les installations sonores, les simulations ou les jeux virtuels permettent ainsi à l'auditeur de se déplacer réellement entre les sources ou bien virtuellement.

Règles D3 

1- Le choix du dispositif électro-acoustique conditionne les effets acoustiques réalisables : illusion auditive, déplacement virtuel, relief sonore, etc.

2- La multiplication des enceintes acoustiques augmente les degrés de liberté mais rend difficile la création du relief sonore (stéréophonie).

3- Le dispositif 3/2 a été spécialement conçu pour tenir compte des propriétés de notre perception.

Voir aussi : Lieux de représentation, Haut-parleurs

Le relief sonore

Le relief sonore est une perception globale qui fait abstraction de la signification des signaux sonores. Il situe les sources apparentes dans l'espace de diffusion, grâce aux paramètres physiques, malgré les modifications du champ acoustique.

Les systèmes de diffusion électroacoustique donnent un nouvel aspect au relief sonore car ils définissent des espaces de représentations dans lesquels les relations entre l'espace et le temps sont modifiées.

Règles D4 

1- La mise en perspective des timbres (musique symphonique) ou des sons (musique électro-acoustique) demande une connaissance approfondie de l'énergie spectrale contenue dans les signaux acoustiques.

2- La place des sources sonores dans l'espace de diffusion est la condition première pour réussir des effets : écho (cf. Gabrieli), réponse (cf. Berlioz), déplacement virtuel (cf. Chowning, Risset).

Voir aussi : Dispositifs de diffusion, Lieux de représentation

Le temps de réverbération

Une salle est un énorme transducteur à 3 dimensions qui agit sur les signaux par le moyen de ses formes, de ses volumes et de ses surfaces limitantes : ce transducteur est couplé avec les sources sonores et les auditeurs eux-mêmes.

On distingue 3 classes de temps de réverbération :

■  environ 0.5 sec. pour dans une pièce d'habitation : valeurs comprises entre 0,3 et 1 sec. ;

■  2 à 3 secondes pour une salle standard ;

■  8 à 10 secondes pour une grande salle claire.

 

Règles D5 

1- La connaissance du temps de réverbération du lieu de diffusion permet de placer les sources et d'adapter le jeu instrumental afin d'éviter le halo sonore.

2- L'emploi d'une réverbération numérique sur un dispositif de diffusion électro-acoustique permet la simulation d'espaces acoustiques virtuels : hall, auditorium, etc.

Voir aussi : Rayonnement, Relief sonore

La transmission

En introduisant dans le champ acoustique un corps diffractant, la fréquence du signal émis par la source n'est pas modifiée : c'est une propriété fondamentale de la transmission d'énergie dans les conditions où l'émetteur et le récepteur sont en repos relatif.

Par contre, le champ acoustique rayonné par un instrument est très variable selon la fréquence émise.

Règles D6 

1- La propriété fondamentale de la transmission d'énergie justifie certainement la prédominance du paramètre  hauteur dans toutes les musiques.

2- Au delà d'une dizaine de mètres, la fréquence du signal émis dans un milieu élastique (air, eau) est absorbée par l'état du milieu (température, humidité).

Voir aussi : Rayonnement, Propagation

La zone d'écoute

C'est la réunion des emplacements pour lesquels l'écoute procure un agrément et un intérêt esthétique. Cette zone comprend des points où le message sonore n'est pas transmis intégralement, mais où l'auditeur dispose de repères suffisants pour une reconstitution satisfaisante.

La zone d'écoute est limitée par les appareils de diffusion et son étendue est proportionnelle à la puissance des sources instrumentales (voix, instruments, etc.) ou des haut-parleurs (5 W pour une station multimédia, 50 W pour une chaîne HIFI :

■  Dans la rue, la zone d'écoute est libre et non définie. Elle est traversée par toutes les sources sonores du lieu (sons naturels, bruits, etc.) ;

■  Dans la salle de concert, la zone d'écoute est définie par le rayonnement des sources sonores acoustiques (instruments, voix, etc.). Chaque auditeur a donc un point d'écoute par rapport aux sources qui lui est propre ;

■  Dans l'espace audiovisuel, la zone d'écoute est rigoureusement définie par la place des haut-parleurs. Elle est un lieu de sons multiples : une voix peut être traitée comme un bruit d'ambiance, le bruit peut être composé musicalement et la musique peut supporter des mots ;

■  Dans l'espace multimédia, la zone d'écoute est plus proche que dans l'espace audiovisuel. La voix est associée à celle de l'enseignant (rôle pédagogique).

 

Règles D7 

1- En fonction des sources sonores dont on dispose et des intentions esthétiques que l'on veut communiquer, on doit veiller à ce que chaque zone d'écoute procure un intérêt pour l'auditeur.

2- Il faut tenir compte des degrés de liberté de l'auditeur par rapport aux sources, que ce soit dans un espace ouvert (plein air, environnement sonore), dans un espace multimédia ou un espace fermé (cinéma, concert).

Voir aussi : Ecriture instrumentale