"Les signaux sonores comme matériaux des nouvelles techniques compositionnelles" DEA Musicologie PARIS IV / IRCAM (1996)
|
|
Synthétiseur
II - Les sons |
En 1636, en écrivant son Harmonie Universelle, le Père Mersenne a, le premier, mis en lumière l'existence des harmoniques. Il faudra attendre le XIXème s., pour que le physicien Ohm émette l'hypothèse de la nature complexe des timbres en définissant un son comme la résultante de plusieurs mouvements vibratoires simples. En 1887, Heinrich Hertz met en évidence les ondes électro-magnétiques qui couvrent un spectre très large : infrasons (inférieurs à 16 Hz), fréquences audibles (de 16 Hz à 20 kHz), ultrasons, fréquences radio (jusqu'à 30 GHz), infrarouges, rayons lumineux et ultraviolets. A partir de là, la fréquence de répétition d'un mouvement vibratoire simple devient une constante descriptive exprimée en Hertz (ou nombre de vibrations par seconde). Chaque son peut alors être décrit sous la forme d'une courbe de variation de pression qui évolue dans le temps. Il faudra attendre les années 50, et l'apparition des appareils électromécaniques puis électroniques, pour que l'on puisse visualiser, enregistrer, diffuser, transformer et transmettre ces signaux acoustiques. Ce travail sur la structure microscopique de l'objet sonore provoque une modification d'échelles des paramètres et un changement de langage. Il va donner naissance aux musiques concrètes, puis aux musiques électro-acoustiques. Il revient à Pierre Schaeffer (Traité des objets musicaux, 1966) et au Groupe de Recherches Musicales (GRM), le mérite d'avoir mis à jour un nouveau solfège, une nouvelle écoute et un vocabulaire morpho-typologique des objets sonores. A la même époque, aux Etats Unis, Max Mathews (The Technology of Computer Music, 1969) synthétise pour la première fois, une forme d'onde et donne naissance aux musiques totalement créées par ordinateur. On voit ainsi apparaître trois types de matériels : ■ une lutherie électronique (synthétiseur, etc.) qui s'enrichit de nombreux accès gestuels et périphériques ; ■ un dispositif de diffusion de plus en plus sophistiqué (dispositif 3/2, stéréophonie, système Dolby) ; ■ des supports numériques (CD, CD-ROM) qui remplacent avantageusement les supports magnétiques. Cette prédominance des capteurs (microphone) et des supports (CD, CD-ROM, etc.) dans le dispositif de diffusion va très rapidement créer deux types de musique :
■ d'un côté, une musique qui se vit en
direct en concert devant le micro. Celle-ci privilégie
■ de l'autre, une musique enregistrée qui se projette en salle, à partir du support. C'est le domaine de prédilection de l'audiovisuel, du cinéma et du dessin animée, qui favorise l'écoute des effets. Depuis, le développement continu des composants électroniques et des langages informatiques va permettre aux musiciens des années 90, de disposer d'un environnement de travail complet pour analyser, créer, traiter et diffuser les sons. Ulrich Michels, Guide illustré de la musique (1988) "La musique est par essence un phénomène sonore, aussi l'interprétation sonore est-elle la plus conforme à sa nature. Perception sensorielle et compréhension intellectuelle, cet ensemble présent dans toute sa complexité, suscite émotion, imagination et énergie vitale". Pour montrer que les signaux sonores sont bien les nouveaux matériaux des Nouvelles Techniques Compositionnelles, j'ai divisé cette étude en trois parties : ■ la mesure des paramètres dans l'histoire musicale : le système pythagoricien, le système tempéré et le système hertzien ; ■ l'analyse des différents signaux acoustiques : les voix, les sons instrumentaux, les sons naturels, les bruits et les sons synthétiques ; ■ les règles d'utilisation des signaux acoustiques : limitations de la perception, propriétés du matériau, techniques d'écriture, domaines de jeux de l'instrumentarium associés aux systèmes de diffusion. |