"Vocabulaire des Nouvelles Technologies Musicales" Editions Minerve (1994) - Mise à jour (2013) |
||||||||||||||||||
S |
||||||||||||||||||
Lieu architectural clos (salle de concert, salle HIFI, salle de projection, studio) dont a favorisé la géométrie (volume, forme, proportion) et l'acoustique (focalisation, diffusion, réponse impulsionnelle, réverbération) pour la propagation du son. Elle intègre deux catégories d'espaces : ■ les espaces d'émission qui renforcent les sources sonores et dirigent l'énergie vers les espaces de réception. Ils ne sont pas absorbants, mais réfléchissants ; ■ les espaces de réception qui contiennent le public. Ils sont acoustiquement neutres. De façon générale, la recherche de l'adaptation optimale nécessite la définition d'un temps de réverbération optimal, de limites géométriques à ne pas dépasser et d'une forme adéquate. Pour accroître l'homogénéité d'une salle, on mélange le plus souvent les éléments absorbants et diffusants, ce qui se traduit par une répartition statistique de l'énergie plus régulière. * Anéchoïque Se dit d'une salle exempt de réflexions: la chambre anéchoïque permet la création d'ondes planes. * Rayon acoustique Lorsque les contributions respectives du champ direct et du champ réverbéré sont égales, la "distance critique" à la source est appelée rayon acoustique de la salle. * Weinberg On utilise cette appellation en acoustique des salles pour qualifier une disposition étagée par analogie avec les vignobles en terrasses étagées de la vallée du Rhin. Les "Weinberg" résolvent le problème de la visibilité et de la propagation.
Par analogie au théâtre, la scène sonore peut être appelée plan du rideau. Située à quelques mètres de l'auditeur, elle présente une structure et un relief tels que les distances sont codées. Les images auditives apparaissent en haut, en bas, à gauche, à droite, aigus ou graves, flous ou individualisés : le relief est d'autant plus accusé lorsque les images sont nettement perçues avec un intérêt psychologique considérable. * Horizon acoustique Il est caractérisé par la distance et la profondeur du champ sonore (von Békésy, 1971) où chaque évènement est associé à une quantité d'énergie. La pression sonore est inversement proportionnelle à la distance. Lorsque la distance des haut-parleurs varie entre 3 et 6 m, l'espace de projection virtuel peut simuler la mise en relief d'une distance comprise entre 2 et 400 m. La vitesse des objets est négligeable quand la distance est grande. L'effet Döppler (variation de la fréquence liée au mouvement) peut être reproduit d'une façon saisissante (Chowning, 1977). * Plan sonore Il dépend du rapport d'énergie du son direct au son réverbéré, pour chaque élément de la scène sonore. Les plans sonores peuvent se différencier par leur localisation dans l'espace et aussi par leur position dans le temps. Une étude psychophysique complète est liée à celle de l'espace sonore subjectif en fonction du champ acoustique. La transmission des plans sonores, dans le sens de la reconstitution des perceptions, est un facteur essentiel de la fidélité. * Relief sonore Perception globale, qui fait abstraction de la signification des sons. Il permet de situer les sources apparentes assez facilement en azimut, plus difficilement en hauteur et en profondeur. Le relief sonore est perçu en lui-même, sans référence préalable à la localisation subjective: l'intérêt se projette ensuite sur des timbres particuliers, selon les informations captées par le cône de vigilance. Une quantité de relief analogue à une quantité d'information est une recherche intéressante pour la transmission stéréophonique.
* Seuil d'audition Limite inférieure de la pression acoustique perçue, le seuil d'audition varie en fonction de la fréquence: ce qui explique qu'un son de 1 kHz, de niveau acoustique 40 dB est perçu comme étant aussi fort qu'un son de 50 Hz à 60 dB (cf. aire d'audition). Le seuil d'audition à O dB correspond à une pression acoustique de 2x10-5Pa ou 2x10-5 N/m2. Il peut être notablement surélevé par la présence de bruit uniformément masquant. * Seuil de compression Niveau du signal au-dessous duquel la compression n'agit pas. * Seuil différentiel Ecart juste perceptible lorsque l'on varie la grandeur physique du stimulus, le seuil différentiel dépend de la grandeur d'excitation. L'oreille, à l'instar des autres organes des sens, est plus performante pour détecter une différence entre deux grandeurs (analyse différentielle) que pour en évaluer les niveaux absolus (mesure). On distingue les seuils suivants : ■ celui de la hauteur, lié à la tonie ; ■ celui de l'intensité, lié à la sonie ; ■ celui de la localisation, liée au rapport ondes directes/ondes réverbérées ; ■ celui du timbre, lié aux formants. Dans Seuils pour orchestre (1991), M. A. Dalbavie exploite ces seuils pour passer d'un état du matériau à un autre. * Seuil d'extension Niveau du signal au-delà duquel, l'extension n'agit plus.
Variation de pression de l'air, variation de tension électrique ou variation mécanique, le signal sonore prend toujours la forme de la grandeur physique qui le transporte. Il est porteur d'une information s'il existe un code entre l'émetteur et le récepteur. Il présente un caractère spatial à plusieurs dimensions qui peuvent être soumises à des transformations linéaires. * Impulsion Signal sonore de très courte durée. Lors des mesures électro-acoustiques, le début de l'impulsion apparaît nettement et est souvent perçue comme un clic. * Signal analogique Tension électrique continue de la forme des vibrations acoustiques. * Signal numérique Tension électrique discontinue qui alterne entre un niveau minimum (valeur 0) et un niveau maximum (valeur 1). * Signal parasite Il déforme le signal d'origine. Sont exclues les déformations d'origine linéaire. * Signal périodique Qui se reproduit indéfiniment, identique à lui-même après la durée d'une période. Son contraire est un signal apériodique. Tout signal faisant entendre une hauteur précise est dit périodique à la fréquence de sa fondamentale. Les sons multiphoniques ou formatiques sont par contre multi-périodiques et font entendre plusieurs hauteurs difficiles à percevoir (cas des voyelles ou des sons de cloches). * Signal vocal Vibration acoustique émise par l'être humain, un signal vocal transmet deux types de messages : ■ un message sémantique, expression verbale de la pensée: l'essentiel de ses formes est compris dans une bande passante de 300 à 4000 Hz ; ■ un message esthétique perceptible au travers des qualités de la voix (débit, intonation, timbre). Ce sont les variations formantiques du spectre qui transmettent le message sémantique. Elles sont indépendantes du type de voix employé (voix chuchoté, voix de proximité ou voix de conférencier). On distingue les sons vocaliques (harmoniques) et les sons consonantiques (bruits, sifflantes). Dans Sounds and words (1960) et Phonema (1970), M. Babbitt traite le texte de manière phonétique, usant de sons vocaux sans signification. On rencontre des situations analogues chez K. Stockhausen (Gesang der Jünglinge), G. Ligeti (Aventures, Nouvelles aventures), ainsi que chez L. Bério, M. Ohana. Plus récemment, G. Grisey intègre 12 voix mixtes et synthétisées par ordinateur dans Les chants de l'Amour (1982-84).
Fait sonore ou évènement sonore, le son désigne la vibration acoustique (signal physique) capable d'éveiller la sensation auditive et cette sensation elle-même. Il se distingue de l'"objet sonore" Schaefférien qui définit l'objet de notre perception ou l'objet phénomènologique à partir de sons enregistrés. Ce fait sonore (ou figure) est toujours perçu sur un fond (cadre, contexte) dans une certaine direction avec un éloignement plus ou moins proche: cette perception de la figure sur le fond est déterminé par le champ (environnement sonore). Les sons peuvent être classifiés selon leurs caractéristiques physiques (acoustique), leurs perceptions (psycho-acoustique), leurs fonctions (sémiotique), leur signification (sémantique) ou leurs qualités (esthétique). * Son différentiel C'est la résultante de deux sons, lorsque le nombre de battements par seconde dépasse 30. Avec deux sinusoïdes, de 450 Hz et 55O Hz respectivement, on entend un différentiel de 100 Hz. * Son glissé (glissando) Mouvement continu sur l'échelle des hauteurs, le son glissé est pour la première fois employé formellement par I. Xénakis. Dans Terretektorh (1965-66), celui-ci calcule et ordonne de façon précise l'ambitus et le mouvement des glissandos. On distingue deux types de son glissé : ■ le glissando sur toute l'échelle des hauteurs ; ■ le portamento: glissando microscopique sur le transitoire d'attaque d'un son (très utilisé dans la musique baroque).
* Son hybride Son composé de deux ou plusieurs timbres de référence. Il peut s'agir d'une mutation successive par étapes discrètes ou par éléments composites de l'un ou de l'autre. Dans Les rires du Gilles (1981) et Préfixes (1991), M. Levinas procède à une hybridation de paires d'instruments en général dissemblables: tuba avec un cor, cor avec la grosse caisse, grosse caisse avec une cloche. * Son inharmonique Pourvu de fréquences non-multiples du fondamental, le son inharmonique (son de cloches, gong, percussion) est très intéressant pour la perception, parce que sa hauteur est ambigü. Il est perçu comme une entité ou comme un "collage" de plusieurs éléments : dans ce cas, on le rapproche des sons multiphoniques. J. C. Risset introduit dans Inharmoniques (1977) des textures qui donnent cette sensation de liquéfaction, de condensation et de cristallisation de la matière sonore. * Son matriciel Sons physiquement immuables, que l'on retrouve dans différentes cultures ou qui réapparaissent au cours des âges avec toujours la même signification. * Son multiphonique Son délivrant plusieurs hauteurs, il est émis dans des conditions acoustiques spéciales (chant parlé dans l'instrument, variation spectrale sur la fondamentale). L'identité du timbre est préservée mais n'est pas intégrée à sa structure harmonique. Tromboniste, A. Mengelsdorff pratique une technique multiphonique (notes soufflées et chantées) avec l'emploi constant des harmoniques. Quant au flûtiste J. Steig, il incorpore de manière structurelle des effets (clappement, bruit, souffle, effet).
Véritable imprimante du son, le sonagraphe fournit une représentation temporelle de l'évolution spectrale. Les nouveaux sonagraphes cherchent à représenter la répartition géographique des faits sonores de l'environnement. Il permet trois types d'opération : ■ l'enregistrement de niveau en dB/s. : évolution de l'intensité en fonction du temps, profil dynamique des transitoires ; ■ la transcription en Hz/s. où l'intensité de chaque harmonique est représentée par l'épaisseur d'un trait: transitoire d'attaque, richesse harmonique, durée des sons et extinction ; ■ la transcription en Hz/s. où l'intensité de chaque harmonique est représentée par la longueur des raies spectrales mesurée en décibels.
Etude de tous les phénomènes sonores, de leur production à leur audition en passant par leur diffusion. La sonologie regroupe les disciplines complémentaires que sont l'électro-acoustique, la perception auditive, le traitement du signal sonore, la lutherie électronique et l'informatique musicale. Ces compétences sonologiques qui varie d'une culture à l'autre rendent possible la formation, l'analyse et l'expression des sons. Ce terme est largement associé à l'Institut de Sonologie, créé par le compositeur Gottfried Michael Koenig à l'Université d'Utrecht en 1967 et plus tard installé dans les locaux du Conservatoire Royal de Musique à La Haye en 1986. C'est dans ce même Institut, que le Dr. W. Kaegy a développé dans les années 70 et 80, le son de synthèse VOSIM défini en compréhension par le système MIDIM (Minimum Description of Music).
Ensemble des équipements du dispositif de diffusion électro-acoustique destiné à amplifier les sources instrumentales dans un espace donné (salle de concert, salle des fêtes, parc, foire, cinéma, etc.). La sonorisation comprend généralement un nombre important de haut-parleurs car elle s'adresse à un large public dans des situations acoustiques variées. Si l'expérience des concerts géants en plein air a permis d'améliorer le matériel ("light show" informatisés, écran vidéo géant), l'aspect visuel déborde souvent la dimension sonore: concerts des Pink Floyd, des Rolling Stone, de J.-M. Jarre. Au début des années 80, M. Jackson (Thriller, 1982) réalise la tournée du siècle avec une scène gigantesque (450 techniciens, 4 écrans vidéo et projection en "star vision"). * Ambiophonie Procédé qui permet d'agrandir subjectivement le volume d'un auditorium, en augmentant artificiellement son temps de réverbération en ajoutant des signaux retardés. On affaiblit ainsi les échos en les rendant plus diffus après vérification du bon emplacement des sources, des réglages de niveau et des décalages temporels. * MCR (Multi Channel Reverberation) Procédé électroacoustique, qui consiste à capter les ondes incidentes par des micros. On les restitue ensuite amplifiées grâce à des haut-parleurs placés sur les murs. On peut modifier ainsi le temps de réverbération (RT60) et les premières réflexions (EDT) sans changer le volume, ni la nature de la salle. * Spatialisateur Simulateur de dispositif de diffusion, il transforme les signaux en temps réel, de manière à contrôler la localisation, le déplacement d'une source et l'effet de salle en fonction des paramètres perceptifs. Les processus de propagation et de réflexion multiples qui sont modélisés algorithmiquement permettent de construire l'acoustique d'une salle en réglant la qualité de la zone d'émission et celle de la zone de réception.
Tout dispositif naturel (eau, terre, feu, monde animal) ou inventé par l'homme qui émet des vibrations acoustiques (instruments, corps sonores, haut-parleurs). * Source réelle Lorsque l'image auditive coïncide avec ce qui la produit, on dit que la source est réelle. * Source virtuelle Lorsque l'image auditive ne coïncide pas avec ce qui la produit, on dit que la source est virtuelle. C'est le cas des sons diffusés par haut-parleurs.
Ordinateur professionnel, la station de travail a une puissance de calcul très supérieure au micro-ordinateur individuel. Dans le studio, elle remplace avantageusement les gros systèmes des années 1970 avec toutes les fonctions de contrôle, d'édition, d'enregistrement, de diffusion, de traitement, de stockage et de transmissions des signaux. Il n'est pas rare de la voir doté aujourd'hui de processeurs extrêmement rapide (Faster Than Sound: Mips et Mflops), de mémoires de très grande capacité (disque dur, CD-ROM), de nombreuses connexions externes (Modem) et d'un moniteur vidéo muni d'une interface graphique conviviale et interactive. Installé en réseau MIDI, elle peut traiter en temps réel les paramètres musicaux qui vont agir sur le dispositif de synthèse ou de diffusion. D'une façon générale, la station de travail musicale intelligente est intéressante par sa complexité électronique et par la multiplicité de ses traitements symboliques (A. Camurri et G. Haus: Intelligent Music Workstation, 1991).
La stéréophonie, c'est l'audition en relief, ou plus généralement l'ensemble des techniques liées à la production, à la transmission et à l'écoute du relief sonore. On cherche à immerger l'auditeur dans un champ acoustique créé par deux ou plusieurs sources placées à gauche, à droite, et tout autour de lui. Les phénomènes physiques impliqués sont intimement liés aux facteurs subjectifs de la perception. Les quatre critères de qualité des stéréophonies sont l'étendue de la scène sonore, la répartition des sources, la polarisation (dans tout l'espace subjectif ou concentré sur l'axe acoustique) et la compacité (entre monophonie et relief idéal). Lorsque la zone d'écoute est très large, la stéréophonie perd un certain nombre de ses avantages. La relation entre le relief sonore, les sensations directionnelles et l'effet de salle n'est par conséquent pas simple. Aussi on a normalisé la salle d'écoute comme étant une pièce de dimensions moyennes (40 à 60 m3), relativement absorbante, ne présentant pas de plans réfléchissants (vitres ou glaces), et doté du maximum de diffusion. Lors d'un enregistrement sur support mécanique (bande magnétique, disque audionumérique), les signaux "gauche" et "droit" sont échantillonnés puis multiplexés: pour un codage à 16 bits, l'échantillon de 32 bits représente le signal stéréophonique. * Pseudo-stéréophonie Faculté d'obtenir, à partir d'une modulation monophonique, une scène sonore d'une largeur comparable à celle de la stéréophonie à deux canaux. * Dispositif 5.1 L'appellation 5.1 correspond à un dispositif stéréophonique de 5 canaux audio reproduits par 5 enceintes acoustiques situées autour de l'auditeur : l'enceinte avant centrale garantit la localisation des voix humaines à l'écran, les enceintes avant gauche et droite restituent la scène sonore tandis que les deux enceintes arrière "surround" ajoutent le relief sonore.
Ensemble des techniques mises en œuvre pour reproduire une perception du relief à partir de deux images planes, la stéréoscopie se base sur la perception humaine du relief qui se forme dans le cerveau : celui-ci reconstitue une seule image à partir des deux images provenant de chaque œil. S'il existe une grande variété de moyens pour réaliser ces images, aussi bien que pour les observer, la stéréoscopie concerne aussi bien la photographie que les dessins ou les images de synthèse. L'auto-stéréoscopie permet la stéréoscopie sans lunettes spéciales.
Le premier studio de musique électroacoustique fut créé en 1948 à Paris au Club d'essai de la RTF par P. Schaeffer. De 1952 à 1958, le Groupe de musique concrète accueillit nombre de compositeurs dont P. Boulez, P. Henry, K. Stockhausen. En 1958, c'est la naissance du Groupe de recherches musicales, aujourd'hui dirigé par F. Bayle. Le premier studio de musique électronique fut fondé en 1950 à la radio de Cologne (WDR) par H. Eimert. Vinrent ensuite ceux de Milan en 1953 avec L. Bério et B. Maderna, de Gand en 1962 avec L. Goethals, de Bruxelles en 1958 puis Liège en 1970 avec H. Pousseur, d'Utrecht en 1964 avec G.-M. Koenig et W. Kaegi, de Stockholm avec K. Wiggen. En 1970, les générateurs de son et les premiers modules de traitement électronique (détecteur d'enveloppe, écho, filtre, modulateur en anneau) entrent en service au GRM. Dans le même temps, c'est la création des studios des groupes de recherche à Marseille (GMEM, 1969), à Bourges (GMEB, 1970). En 1975, est fondé l'IRCAM sous la direction de P. Boulez. A l'étranger, les principaux centres se trouvent: aux Etats-Unis à l'Université de San Diego (C.) avec R. Reynolds, à l'Université de Berkeley (C.) avec D. Wessel, au Centre de recherche de Standford (C.) avec J. Chowning; au Canada, à l'Université de McGill de Montréal avec A.-S. Bregman; en Italie, à l'Université de Gênes avec A. Camurri et G. Haus. Aujourd'hui, Q. Jones symbolise cette révolution tranquille qui change en profondeur le destin de la musique populaire : l'électronique submerge l'acoustique et le studio acquiert la primauté sur l'orchestre. L'explosion de la micro-informatique pendant les 1980 confirme la station de travail informatique comme un outil incontournable (D. Fortier : le Home studio, 2003) d'autant plus qu'elle est maintenant relié au monde entier grâce à Internet. * Cabine de mixage/prise de son (control room) En musique électroacoustique, le studio de prise de son et la cabine de mixage équipés de multipiste ont une grande importance. La taille du studio de prise de son a sensiblement diminué pour laisser place à des cabines isolées réservées aux instrumentistes. Quant à la cabine de mixage, sa mise en oeuvre est délicate à cause du champ réverbéré qui ne doit pas perturber la réponse au point d'écoute. Les techniques numériques vont certainement modifier encore le volume du studio et de la cabine. * LEDE (Live End/Dead End) Critère d'interaction des premières réflexions avec le champ direct (extrémité vivante, extrémité amortie) pour la mise en place d'une cabine de mixage. Comme l'oreille humaine nécessite un champ réverbéré et qu'on doit éviter les premières réflexions importantes, le système LEDE rejette les premières réflexions à 20 ms du son direct. La cabine présente ainsi une moitié avant anéchoïque et une moitié arrière réverbérante: l'acoustique de la cabine ne masque ainsi plus l'acoustique du studio. Il en résulte pour les utilisateurs une absence de fatigue auditive.
Matériau utilisé pour enregistrer et reproduire les signaux sonores. Aujourd'hui, les supports d'enregistrement se déclinent en 3 familles : les bandes magnétiques, les disques numériques et les clés USB. * Bande magnétique (cassette, DAT, DCC) C'est le premier support utilisé dans le studio de musique électro-acoustique : les signaux audio analogiques ou numériques (formats DASH, EIAJ, PASC, PRODIGI) sont contenus par magnétisation des couches d'oxyde (polarisation par champ magnétique de la tête d'enregistrement). La bande magnétique est maintenant remplacée par les disques numériques. * Disque (CD, CD-ROM, DVD, disque dur, mini-disc) C'est un disque numérique sur lequel on peut facilement lire, écrire, graver ou enregistrer tout type de données numériques (du texte à la vidéo). * Clé USB (mémoire flash) C'est une mémoire électronique portable sur laquelle on peut facilement enregistrer plusieurs Mo de données numériques.
C'est l'action qui rend solidaire et simultanée le fonctionnement de deux appareils ou de deux instruments. Suivant le support utilisé, la synchronisation est assurée par un dispositif mécanique, électrique ou électronique. Il existe plusieurs types de signaux de synchronisation : ■ MIDI/MIDI : code d'enregistrement sur un séquenceur ou sur une boîte à rythme ; ■ MIDI/FSK : code de synchronisation entre un séquenceur (ou boîte à rythme), et un magnétophone ; ■ SMPTE/MIDI : code SMPTE (magnétophone, magnétoscope) pour commander certains appareils MIDI (séquenceur, échantillonneur) ; ■ MTC : code de synchronisation audiovisuelle.
* MTC (Midi Time Code) Similaire au MIDI, l'interface MTC est un moyen simple de synchroniser les appareils à séquence (boîte à rythme, échantillonneur, séquenceur) avec les enregistreurs (magnétophone, magnétoscope, multipiste). * SMPTE Exprimé en temps (heures, minutes, secondes et numéro d'images) pour repérer chaque image vidéo, le signal SMPTE est un code qui comprend 80 bits et varie selon les pays en fonction du nombre d'images par seconde (25 en Europe et 30 aux Etats Unis et au Japon). Il permet le repérage précis des informations audiovisuelles enregistrées sur un support magnétique et la synchronisation avec d'autres supports On distingue les codes suivants : ■ LTC (Longitudinal Time Code) lorsque le signal est destiné à être enregistré et lu sur une bande magnétique audio ; ■ VITC (Vertical Time Code) lorsque le signal est incorporé dans l'image vidéo pour les besoins du montage. Créé en 1980, ce code comprend 90 bits. Les chiffres du code SMPTE s'affichent soit par un système traditionnel à diodes (LED), soit par la synthèse électronique d'une image vidéo qui se superpose à l'image du programme. Les échantillonneurs, les séquenceurs et les nouveaux équipements sont souvent équipés aujourd'hui d'une interface SMPTE/MIDI qui interprète directement la lecture d'un code temporel. * UER (EBU) Code de synchronisation composé de 4 bits. Il est enregistré sur une piste spéciale de la bande son et comporte les numéros de secondes, de minutes, d'heures, de jours et de mois incrémentés toutes les secondes.
Synthèse (techniques de -) Ce sont toutes les techniques mathématiques et physiques qui permettent de créer un signal électrique artificiel pour obtenir un signal acoustique identifiable : ce travail est fait à partir de l'analyse et le calcul des sons (sonagramme, calcul de la FFT, algorithme de Terhardt). A l'origine, dans les années 50, les pionniers de la musique électronique du studio de Cologne (E. Eimert, W. Meyer-Eppler et K. Stockhausen) et ceux de la musique par ordinateur aux Etats-Unis (M. Matthews avec Music V) employèrent l'oscillateur comme élément de base pour générer un signal périodique de forme simple (sinus, triangle, carré). Aujourd'hui, on développe dans les centres de recherche universitaires et chez les constructeurs de matériels audio, des techniques de synthèse de plus en plus sophistiquées. * Synthèse additive Elle construit un signal sonore par addition successive des sinusoïdes qui représentent chaque partiel. La synthèse additive est générale et permet un contrôle sur tous les paramètres: amplitude, fréquence, enveloppe et modulations. On peut produire des spectres harmoniques ou inharmoniques très riches modulés par des enveloppes temporelles (J. C. Risset: Catalogue de sons, 1969). Dans Mutations (1969), il contrôle la dimension organique du timbre en créant des mutations. * Synthèse par analyse-synthèse On décompose d'abord le signal sonore en paramètres élémentaires puis on le recompose après avoir modifié ou non ses paramètres d'analyse. On emploie ainsi deux opérations complémentaires qui établissent un ensemble de relations entre les paramètres physiques et psycho-acoustiques extraits de l'analyse, et les paramètres de synthèse correspondant à l'algorithme mathématique. Pour les sons à formants (parole, instrument), il est utile de séparer ce qui provient de la résonance du système physique (modes de la table d'harmonie pour le piano ou mode résonant pour la voix), de ce qui provient du système excitateur (corde frappée ou pincée, vibrations des cordes vocales). * Synthèse par codage prédictif linéaire Elle déforme un son très riche harmoniquement avec les paramètres d'une enveloppe spectrale qui modélise indépendamment l'excitation (mouvement des cordes vocales) et la réponse (position des articulateurs). * Synthèse croisée Technique d'hybridation qui associe les paramètres extraits de deux sons pour modéliser un timbre synthétique: une excitation et une réponse, attaque et une résonance, un spectre harmonique et une enveloppe d'amplitude. * Synthèse par échantillonnage Largement utilisé sur les stations de travail (SIM de l'IRCAM, SYTER du GRM), elle crée un signal sonore à partir des valeurs numériques attribuées à chaque échantillon. Cette technique évolue actuellement vers une modélisation spectrale pour donner plus d'importance aux caractéristiques de l'audition. En maîtrisant ainsi mieux l'évolution temporelle, il sera possible de donner plus de vie aux sons synthétisés. * Synthèse par diphones Elle repose sur l'analyse fine des articulations entre deux signaux consécutifs, de même hauteurs ou de hauteurs différentes. Sa mise en oeuvre nécessite la constitution d'une base de données contenant un grand nombre d'enchaînements. En synthèse vocale, cette technique, indépendante de la langue utilisée, ce qui lui confère un avantage important dans le contexte européen. * Synthèse par fonction non-linéaire Elle utilise une fonction non-linéaire pour déformer une forme d'onde simple et en faire un signal complexe. Construite à partir du produit de deux fonctions, c'est une synthèse croisée. * Synthèse de Fourier Elle utilise la transformée de Fourier comme base de l'analyse fréquentielle d'un signal. Lorsque tous les coefficients du spectre sont connus grâce à l'algorithme FFT (Fast Fourier Transform), le signal sonore est produit : ■ avec un ensemble d'oscillateurs sinusoïdaux (analogiques ou numériques) dont l'amplitude et la phase sont contrôlées par les coefficients: c'est le cas du "Fourier synthesizer" ; ■ en calculant la forme d'onde et en utilisant un générateur de forme d'onde variable ; ■ en calculant la forme d'onde et en utilisant un convertisseur numérique/analogique.
* Synthèse granulaire En 1946, Gabor envisagea la décomposition des signaux sonores en "grains" élémentaires. Les ondelettes ou transformations de Gabor sont devenus depuis peu, une technique de modélisation. Celle-ci construit un signal à partir de signaux acoustiques de très courte durée, dont la densité est définie par des lois stockastiques. La recherche se poursuit sur la fréquence statistique à donner à chaque "grain". On peut créer ainsi des bruits d'explosion, de pluie ou de verre cassé. I. Xénakis (Gendy, 1991), fait varier stockastiquement une forme d'onde en amplitude et en durée: ce qui se traduit par des changements de timbre, de fréquence et d'intensité. * Synthèse par modèles physiques Simulant les processus générateurs de la vibration acoustique, cette synthèse exige une description précise des caractéristiques physiques des matériaux et de leur excitation: taille et densité (plaque, membrane ou corde), nature, force et vitesse de l'excitateur. Elle fait apparaître des réalités virtuelles, mises en valeur par exemple dans le système Cordis de l'ACROE. Mentionnons brièvement trois autres techniques : ■ la description modale qui constate l'existence des modes de vibration privilégiés (synthétiseur Mosaïc de l'IRCAM) ; ■ la synthèse MSW qui associe une excitation non-linéaire (archet, embouchure, plectre) avec une résonance linéaire (corde, tuyau, caisse) ; ■ la synthèse par guide d'onde qui simule la propagation des ondes dans un corps, par une ligne de retard numérique.
* Synthèse par modèles de type source-filtre La plus utilisée en synthèse de la parole, cette technique montre que la plupart des instruments fonctionnent avec deux dispositifs: l'excitateur fournit l'énergie et représente la structure fine du spectre; le résonateur vibre sous l'effet de l'excitation et représente l'enveloppe spectrale. Le modèle utilise des bancs de filtres résonants que l'on excite avec du bruit blanc et/ou avec un signal harmonique. Les paramètres sont déterminés soit par une analyse spécifique (modélisation des sons percussifs), soit de manière arbitraire. Conçu initialement pour la voix chantée, le système CHANT (Barrière, 1991) est un synthétiseur de type source filtre. Il calcule la forme d'onde à la sortie du filtre en additionnant autant de fonctions d'ondes formantiques (FOF) qu'il existe de formants. Les modèles par résonance travaille quant à eux, sur la structure résonante des sons. * Synthèse par modulation de fréquence Grâce à J. Chowning (1973), l'utilisation de la modulation de fréquence dans la bande passante de l'oreille crée une technique de synthèse riche en timbres nouveaux. Les synthétiseurs de la firme japonaise Yamaha exploitent ce principe. * Synthèse soustractive Comme la synthèse par codage prédictif linéaire, la synthèse soustractive fait appel à un son très riche harmoniquement. Elle forme ensuite le spectre de celui-ci, en atténuant ou non, l'amplitude de chaque partiel. * Synthèse par table d'onde On distingue : ■ la synthèse par table d'onde T (où T représente la dimension temporelle): elle mémorise dans une table, une forme d'onde qui sera lue périodiquement. L'effet de fondu/enchaîné entre les tables est ici un bon moyen pour obtenir un timbre évolutif ; ■ la synthèse par table d'onde F (où F représente la dimension fréquentielle): elle mémorise dans une table, le spectre harmonique. Une série de Fourier inversée donne la période de la table. L'interpolation entre différents timbres est ici plus aisée et prévisible à cause de la normalisation de la phase. L'algorithme de Karplus-Strong est un moyen pour modifier à chaque fois la table. * Synthèse vectorielle Faisant appel à des tables d'ondes multiples avec interpolation, la synthèse vectorielle est sensible à un nombre arbitraire de paramètres de commande d'exécution. La Korg Wavestation utilise l'interpolation sur 4 voies. * Synthèse VOSIM (Vox simulation) Développé par W. Kaegi et S. Tempelaars à l'Institut de Sonologie (Pays Bas), le son de synthèse VOSIM est construit à partir des propriétés du signal vocal. La fréquence de la pulse détermine la fréquence du formant. Grâce au système MIDIM, on peut décrire des classes de timbres que le compositeur utilise dans son univers musical (W. Kaegi: "The Midim language and its Vosim interpretation", 1986).
Equipement électronique qui capte, traite, transmet ou enregistre les signaux sonores. Son fonctionnement est déterminé par les paramètres audiofréquences. * Système analogique Tout équipement (console de mixage, effet, filtre, magnétophone, oscillateur) qui traite des signaux électriques analogiques. * Système linéaire Quand un système physique a une réaction proportionnelle à une excitation, on dit qu'il est linéaire [sortie=a x entrée]. C'est le cas des filtres, des console de mixages, des magnétophones, des amplificateurs et des enceinte acoustiques. Les propriétés linéaires induisent une modification de l'amplitude et de la phase du signal mais pas de sa forme. * Système non-linéaire Quand un système physique a une réaction non-proportionnelle à une excitation, c'est un système non linéaire [sortie= a x entrée +b]: cas du compresseur/limiteur. Les propriétés non-linéaires induisent des déformations sur la forme du signal (distorsion) qui sont perçues comme des harmoniques extérieures. * Système numérique Tout équipement (console de mixage, effet, filtre, magnétophone, oscillateur) qui gère des signaux électriques numériques. Ses principales caractéristiques sont : ■ la fréquence d'échantillonnage: 32 kHz; 44,1 kHz; 48 kHz ou 50,4 kHz choisies suivant une normalisation internationale ou une compatibilité avec d'autres équipements ; ■ le nombre de bits alloués: 16, 32 ou 64 bits ; ■ la forme du message: série (enregistrement sur support mécanique ou transmission) ou parallèle (information sans enregistrement, ni transmission) ; ■ la représentation électrique : NRZ ou PE.
|