"Vocabulaire des Nouvelles Technologies Musicales" Editions Minerve (1994) - Mise à jour (2013) |
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
T |
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
I. Prigogine, I. Stengers, Entre le temps et l'éternité, 1992 "La question du temps, un et multiple, articule notre besoin de construire une conception plus unifiée du monde avec la multiplicité des regards que ce monde exige de nous" - "La flèche du temps s'impose comme nouvelle pensée de l'éternité. C'est elle qui nous permet de penser la solidarité entre les temps multiples qui composent notre univers, entre les processus qui partagent le même futur". * Temps d'accès Temps que met un dispositif de lecture (lecteur, magnétophone, magnétoscope) pour aller rechercher une information enregistrée sur bande magnétique ou sur disque. * Temps d'arrivée A chaque point de l'espace sonore correspond un temps physique d'arrivée de l'onde. Le retard entre les oreilles de l'auditeur est équivalent à une longueur d'onde d'environ 13 cm (largeur de la tête). Il est plus sensible pour les fréquences basses jusqu'à environ 800 Hz. La notion de temps d'arrivée psychologique découle du fait que la perception n'est de toute façon pas un phénomène instantané et qu'elle procède à la fois par analyse et par saisie globale. Pour un son perçu, on a donc un retard de nature physique (processus d'excitation périphérique), un retard physiologique (durée de propagation des influx et d'excitation vers le cerveau) et un retard psychologique (signal physique à signification subjective. * Temps de délai initial (ITD) (cf. Réverbération) * Temps différé En dehors du temps réel. L'interprétation s'inscrit dans le temps réel, la conception est en différé. * Temps d'émergence Durée nécessaire à l'obtention d'une réponse acoustique: alignement temporel des enceintes acoustiques. * Temps d'excitation C'est le temps qu'utilise l'énergie électrique ou l'énergie mécanique pour effectuer une modification de gain d'un dispositif (périphérique) ou pour exciter un résonateur (corde vocal, colonne d'air, corde). * Temps d'intégration Temps qu'il faut à l'oreille pour intégrer une classe de phénomène. Variable, il dépend de nombreux facteurs psychologiques et joue un rôle central dans la relation avec la fréquence, le niveau et la localisation. Ainsi, il faut : ■ quelques millisecondes pour déterminer la fréquence à 1000 Hz ; ■ quelques dizaines de millisecondes pour apprécier la qualité d'une salle ; ■ 50 ms pour juger de la présence psychologique d'un son ; ■ 300 ms pour estimer les variations de modulation ; ■ de 5 à 10 secondes pour avoir conscience de la qualité d'un enchaînement entre deux modulations ; ■ de 1 à plusieurs minutes pour régler la dynamique d'une oeuvre ; ■ un temps plus long pour la signification esthétique. Cette croissance du temps d'intégration montre bien la complexité mise en jeu dans les mécanismes de la perception. * Temps physique Temps de l'horloge en heures, minutes, secondes. * Temps psychologique Durée qui sépare l'instant de la perception de l'instant de sa réaction (degré de changement ou d'évolution). * Temps de propagation Temps nécessaire à une vibration acoustique ou à un signal électrique pour se déplacer: il est lié à la vitesse des ondes dans le milieu (air, eau, cuivre). * Temps réel C'est le temps de la vie biologique. Lorsqu'un système possède un temps de réponse inférieur au pouvoir séparateur de l'oreille, on dit qu'il fonctionne en temps réel (FTS). Henri Bergson (I. Prigogine, I. Stengers, 1992) "Nous ne pensons pas le temps-réel. Mais nous le vivons parce que la vie déborde l'intelligence". * Temps de réverbération (RT60) (cf. Réverbération) * Temps de traitement Durée de l'opération effectuée sur les paramètres du signal ou des calculs sur les valeurs numériques. L'exécutif FTS (Faster Than Sound) de la station informatique de l'IRCAM (Puckette, 1993) effectue des calculs sur les données instrumentales plus rapidement que l'émission du son lui-même. Le traitement, effectué en temps réel, permet d'entendre simultanément le son émis par l'instrumentiste et le son transformé.
Modification du signal sonore effectuée par des fonctions programmées (station de travail) ou par des périphériques spécialisés (amplificateur, compresseur/limiteur, échantillonneur, filtre, harmoniseur, réducteur de bruit, etc.). Les paramètres physiques (amplitude, fréquence, phase, spectre) étant étroitement liés d'un point de vue perceptif, la qualité du traitement dépend du dispositif électronique. Ces traitements sont soit des corrections du signal d'origine (amplification, réduction de bruit, compression, égalisation, extension, filtrage, transposition), soit des effets qui s'additionnent ou remplacent le signal d'origine (chorus, contrôle en tension, flanging, modulation, phasing, retard, réverbération, variation de vitesse). Ils interviennent pendant l'enregistrement et le mixage (balance, compression, effets, extension, réduction de bruit) ou pendant la diffusion (balance, contrôle des instruments MIDI, réduction de bruit). Aujourd'hui les processeurs de signaux (DSP, ISPW) des stations de travail peuvent effectuer tous les traitements mathématiques en temps réel: analyse, contrôle, diffusion, mémorisation, numérisation, synthèse et transmission. On peut en outre extraire un paramètre du jeu instrumental pour commander un autre instrument ou pour déclencher un effet. * Amplification Augmentation d'amplitude d'un signal sonore : Gain=20xLog(A). * Atténuation (cf. atténuateur) Exprimé en dB, l'atténuation est la différence entre deux niveaux exprimés en dBm. On peut caractériser un quadripôle par son atténuation globale ou par l'évolution de l'atténuation de l'entrée à la sortie. Lorsque l'on mélange en entrée plusieurs sources sur une console de mixage, l'atténuation est proportionnelle à leur nombre [Atténuation=20 x log(n)]. En sortie, cette atténuation est compensée par une amplification supplémentaire. * Compression (cf. -) * Conversion MIDI Elle transforme une information d'intensité ou de célérité en un message de hauteur, un message de toucher en un message d'intensité. Des effets inattendus sont ainsi possible avec la "mise en cascade" de plusieurs traitements. * Extension Elle contrôle l'amplification et l'atténuation du signal vis à vis d'un niveau de référence (ou point de rotation). La variation entre l'entrée et la sortie de l'extenseur définit le rapport d'extension: on peut régler un seuil au-delà duquel le dispositif n'agit plus. L'extension est utile lorsqu'on doit adapter des systèmes ayant des dynamiques différentes. * Filtrage (cf. Filtre) Altération du spectre d'un signal sonore. * Gain Le gain exprime en décibel (dB), l'amplification ou l'atténuation relative de l'amplitude, entre les tensions d'entrée et les tensions de sortie d'un quadripôle : G=20.log(A). * Hybridation Elle utilise différents paramètres extraits des signaux, pour modeler un son de synthèse.. * Interpolation Elle calcule une succession temporelle continue entre deux états d'un ou plusieurs paramètres. On réalise ainsi des anamorphose entre deux timbres, des interpolation de rythmes, de hauteurs ou de durées. L'extraction des trajets temporels fait l'objet aujourd'hui de recherche sur les chaînes de Markoff cachées (IRCAM: La conception assistée par ordinateur, 1993). * Limitation Elle impose en sortie un niveau maximal constant quand le niveau d'entrée dépasse une certaine valeur. La limitation est une compression à seuil, sans gain et avec un rapport de compression très grand. * Multiplication (cf. Modulateur) Elle fait apparaître des bandes latérales dans le spectre qui ont pour fréquence, la somme et la différence des fréquences d'origine. * Réduction de bruit (cf. Réducteur de bruit) Diminution du bruit d'un signal sonore. * Spatialisation Traitement des paramètres de la salle d'écoute et des paramètres perceptifs inclus dans le signal. On peut ainsi mettre en relief des sources instrumentales ou synthétiques placées dans une configuration de référence (salle de concert, studio ou plein air) et les projeter par le dispositif électroacoustique (casque ou ensemble de haut-parleurs). On distingue la localisation des évènements sonores, le déplacement des sources, les effets de salle artificielle, le choix du temps de réverbération et la définition des premières réflexions (EDT). * Transposition Déplacement du son sur l'échelle des fréquences (BF ou HF). Autrefois réalisée en variant la vitesse de défilement de la bande magnétique, elle s'effectue maintenant automatiquement sur l'harmoniseur ou sur les effets numériques. * Voltage Control (cf. -)
Tout système qui convertit une énergie en une autre. * Capteur électromagnétique (cf. Capteur) Il transforme l'énergie mécanique en une énergie électrique. * Haut-parleur (cf. -) Il transforme l'énergie électrique en une énergie acoustique. Microphone (cf. -) Il transforme l'énergie acoustique en une énergie électrique. * Système auditif Transducteur complexe avec trois dispositifs de conversion : ■ le tympan (énergie acoustique en énergie mécanique) ; ■ la fenêtre ovale (énergie mécanique musculaire en énergie mécanique fluide) ; ■ les cellules ciliées (énergie mécanique fluide en énergie électrique). L'impulsion électrique de type numérique, transmise le long de la fibre nerveuse fait l'objet de nombreuses théories. * Transducteur gestuel rétroactif (TGR) En transformant le geste en une énergie électrique, le transducteur gestuel rétroactif établit une communication par le toucher pour donner ou recevoir des informations. Développé à l'ACROE, il préfigure des interactions multi-sensoriels avec l'environnement physique.
Au début du XIXème s., le mathématicien J. Fourier découvrit qu'il était possible, sous certaines conditions, d'écrire une fonction arbitraire f(x) comme la somme de fonctions trigonométriques sinus et cosinus. La Transformée de Fourier permet de passer d'une fonction du temps à une fonction de fréquence. L'application de cette théorie au signal sonore a été découverte par Ohm (1843) et mise en oeuvre par Helmholtz (1863). Il s'en suit qu'une fonction temporelle de forme d'onde quelconque et de période T, peut être décomposée en une série de fonctions temporelles sinusoïdales dont les fréquences f (fréquence fondamentale), 2f, 3f, etc. sont les harmoniques. Pour chacune d'elles, on distingue une fréquence inversement proportionnelle à la valeur de la période, une amplitude et une phase. La Transformée de Fourier est à la base de l'analyse fréquentielle dans les études acoustiques. Elle transforme un signal temporel en un spectre de fréquences discontinu (signal périodique), continu (signal aléatoire) ou composite. En 1965, Cooley et Turkey publient l'algorithme de FFT (Fast Fourier Transform) qui calcule rapidement les coefficients. La FFT inversée, transforme le spectre désiré en tableau. On peut ainsi l'utiliser en synthèse additive, sur une plus large gamme de signaux.
Le transistor (ou résistance variable de transconductance) est le composant électronique actif fondamental utilisé pour interrompre, amplifier, stabiliser ou moduler un signal électrique. Ce dispositif semi-conducteur prend le contrôle de la tension électrique sur l'électrode d'entrée pour délivrer une tension sur l'une des deux électrodes de sortie. Dans un circuit analogique, le transistor est utilisé comme amplificateur de signal (audio, puissance ou fréquence radio) ; dans un circuit numérique, il fonctionne comme interrupteur de signal (mémoire RAM, microprocesseur).
Nombre de transistors dans les microprocesseurs Encyclopédie Wikipedia "L'invention du transistor a été déterminante pour former l'électronique et l'informatique actuelles". Transistor est aussi le nom commun donné aux récepteurs radio, équipés de transistors.
Structures microscopiques temporelles d'un son, les transitoires apparaissent très nettement lorsque l'on fait un sonagramme ou que l'on visualise un signal audio à l'oscilloscope. On en distingue au moins quatre : l'attaque (attack), la chute (decay), l'entretien (sustain) et l'extinction (release). Dans De natura sonorum (1974-75) en 2 parties et 10 mouvements, B. Parmegiani crée des objets composites dont l'attaque est concrète et la résonance électronique. Sur le même principe (Le rire du Gilles, 1981; Préfixes, 1991), M. Lévinas crée des paires d'instruments dissemblables (tuba/cor, cor/grosse caisse, grosse caisse/cloche). Il désarticule ensuite dans l'espace, l'attaque et la résonance, en intégrant des décalages temporels qui favorisent la perception des sons. * Attaque (Attack) Le transitoire d'attaque correspond à la durée d'établissement du son. C'est la marque de l'excitateur (archet, anche, lame d'air, pincement, percussion) qui établit la vibration et permet l'identification de la source. Il se caractérise par une durée relativement courte (de 1 à 200 ms), par l'ordre d'arrivée des composantes (les harmoniques d'ordre élevé ont par exemple un temps de montée plus long que les premiers harmoniques) et par sa composition spectrale (bruits, fréquence d'attaque, instabilité, etc.). Dans la classe des sons non entretenus, le transitoire d'attaque, très court, est suivi du transitoire d'extinction. Dans celle des sons entretenus, il introduit la partie stable et quasi-périodique. Aujourd'hui, les synthétiseurs numériques permettent le montage des échantillons d'attaques instrumentales avec ceux de la synthèse: ce qui rend aisé la réalisation d'interpolations entre les timbres. * Chute (Decay) Atténuation d'amplitude qui suit le transitoire d'attaque. * Entretien (Sustain) Il définit la partie stable et quasi-périodique des sons entretenus (instruments à vents, instruments à cordes). * Extinction (Release) Atténuation d'amplitude finale qui suit le transitoire d'entretien. Souvent marquée par les bruits d'étouffement, sa durée est relativement longue à cause des ondes réfléchies du lieu d'écoute (réverbération).
Transfert d'une information (donnée, texte, son ou image) d'un point géographique à un autre point distant, la transmission des signaux s'effectue soit par les câbles de liaison (ligne téléphonique, fibre optique), soit par les ondes électromagnétiques (micro-ondes radio, faisceaux hertziens). A. Schoenberg, (Emmanuel Nunes, "Temps et spatialité", 1994) "On pourrait songer à disposer les voix derrière la scène, de façon qu'elles soient isolées acoustiquement entre elles, chacune étant reliée par téléphone à un système de haut-parleurs disposés dans la salle, de telle sorte qu'elles ne se réunissent que là".
Les différentes technologies de transmission filaire
Les différentes technologies de transmission sans-fil (ou hertzienne) * Câble de liaison Fil électrique, reliant deux ou plusieurs équipements électroniques, le câble de liaison est un milieu de propagation symétrique ou asymétrique. Symétrique, il se compose de deux conducteurs, repérés par deux couleurs, entourés d'une tresse de blindage. La liaison permet d'utiliser de grandes longueurs de câble tout en éliminant les bruits de fond et les parasites secteur. Asymétrique, il comporte un fil actif et une tresse de masse. La résistance d'un câble n'a qu'un effet atténuatif faible et linéaire en fréquence sur les signaux microphoniques. On en néglige l'importance pour des liaisons de courte longueur. * Canal de transmission Support de propagation des signaux, le canal de transmission (câble, onde radio, liaison satellite ou fibre optique) est défini par ses paramètres audiofréquences : bande passante, débit, taux de distorsion, rapport signal/bruit. Sa bande passante doit toujours être plus large que le spectre du signal à transmettre. Les défauts introduits sont linéaires (fonction de transfert du filtre) ou non-linéaires. Prendre aujourd'hui en compte les propriétés psycho-acoustiques de l'oreille est l'objectif de la norme Musicam qui sera un progrès important pour les télécommunications. Car le problème central reste la transmission d'une sensation subjective d'espace, indépendante de l'espace physique dans lequel se situent les moyens de reproduction de l'audiospectateur. * Message parallèle Ce sont des bits en parallèles traités simultanément par le système numérique. Le débit binaire sur une voie correspond donc à la fréquence d'échantillonnage : D=[F(éch.)] bits/seconde. En système binaire, ce sont toujours des multiples de 2 : 1 Kbit=1 024 bits; 1 Mbit=1 048 x 106 bits ; 1 Gbit=1 074 x 109 bits. Un signal numérique (son, image, etc.) sans enregistrement sur un support mécanique et sans transmission utilise une représentation électrique NRZ pour tous ces bits. * Message série C'est une succession de n bits caractéristiques par exemple de chaque échantillon, qui sont traités sur une seule voie par le système numérique. Le débit binaire est égal à n fois la valeur de la fréquence d'échantillonnage : D=[n x F(éch)] bits/s. Pour être enregistré sur un support mécanique (bande magnétique en stéréophonie ou multipiste, disque audionumérique) ou pour être transmis (radiodiffusion directe, satellite, liaison interstudio), le signal numérique (son, image, etc.) est décomposé en une suite de message. Les représentations électriques sont multiples (NRZ ou PE). * Modem Equipement utilisé pour transmettre les informations numériques sur la ligne téléphonique (modulation à l'émission, démodulation à la réception). Son débit peut atteindre plusieurs Mbit/s (ADSL, VDSL). * Multiplexage Très utilisées en radiodiffusion, les techniques de multiplexage ont pour but de transformer un ensemble de signaux de même nature en un seul signal de même dimension. On distingue : ■ le multiplexage temporel : les signaux sont comprimés dans le temps, puis transmis par paquets les uns à la suite des autres (Transpac, D2MAC/paquet) ; ■ le multiplexage fréquentiel : on opère une translation fréquentielle différente pour chaque modulation, puis on additionne les signaux modulés.
|