"Vocabulaire des Nouvelles Technologies Musicales" Editions Minerve (1994) - Mise à jour (2013) |
||||
L |
||||
Canal de transmission des informations numériques, la liaison définit la forme et le débit des messages. La circulation des signaux de commandes peut s'effectuer sous deux formes: "parallèle" ou "série" (AES/EBU, MIDI, MADI, SPDIF). * Liaison parallèle Elle traite plusieurs voies simultanément. Sur une seule voie, le débit binaire correspond donc à la fréquence d'échantillonnage: D=[F(éch.)] bits/s. En binaire, les multiples sont toujours des multiples de 2: 1 Kbit=1 024 bits; 1 Mbit=1 048 x 106 bits; 1 Gbit=1 074 x 109 bits. L'impression utilise cette liaison. * Liaison série Elle traite sur une seule voie, les bits successifs des différents échantillons. Le débit binaire est donc égal à plusieurs fois la valeur de la fréquence d'échantillonnage: D= [n.F(éch)] bits/s. On utilise généralement une liaison série lorsqu'on enregistre un signal numérique sur bande magnétique (stéréophonie, multipiste) ou sur disque audionumérique, et lorsqu'on transmet celui-ci par radiodiffusion directe ou par satellite. Les représentations électriques sont multiples (NRZ ou PE). Trois standards de liaison série existent actuellement, qui reposent sur le principe du multiplexage : ■ AES/EBU: il transporte sur un câble symétrique des signaux stéréophoniques échantillonnés à 32 kHz, 44,1 kHz ou 48 kHz (multiplexage de mots de 24 bits) ; ■ MADI: il contient 56 canaux multiplexés. Chaque canal transmet sur un câble coaxial (ou fibre optique) des sons échantillonnés à 32 kHz, 44,1 kHz ou 48 kHz (mots de 24 bits) ; ■ SPDIF: proche de l'AES/EBU, il est adapté aux équipements grand public. Il transporte sur un câble asymétrique des signaux stéréophoniques échantillonnés à 32 kHz, 44,1 kHz ou 48 kHz.
Avant même de reconnaître la nature exacte d'un son, l'oreille localise la source en évaluant la direction et la distance (SEL) de celle-ci. J. Blauert (1974) a montré qu'il existe une relation claire entre la bande de fréquence et la direction de l'évènement sonore. Il est vrai qu'on localise mieux des sons de spectre étendu qui présentent des attaques marquées et des fréquences élevées. Plus le son est distant, plus il doit être familier à l'auditeur pour être reconnu. Les variations de timbre sur des entités connus sont des indications fidèles du degré d'éloignement et permettent des discriminations quantitatives alors qu'un son nouveau et inédit est souvent localisé très près de la tête (HEL: facteur psychologique). Von Bekesy a montré en 1930 que la localisation angulaire est définie à la fois par la différence du temps d'arrivée et par la différence d'intensité des signaux qui parviennent à l'oreille. On sait aujourd'hui que la perception spatiale des basses fréquences (jusqu'à 1500 Hz) est essentiellement due à la perception de la différence du temps (ITD), tandis que celle des fréquences élevées est due à la différence d'intensité (ILD). L'atténuation sonore correspond à une perte de 6 dB lorsqu'on double la distance. Avec une oreille, le pavillon joue un rôle essentiel en créant des retards par réflexions sur les lobes. Avec deux oreilles, le système auditif est sensible à la différence des pressions: la précision de la localisation dépend essentiellement du pouvoir séparateur déterminé par l'angle audible minimum. En poussant à l'extrême les expériences de J. Cage et M. Feldman, A. Lucier met l'accent sur l'expression physique du son en s'inspirant des systèmes de communication des animaux. En 1967, il écrit Vespers pour orientation acoustique par écholocation. * Azimut L'explication du repérage azimutal valide la théorie de la différence de phase (sensible aux fréquences graves) et celle de la différence d'intensité (sensible aux fréquences aiguës). Entre 800 et 15OO Hz, ces deux facteurs s'appliquent. L'azimut est repéré avec une plus ou moins grande précision selon la densité spectrale de la source, la présence de transitoires, le rapport des énergies (onde directe/onde réverbérée) et la valeur du temps de délai initial. La différence du temps d'arrivée a aussi une grande influence. * Latéralisation Localisation artificielle, la latéralisation se produit lors d'une écoute au casque ou après inversion de polarité du câblage des haut-parleurs.
Ensemble cohérent de programmes informatiques, un logiciel offre de nombreuses fonctions intégrées destinées à une tâche précise: l'édition (son, graphique, vidéo, etc.), la gestion (base de données) ou le traitement des données (affichage, diffusion, stockage, navigation, transmission, impression, etc.). Dans le domaine du son, on trouve entre autres, des logiciels d'édition (partitions, sons, contrôles MIDI, instruments, etc.), des logiciels de synthèse et d'analyse des sons, des logiciels de diffusion spatiale et de nombreux utilitaires (voir Outils > Editeur de son). * Algorithme Suite d'opérations mathématiques destiné à traiter un problème particulier, l'algorithme est déterministe (pas de probabilité d'erreur) ou probabiliste (solutions aléatoires). Le nombre d'opérations traitées par seconde s'élevait à un millier dans les années 70, un million dans les années 70, pour atteindre le milliard et plusieurs milliards passés les années 2000. Pour analyser, traiter ou synthétiser le signal sonore, on dispose des algorithmes de FFT (transformée de Fourier), du GRM tools (traitement en temps réel), de Karplus-Strong (table d'onde), de LPC (codage prédictif linéaire) et de Terhardt (hiérarchie perceptuelle). * Base de données Ensemble des tables contenant les informations relatives aux documents (texte, image ou son), enregistrés sur un support numérique (disque numérique, serveur). La fonction d'un gestionnaire de base de données est d'offrir un archivage rapide et une consultation conviviale sur une grande quantité d'informations. Mentionnons brièvement : ■ l'hypertexte : lien conceptuel défini en 1960 par T. Nelson, pour associer deux entités sémantiques différentes (texte / page, bouton / texte, adresse / site) ; ■ l'hypermédia : il élargit l'entité sémantique textuel, à l'image, au graphisme, au son et à la vidéo. * Compilateur Logiciel de supervision qui exécute automatiquement en langage machine les codes rédigés du langage de programmation. * Didacticiel Programme de formation utilisant l'ordinateur comme support. * Génie logiciel (Software Engineering ) Ensemble des outils et des procédures propres à l'élaboration d'un logiciel : spécifications, programmation, suivi de production, tests et mis au point, qualification, recette, maintenance et documentation. * Intelligence artificielle (IA) Logiciel faisant intervenir des bases de connaissances sur les mécanismes de contrôle et d'automatisation mis en oeuvre (base de règles, grammaires, ingénierie de la connaissance). * Interface graphique C'est l'interface utilisateur avec l'unité centrale de l'ordinateur : il affiche les données dans des fenêtres où l'on peut sélectionner et éditer les informations à partir des menus et des barres de navigation. * Langage de programmation Instructions logiques (ou codes) régies par une syntaxe qui permet l'écriture des programmes ou des scripts informatiques exécutés par l'ordinateur. Les principaux langages utilisés sont : Visual Basic, Java, J2EE, C++ et PHP5. Un langage "objet" gère des entités dynamiques (texte, image, son) à partir de classes organisées hiérarchiquement. * Langage formel Souvent lié à une technique particulière (architecture, design, vidéo, etc.), le langage formel permet une interprétation des informations traitées : dans le monde musical, il permet de donner une interprétation aux signaux sonores générés. Historiquement, on peut citer les principaux : ■ le système MUSIC V (Mathews, 1969) et ses descendants : modélisation de l'instrument par des unités génératrices ; ■ le système CHANT (Rodet, 1985) : modélisation de l'excitation et de la résonance des sons vocaux et instrumentaux ; ■ le système MIDIM (Kaegi, 1986) : interprétation acoustique des sons de synthèse VOSIM. Les paramètres musicaux définis dans le Descripteur caractérisent le domaine de jeux des entités sonores définis dans le Prédicateur ; ■ le système MAX (Puckette, 1992) : génération et contrôle en temps réel des signaux de la SIM (Station Informatique Musicale). L'environnement interactif peut déclencher des séquences, transformer des sons émis par les instrumentistes ou piloter des jeux de lumière. Aujourd'hui les outils proposés permettent d'interagir aussi bien avec les paramètres de la partition qu'avec toutes les fonctions de traitement du signal au sein d'un même environnement. * Programme Ensemble d'instructions logiques (ou codes) qui utilise la sémantique et la syntaxe d'un langage de programmation. * Système d'exploitation Son rôle est de faire fonctionner l'ordinateur (assistant personnel, micro-ordinateur, mobile, portable, serveur, tablette) et de gérer ses ressources matérielles (cartes, mémoires, organes de communication, périphériques, processeurs) et logicielles (langages, applications). Les machines actuelles disposent aujourd'hui de systèmes d'exploitation adaptés à leur utilisation : Windows XP, Windows 7 et 8, Windows Mobile, Windows Server, Linux, Mac OS, Androïd, etc.
|