Composer la musique de l'espace

faire valdinguer l'audible dans tous les sens
pour contrarier la dictature dans le vertige

Utopie contrariée ?

SPATIAL MUSIC

la musique (l'humanité) libérée dans l'espace

de la musique

Début

Faire danser, voltiger, tournoyer, traverser, rebondir, ramper, flotter, nager, tomber, jaillir, etc., la musique dans l'espace est un désir de compositeur qui c'est manifesté principalement dans la seconde moitié du XXe siècle, même si quelques ébauches éparses peuvent se trouver dans l'histoire de la musique. C'est le haut-parleur qui a fait prendre conscience que la musique pouvait être diffusée par plusieurs sources et que la source sonore puisse se déplacer dans cet espace dont les coordonnées multidimensionnelles sont créées suivant le nombre de haut-parleurs. Le haut-parleur a initié la séparation entre la source sonore et son émission par une distance spatiale [1] (et l'enregistrement par une distance temporelle). Le haut-parleur fut inventé à la fin du XIXe siècle par l'Écossais Graham Bell pour son téléphone et par Edison et Charles Cros pour leur phonographe. Le haut-parleur électrodynamique de Rice et Kellogg [2] que nous connaissons aujourd'hui était prêt en 1925, mais c'est à partir des années 70 que la technologie des haut-parleurs a fait un bon dans la « haute fidélité : HiFi (High Fidelity) » et dont les amateurs audiophiles ont encouragé le développement. De la monophonie 0D à la stéréophonie 1D à la quadriphonie (tétraphonie) 2D à l'octophonie 3D toujours balbutiante.

...

Notes
[1] La guitare électrique « solid body » (qui n'émet que le son ténu de sa planche) est le premier instrument de musique adopté à expérimenter cette distance entre la source émettrice des cordes jouées et les sons émis : le haut-parleur à côté où la distance entre l'instrument et l'émission de ses sons dépend de la longueur du câble qui relie la guitare électrique à son ampli 3 corps, 2 corps ou combo.
[2] Jean Hiraga : Les haut-parleurs, 1980 Ed. Dunod - 2000

 

 

Base

Le mouvement continu d'une sensation sonore qui se déplace dans l'espace 1, 2 ou 3D n'est possible que si sa source sonore se déplace. Logique, mais pas évident dans le contexte des haut-parleurs fixes. La source sonore pour la musique c'est le musicien. Mais comme nous ne sommes pas des oiseaux et qu'il n'est pas aisé de faire voltiger un musicien qui joue de son instrument (même en dehors des règles draconiennes de sécurité) et encore moins de traverser le corps d'un auditeur (les objets qui voltigent se rapportent plus à la guerre qu'à n'importe quelle autre activité), les mouvements des sensations sonores dans l'espace avec un orchestre dans une salle de concert resteront discontinus par la position fixe des musiciens et des haut-parleurs. Le déplacement d'un orchestre dans une parade qui est la fonction de la fanfare donne un autre type de mouvement spatial qui ne réalise pas des trajectoires comme nous l'entendons, mais un déplacement global de l'orchestre dans l'espace de la rue [1] ou sur les routes en dehors de la cité.

...

Notes
[1] notons qu'Urban Sax (orchestre de saxophones dirigé par Gilbert Artman dans les années 70 et 80) a expérimenté la délocalisation de l'orchestre. Chaque saxophoniste de l'orchestre partait d'un point périphérique de Paris par le métro en jouant et rejoignait en jouant à un point de rendez-vous le rassemblement entier de l'orchestre (communication orale).

 

 

Paranthèse

L'utopie de la musique spatiale ?

Quand Karlheinz Stockhausen avançait (après avoir monopolisé la Sphère du palais allemand à l'Exposition Universelle d'Osaka) dans les années 70 que : « On peut dire qu'à l'avenir la musique deviendra spatiale. Je crois que le mouvement des sons dans l'espace sera aussi important que la mélodie, l'harmonie, le rythme, la dynamique, le timbre. », il ne s'attendait certainement pas à l'impasse des recherches et de la technologie, concernant la perception du son qui se déplace dans l'espace tridimensionnel. Le problème le plus insoluble est de comprendre la localisation d'un signal sonore dans un volume (sphère) d'un déplacement et d'une propagation tridimensionnelle : des recherches qui sont aujourd'hui abandonnées par manque de solutions. L'explication du déphasage du retard d'une oreille à l'autre pour expliquer la localisation du son dans l'espace, ne tient pas ou est insuffisante : elle n'explique pas la localisation de l'élévation. La localisation binaurale (de la localisation tridimensionnelle à travers 2 enceintes pour 2 oreilles) est aussi un fiasco. Toutes les spatialisations jusqu'à aujourd'hui sont des simulations grossières de ce que l'imaginaire aura pu nous s'enthousiasmer de percevoir des sons qui voltigent dans l'espace, et de pouvoir produire une écriture polyphonique multitrajectorielle dans l'espace. Aujourd'hui la majorité des projets technologiques sont abandonnés (GMEM, GRAME, IRCAM, etc.), ainsi que les recherches sur la localisation du son, où plus rien n'est communiqué (je pense aux recherches de Masakazu Konishi de l'ITC). Les recherches de la localisation des sons dans l'espace concerne plus aujourd'hui la robotique : l'audition des robots pour le génie militaire et non plus la simulation des sons en mouvement dans l'espace tridimensionnel pour la création artistique.

La localisation du son dans l'espace se base sur une illusion, elle confirme notre postulat que le son ne s'entend pas comme on l'entend. Le son n'est pas un objet, mais l'effet d'une interprétation du vibratoire. Comme pour la localisation dans l'espace stéréo à une dimension entre la gauche et la droite, on utilise une balance de volume qui donne l'impression ou l'illusion que le son est localisé sur la droite ou sur la gauche, nommé abusivement panoramique, alors que ce n'est qu'un jeu de volume sur chaque enceinte. Pour donner l'illusion de la profondeur (de champ) on applique une réverbération au son et le dosage entre le son direct et sa réflexion donne l'illusion de sa présence : de sa proximité ou de son éloignement. En fait, les contours distinguables sont effacés dans un bruit coloré et résonnant (un temps d'amortissement plus ou moins long) qui fait référence aux acoustiques architecturales expérimentées. Le son dans la nature (de ce qu'on perçoit de la nature) ne se déplace pas par un dosage de volume entre deux haut-parleurs. Mais pour rendre l'illusion plus efficace, d'autres paramètres se sont alliés au dosage de volume. Rappelons que le dosage de volume de chaque haut-parleur s'effectue grâce à une matrice d'amplitudes contrôlées en tension VCA (Voltage Control Amplitude) dont le dessin de l'enveloppe donne la fluidité de « passage » (ou pas) d'un haut-parleur à l'autre. Les autres paramètres sollicités pour cette aventure sont : la phase entre deux sons similaires (cité supra, un léger délai entre de son A et son clone A' qui sans dosage d'amplitude entre le haut-parleur A et B donne l'illusion du son qui se positionne entre l'un et l'autre, la phase entre deux sons donne l'effet de phasing bien identifiable pour sa particularité), phase que l'on peut obtenir aussi par une micro-variation de la hauteur (phase shifting ou effet flanger) à ne pas confondre avec l'effet Doppler qui est une variation de la sensation de hauteur d'un son venant vers nous puis s'éloignant (l'exemple de la voiture qui s'approche puis s'éloigne est parlant). L'utilisation du Doppler renforce l'illusion du déplacement du son dans l'espace. Ce qui est appliqué est l'effet que nous identifions pour un déplacement d'un phénomène sonorisé. Le dernier paramètre pour renforcer l'illusion du déplacement du son dans l'espace est la polarité (selon Anadi Martel*). La polarité est le signal résultant dû à une opposition de phase (principalement dans un branchement) ou à une divergence nord-sud qui maintient l'impression de verticalité (situation qui se retrouve dans notre organisation planétaire : prendre de la hauteur pour rejoindre le ciel des dieux).

 

L'élévation de la gravité terrestre par les politiques du pire (l'ignorance) ou le dysfonctionnement de la machinerie céleste.

 

Note
* Anadi Martel est le concepteur du spatial processor SP1 (ou SP100) et SP200 dont la commercialisation a été arrêtée dans les années 2000.

...

 

Désillusion

De la spatialisation du son dans l'espace dont je rêvais il y a plus d'une trentaine d'années : la capaciter de percevoir l'instabilité permanante de l'espace-temps, il ne reste plus grand-chose aujourd'hui. La technologie promise à l'époque des années 80 (avec l'informatique) ouvrait des perspectives compositionnelles jamais utilisées par la musique ou impossibles à utiliser avant : la composition musicale spatiale multidimensionnelle de trajectoires audibles. Un musicien ne pouvant voler dans l'air ou la terre (sous les pieds) en jouant. L'extension « électroacoustique » de la « sonorisation » allait réaliser les déplacements des sons dans toutes les directions de l'espace.

Mais cette technologie ne s'est pas réalisée. Le dossier est refermé. 40 années plus tard, nous n'avons pas dépassé le contrôle de « panoramique » pour faire illusion de la sensation d'un son qui se déplace. La raison réside dans le contexte de la nécessité dictée : les recherches et les découvertes à accomplir demandent de gros moyens d'ouverture d'esprit qui ne sont pas rentables à l'économie libérale pour le contrôle des populations et demande des compétences absentes. L'état actuel de la recherche dans la localisation du son dans l'espace reste rudimentaire et est plus ou moins abandonnée, car elle est suffisante à la détection sonore des robots-guerriers par le sonar. De la musique à la guerre...

Le compositeur, pour composer avec l'espace multidirectionnel de la multidimension ne lui reste que le « bricolage » avec des outils qui ne sont pas destinés ni appropriés ni adaptés à la composition musicale de trajectoires multidimensionnelles. Tous les programmes de diffusion acoustique n'impliquent pas les mouvements des sons individuels dans l'espace en volume (ou réelle 3D). Dans les espaces de concert, les outils technologiques sont conçus pour une diffusion frontale soumise à la vision. Et comme nous n'avons pas d'yeux au-dessus, en dessous et derrière la tête, ces dimensions restent secondaires et inutiles ou accessoires dans le contentement de la vision fixée. L'entente est soumise à la vision.

Je pense à mon projet musical « Unisolable & Unduplicable, the recipe of freedom » de 2006 où le prétexte à la musique était le déplacement de parois sonores molles (2D) constitué d'une centaine de sons localisant les mouvements d'un voile sonore en déplacement dans l'espace 3D telle une méduse, ou tel un engin franchissant le mur du son, etc. Les parois molles étaient au nombre de 6 (pour commencer) une par mur dans le contexte d'un cube : une architecture sonique. Les auditeurs sont dans le volume avec les musiciens. Certaines zones du volume traversées changeaient les sons impliqués (la sonorité de leur identité change au passage) : principalement par filtrage, par retard (du déphasage à l'écho) et par altération des fréquences (spectrales et tonales). Un tel projet musical, encore aujourd'hui en 2013, est toujours impossible à réaliser. Et les instituts de recherche comme l'IRCAM à Paris, le MIT à Boston ou le SARC à Belfast bien qu'ils le prétendent, ne sont pas équipés pour approfondir et réaliser un tel travail musical.

« Unisolable & Unduplicable, the recipe of freedom » : voir le projet musical en anglais : pdf 768Ko

40 ans après les expériences de Karlheinz Stockhausen (mort en 2007), rien de convaincant n'a été produit, seules quelques machines isolées comme celle du Québéquois Anadi Martel (SP1, SP100, SP200 même machine avec aspect et noms différents) qui a la particularité d'avoir inclus une partie de l'algorithme de Gerzon (uniquement dans la quadriphonie) basé sur le déphasage spatial jusqu'à la polarité d'écoute de phases, permet une meilleure localisation du son en mouvement sans être obligatoirement placé au milieu des haut-parleurs. Toutes les autres tentatives de spatialisateurs comme le Sigma 1 d'ABP Tools en Allemagne ou l'AudioBox de Charlie Richmond à Vancouver sont basées sur le modèle de la matrice de VCA (amplitude contrôlée par voltage) qui permet l'automation matricielle du volume du son pour chaque haut-parleur. Dans une matrice avec 8 entrées et 8 sorties, il y a généralement 64 VCA en commande. La forme de ses 64 enveloppes permet l'illusion d'un déplacement audio uniquement d'un haut-parleur à l'autre et qui est nommé : « panoramique surround » (surround pour la 2D, l'encerclement est bidimensionnel).

Depuis les années 80, je bricole avec ce que je peux et souvent je m'étonne du résultat : d'Ourdission en 1982, la guitare couchée d'Il m'est impossible... en 84 en une spatialisation spectrale, jusqu'à Try To Catch Me, Charles en 2012. Voir aussi entre autres ma découverte des « spatial tones » en 1995 avec la création de Shadow-Sky-Teub-System rapporté dans une discussion avec Charlie Richmond et Richard Dobson (crateur du CDP Multi-Channel Toolkit) entre autres, en 1998. Les « tons spatiaux » consistent à : délocaliser les impulsions audibles d'une fréquence d'un son dans l'espace ou à disperser un son similaire impulsif, son éclatement et sa vitesse trop rapide pour être localisable (au-delà de 16 pulsations par seconde) crée un « ton spatial » qui s'empare de l'espace entier et donne la sensation d'une vibration de l'espace même; cette expérience dépend du contexte architectural, des impulsions utilisées et des équipements disponibles (sonorisation) avec la topophonie des haut-parleurs (nombre et disposition pour son architecture vibratoire). Cette découverte a été rendue possible grâce à la technologie de l'échantillonneur (sampler) et du séquenceur MIDI qui ensemble peuvent atteindre des vitesses de lecture qui rejoint le son continu (entretenu) sans percevoir de discontinuité (comme l'image mobile cinéma). Mais à l'époque (95), l'excès de vitesse a fait planter l'ordinateur Atari pendant la performance, mais a donné une musique spatiale aléatoire ingouvernable et inattendue : quel dommage que le concert n'a pas été enregistré ! il n'y avait plus de place sur la console 32x8 (ni d'équipement de prise multicanal dans la salle : le multipiste). Le travail des vitesses au-delà du possible perçu révélait les limites du sampler et créait d'autres sons qui ne venaient pas de l'échantillon (Roland). Aujourd'hui, les processeurs étant plus rapide et les samplers étant devenu des programmes qui dépendent des processeurs, les excès de vitesse ne sont plus des excès, mais dépendent de la limite « séquentielle » du séquenceur : sa résolution par pulsation (360 (?) à l'époque et au-delà de 960 voire sans limite aujourd'hui) et de la limite du programme avec le tempo (300 bpm maximum pour Cubase) et la quantification (jusqu'à la quadruple croche, même la quintuple 1/128) qui offre un intervalle de 6,25 millisecondes ou une fréquence de 160 Hz (pour une quintuple-croche à 300bpm : entre le ré# 1 et le mi 1 (D#2 & E2) le do 3 médian est à 261 Hz). Avec un triolet de quadruple-croche à 300 bpm nous arrivons à 405Hz et 1215Hz avec un triolet de quintuple-croche. Il y a donc de la marge pour créer des « tons spatiaux » et composer avec.

Le mouvement des vibrations audibles dans l'espace est de la géométrie dynamique et topophonique turbulente (les vibrations des espaces des cordes reliant dans la turbulence la « mécanique quantique » de l'infiniment petit à la « relativité générale » de l'infiniment grand) c'est l'art polyphonique des trajectoires audibles qui permettent de percevoir différemment l'environnement. Sachant que la trajectoire géométrique d'un son est un leurre dans nos systèmes de diffusion actuels. La différence entre nos artifices sonores et la réalité vibratoire dans l'espace est ...

28 stéréos dans une octophonie 3D

Les recherches de Michael Gerzon après Alan Blumlein semblent prometteuses, mais ne permettent pas encore leurs utilisations pratiques (aucune relève ne semble se confirmer) dans la composition de trajectoires audibles pour les compositeurs. Son système nommé Ambisonic (comme ambitious = ambitieux ou ambitus ?) n'offre pas encore d'instrument de musique compositionnel. Les quelques machines produites pendant ces décennies restent inabordables par leur coût trop élevé pour un compositeur indépendant et se destinent à l'ingénieurerie audio des salles de spectacle, mais pas pour le musicien. Les cinémas omnimax étaient les principaux acquéreurs de ces « spatialisateurs » qui restent partiellement utilisés par l'ingénieur éduqué à la stéréophonie (1D). Dans un mixage audio de multiples trajectoires en 3 dimensions, l'ingénieur est vite débordé et devient incompétent. Si la stéréo reste tenace dans la diffusion de la musique, c'est en partie à cause de l'incompétence de l'ingénieur du son : il faut savoir que dans une octophonie (une diffusion tridimensionnelle sur 8 haut-parleurs disposés en cube) il y a 28 stéréophonies (40 320 trajectoires). 15 stéréos (720 trajectoires) dans une hexaphonie (6 haut-parleurs disposés comme on veut) et 6 stéréos (24 trajectoires) dans une quadriphonie (4 haut-parleurs en carré ou tétraèdre). Les difficultés sont multipliées au prorata des dimensions supplémentaires : dans un studio d'enregistrement, il faut multiplier par 28 les équipements stéréos pour un travail octophique réel (3D audio). Dans l'état actuel des choses, les filtres, compresseurs, réverbérations (délais), etc. ne sont pas conçus pour la multidiffusion (pas au nombre de piste, mais dans le concept - comme la gestion matricielle de 28 stéréos). La console de mixage n'est pas encore une matrice intelligente ou dans le cas de tentative (Yamaha) ne propose pas une configuration libre, mais des « presets » : des programmations toutes faites (patchs) qui ne permettent pas son évolution dans un contexte créatif donné d'une composition originale. Le « preset » ferme le dispositif (et devient vite obsolète, car il ne retient que le statut d'effet) au lieu de l'ouvrir à la création musicale.

70 quadriphonies dans une octophonie

En 2013, il n'existe pas encore d'équipement conçu dans ce sens : la composition multiphonique de trajectoires 3D. Malgré un grand nombre de tentatives (en France des groupes institués comme le GMEM de Marseille avec un patch Max/MSP, ou le Grame à Lyon et RSF à Toulouse pour le GMEA dans un projet jamais abouti, etc.) ou des tentatives conçues comme des effets additionnels au son enregistré mono ou stéréo (je pense à l'effet Doppler (en plug-ins) ou à des machines comme l'Orfeusz de WAF conçu comme un effet surround (6 canaux, mais pas 8) de mouvements trop rapidement identifiables). Pour opérer un travail multisonique en 3D, il n'y a pas d'autres choix que de détourner les machines existantes. Le concept « surround » conçu pour le cinéma, pas pour la musique, qui utilise 6 haut-parleurs (pour une quadriphonie étendue de la parole mono en face et du caisson des sons graves - effet "tremblement de terre" - le film) voir plus pour une diffusion en 2D ou 1D élargie : devant gauche-droite élargie à la profondeur (simulé par le dosage du son direct et réverbéré) et aux côtés (pas vraiment derrière). Un peu d'acrobatie, de connaissance, de calcul et de patience suffisent à détourner ces outils uniformisés pour une création multidimensionnelle dont certains mouvements sont impossibles à réaliser comme mes parois molles 2D qui se déplacent dans un espace 3D de « Unisolable & Unduplicable, the recipe of freedom ».

La musique spatiale

Spatialiser ? Pourquoi la spatialisation, pourquoi la musique spatialisée ? Qu'est-ce que ça apporte de plus à la musique (à l'auditoire) dans notre contexte médiocratique (1973 - 2013) ? Sachant que la complexité (la difficulté de compréhension) s'élève au prorata du nombre de pistes utilisées ainsi que du coût multiplié des équipements audio nécessaires à la prise et la diffusion de la musique. Et surtout, que les salles de concert ne sont toujours pas adaptées à ce type de musique, bien que les compositeurs de la seconde moitié du XXe siècle principalement Iannis Xenakis et Karlheinz Stockhausen par leurs oeuvres sollicitaient un espace d'écoute tridimensionnel. Et non frontal comme il est encore construit aujourd'hui pour le concert par les architectes à la demande des politiques qui ne tiennent pas compte de l'avis des compositeurs et musiciens. Le politicien, on le sait, méprise l'artiste.

Notre sens de la localisation audio est conditionné par notre vision frontale (radio, télévision, concerts, cinéma, discours, musique enregistrée, spectacle, téléphone, vidéophone, scène frontale, etc.) et notre conditionnement à la perspective. On entend avec les yeux. Peu de personnes savent localiser une source sonore sans la visualiser. L'expérience de Murray Shaffer qui consiste à ce que l'auditoire ferme les yeux et suit du doigt le sifflement de Murray qui court autour, au signal d'ouvrir les yeux les doigts sont pointés dans toutes les directions. Le handicap du public doit-il contrarier les avancées de la composition musicale pour s'en tenir à l'écoute frontale ? C'est ce que l'on constate aujourd'hui (1979-2013) : les nouvelles architectures des salles de concert sont destinées exclusivement à la « musique symphonique romantique tonale » et à la « chanson amplifiée tonale » stéréo à une dimension. Oui, depuis plus d'un siècle nous cultivons un état de régression spatiale.

Désire-je argumenter le pourquoi d'une musique spatiale ? Depuis mes premières musiques : de la musique qui valdingue de différentes trajectoires dans l'espace 3D, pour moi c'est jouissif : j'adore, c'est une expérience unique que je souhaite à tous et renouveler à chaque fois les conditions, différemment. La première expérience d'Ourdission pour flûtes écrit en 1982, jamais rejouée AVEC LE DISPOSITIF SPATIAL depuis l'expérience de Londres en 1983 (Mathius Shadow-Sky à 22 ans, ndlr)
Shadow-Sky spatial music with Ourdission in London 1983 performed by Desorgher and Casserley m'a impressionné au point de devenir accroc ! Un bain de sons en mouvements spirales qu'une vingtaine d'Anglais dont Horatio Radulescu, Rolf Gehlhaar et moi-même avons pu vivre (Rolf n'avait pas aimé : il n'aime pas l'agitation). L'idée de base de ma spatialisation est la turbulence. Dans la composition de la musique rien n'est stable, tout se dérobe à la captivité : un état difficile a réaliser avec notre conditionnement actuel d'être humain propriétaire (où tout s'enferme, même le savoir). La spatialisation des sons en trajectoires multiples repose sur la capacité de vivre dans l'instabilité du vertige sans s'évanouir, mais au contraire d'en jouir.

Karlheinz Stockhausen (31 ans avec Kontakte) et Iannis Xenakis (à 36 ans en 1958 avec le pavillon Philips) sont les premiers compositeurs à avoir exploré cette direction dans l'espace de manière systématique. Jusqu'à intégrer le « paramètre » de l'espace (position, direction, vitesse) dans leurs compositions orchestrales et électroniques.
Chantier du Pavillon Philips en été 1957 Depuis l'expérience de la musique mobile dans l'espace de la sphère d'Osaka (le pavillon allemand de « l'exposition universelle ») en 40 ans, l'évolution de l'outil compositionel pour l'espace est quasi nulle. Il y a eu un passage dans le « binaural » : un espoir de localisation du son tridimensionnel dans l'espace de l'économie unidimensionnelle de 2 écouteurs (1 par oreille), mais inutile à la musique. Aujourd'hui, le 5.1 à 2 dimensions est admis pour le home cinéma (pour consommer du DVD) et il existe quelques outils audio (enregistrement et montage multipiste numérique et plug-ins (effets numériques) : entrées et sorties audio supérieures à 2). Aussi pas très utile à l'expérience spatiale de la musique. Boulez, le maître absolu de la musique savante française considère l'espace comme un supplément décoratif à la composition et l'école française de la « musique électroacoustique » diffuse de la stéréo dans un « orchestre de haut-parleurs » tous différents (pour l'orchestration par la sonorité des haut-parleurs, mais pas le travail dynamique des trajectoires). La culture de la trajectoire sonore n'est pas encore intégrée dans la musique, même après la première expérience de Stockhausen en 1959 avec sa table tournante sur laquelle il avait posé à une extrémité un haut-parleur et 4 micros autour qui enregistraient le mouvement circulaire du son diffusé et que l'on retrouve dans sa pièce Kontakte.
Karlheinz Stockhausen à 31 ans en pleine action de pose (la photo) pour faire tourner sa table pour faire tourner le son en 1959/1960 C'est à la suite des travaux de Stockhausen que je me suis engouffré dans la musique spatiale. Dans la culture de la trajectoire sonique. Depuis 1990, des outils numériques sont apparus non destinés à l'écriture dans l'espace, mais utilisables dans ce sens, au-delà des tables tournantes. Je pense au MIDI, aux enregistreurs audio multipistes éditables et autres moyens tels que les divers outils suivants que j'ai rencontrés et utilisés :

 

1. la spatialisation matricielle qui consiste à piloter un banc de VCA (voltage controlled amplifier) : MATRIX-SPACE-SYSTEM (sorte de panoramique 3D réalisé avec des enveloppes de synthétiseur)

2. la spatialisation par microphones omni/unidirectionnels où chaque micro est relié à un haut-parleur et le mouvement du musicien parmi ces micros crée les trajectoires de ses sons : MIC-SPACE-SYSTEM : voir mon Arbre-à-micros (14)

3. la spatialisation par effet Doppler : DOPPLER-SPACE-SYSTEM

4. la spatialisation par clonage des sons où chacun est fixe à un lieu, mais se trajectorise dans sa rythmisation : CLONE-SPACE-SYSTEM

5. la spatialisation par déphasage temporel (sur le modèle de Gerzon ou pas) et décalage fréquentiel de la sensation de hauteur : PHASE-SPACE-SYSTEM et PITCH-SPACE-SYSTEM

6. la spatialisation « en profondeur » par dosage du son direct avec sa réverbération qui donne l'impression de rapprochement et d'éloignement du son de l'auditeur : VERB-SPACE-SYSTEM (le flou sonique par réflexion)

7. la variation rythmique des espaces réverbérants pour un même son qui change de lieu acoustique progressivement ou violemment (subito) : SPACE-CHANGE-SYSTEM

8. la spatialisation sans électricité par un complexe de tubes délocalisateurs sur des kilomètres : TUBE-SPACE-SYSTEM

9. la spatialisation par rebonds utilisant des bancs d'échos (delay) en localisation 3D : DELAYS-SPACE-SYSTEM

10. la spatialisation par consort : orchestre du même instrument éparpillé dans l'espace : CONSORT-SPACE-SYSTEM

développé au chapitre : Comment déplacer (simuler) un son dans l'espace ?

 

« Lien social » (sic) et Spatialisation

Spatialisation et politique (la turbulence de l'homme)

Depuis que la politique s'est emparée des arts (par la subvention), en dérobant la souveraineté des oeuvres aux artistes, la spatialisation de la musique est devenue un problème politique. Spatialiser la musique est en opposition avec la politique centralisante et hégémonique basée sur l'obéissance, car la spatialisation disperse, libère sa localisation (empêche l'arrestation). Pour être entendue, comprise et ouïe (obéie), la voix parlante de l'autorité dans les haut-parleurs ne peut pas être volante, fuyante; destinée à un peuple dispersé. Peuple-public avec dispersé est antinomique : c'est une contradiction : le peuple-public n'existe que dans l'union pour sa masse, sinon il devient hétérogène (et dans ce cas, ce n'est plus un peuple, mais des populations) et ingouvernable (par trop de différences). C'est dans ce sens que persistent les salles de spectacle à vue frontale (à l'italienne). On imagine mal une personne politique faire un discours spatialisé en trajectoire 3D : ça prêterait à rire. La parole communiquée reste en face des yeux. L'idéologie politique qui réside dans la spatialisation de la musique est l'abolition de la centralisation (en d'autres termes d'un pouvoir central et unique). On comprend mieux pourquoi les recherches et la construction des machines ont été abandonnées. Dans le 5.1, la spatialisation 2D du son cinéma encercle, les voix sont diffusées en monophonie sur le haut-parleur frontal (leur haut-parleur dédié). La stéréophonie c'est pour la musique. La quadriphonie pour les ambiances sonores et les effets sonores dont le sub (le haut-parleur grave, le .1) renforce les impressions (pour remuer l'émotivité du spectateur). Dans le 5.1, il n'est en aucun cas question de dispersion. La dispersion des troupes met fin à la guerre. Ce que tout politicien redoute, car cela mettrait fin à l'utilité de sa carrière.

 

XXIIe siècle => la fin absolue des libertés dans les sociétés humaines ?

 

XXIe siècle

La fin des spatialisateurs pour la musique

 

Lettre à Nicolas Holzem (concepteur des spatialisateurs Orfeusz dont la commercialisation a été arrêtée en 2007)

C'est une très triste nouvelle Nicolas,

La musique spatiale semble être une rareté que personne aujourd'hui ne souhaite. Et pourtant toute ma musique en est investie. La sensation de plusieurs sons qui se déplacent dans différentes trajectoires à différentes vitesses comme une danse, un ballet dans un espace tridimensionnel est tellement extraordinaire et excitant qu'à partir de ma première réalisation publique en 1982 avec Ourdission je ne me suis jamais arrêté à créer de la musique pour l'espace jusqu'à ma prochaine création les 21 et 22 décembre qui sera toujours et encore spatiale : 7 pianomorphes (7 pianos en métamorphose d'identité permanente et rythmique) artificiels valdinguant (valse dingue, où ding est le son de quelque chose qui sonne de manière absurde, bizarre et extravagante) dans l'espace octophonique d'un cube.

Durant ma trentaine d'années de création musicale, il ne m'a jamais été aisé de créer des trajectoires audio 3D et de pouvoir aisément les composer polyphoniquement. Les centres en France, comme le Grame, l'Ircam, ou le Gmea, etc., qui de près ou de loin s'intéressaient à la musique spatialisée ont abandonné l'idée de la spatialisation comme 5e paramètre musical au début du XXIe siècle. Les dernières réalisations comme la « wave synthesis » reste de la quadriphonie 2D, mais d'exploitation plus chère et plus lourde qu'une simple quadriphonie. Une kyrielle (seigneur prends pitié, kyrie eleison) de programmes ont été proposé, mais tous s'uniformisent sur le format « surround » qui reste toujours qu'une quadriphonie pour les effets spéciaux, pour le cinéma « grand public » : « wow ! l'hélicoptère me tourne autour ! » sic. L'élévation et la chute sont-elles des mouvements réservés à la censure ?

L'écoute non-frontale avec une sonorisation implique une idéologie particulière qui s'attache à l'anarchisme. L'exemple du discours d'un politicien sonorisé (le mot haut parleur est signifiant) et spatialisé en trajectoires 3D montre la contradiction entre vouloir diriger la foule des auditeurs (conditionnement et obéissance) et rendre la liberté de la foule qui redeviendrait un groupe d'individualités responsables. Si la musique spatiale n'accroche pas, c'est bien pour ça : est le résultat de sa censure. Elle représente une liberté qu'une politique dirigiste gouvernementale ne peut tolérer. La raison est que des populations libres n'ont pas besoin d'être gouvernées et donc n'ont pas besoin de gouvernement. La terreur des gouvernants réside dans la liberté des populations qui ferait disparaître leur occupation parasitaire. C'est dans ce sens qu'aucune salle de concert n'est appropriée pour la diffusion de la musique spatiale 3D : les salles de concert sont construites toujours dans la frontalité où le son provient de ce qui est vu en face et en mono (le monopole qui monopolise) sur la scène surélevée entre la cour et le jardin. C'est en ce sens aussi que mes créations musicales spatiales ne sont jamais invitées par les institutions (concernées ?) comme l'IRCAM à Paris ou le SARC à Belfast, etc. Certaines universités américaines comme celle de San Diego ou de New York ne sollicite que l'envoi de bandes multipistes pour réaliser leur festival à la façon du planétarium à moindres frais : une musique sans musicien vivant, juste une diffusion de ce qui se passe très très loin, là où il n'y a pas d'auditeurs.

Les spatialisateurs comme le SP1 et l'Orfeusz (en existe-t-il d'autres ?) sont conçus pour garder cette présence humaine du jeu vivant du musicien dans la musique. Le désir d'épanouissement de la musique est un échec. A la place, nous avons une production caricaturale de musiques genrées (des musiques porte-drapeau qui représentent des classes humaines bien séparées) où la musique caricaturée a dépassé la musique stéréotypée qui pour un musicien original qui cultive l'originalité provoque un malaise physique bien réel à l'écoute : la musique disciplinée à demeurer un fond sonore en soutient à un régime politique totalitaire souhaité par l'attitude même des auditeurs sympathiques. La culture de l'apathie souriante qui favorise une domination absolue.

L'avenir de notre société mondialisée ne va pas s'arrêter à la crise (économique), mais se dirige à subir un régime politique totalitaire particulièrement puissant où les populations comme des morts-vivants seront encore + lobotomisées par leur autoconditionnement pour une obéissance absolue et sans faille et « sécuritaire » où les esprits rebelles amoureux de liberté seront exécutés à disparaître ou traités comme une maladie.

Mathius Shadow-Sky, novembre 2013.

 

Mars 2015

Lettre à un commerçant d'outils pour la musique spatiale
et à tous les autres concernés par la musique dans l'espace
y compris les escrocs du « surround 5.1 »

L'état de la musique spatiale révèle l'état de nos sociétés
MUSIQUE SPATIALE ? 2015

son état révèle
la situation des humains en société
[6 pages pdf 88Ko]

 

 

suite

re tour à la table des matières