Son spatialisé

La sonorisation en révolution

Le parc des salles équipées en son spatialisé s’étend. L’offre de systèmes dédiés se multiplie. Nous rencontrons Marc Piéra, adepte de la première heure au Théâtre national de Chaillot, pour mesurer les enjeux de cette mutation. L’offre de formation accompagne ce virage facilité par un accès démocratisé de ces technologies au studio. En tournée, des freins subsistent pour que les créateurs sonores exploitent pleinement ces nouvelles écritures car l’esperanto de l’audio 3D se fait attendre.

Stagiaires de la formation à la spatialisation du son - Photo © La Filière - CFPTS/CFASVA

Stagiaires de la formation à la spatialisation du son – Photo © La Filière – CFPTS/CFASVA

Une vingtaine de salles de diffusion (scènes nationales, CDN, salles multi-usages, …) s’est dotée, en France, de systèmes de spatialisation sonore. Les utilisateurs de la première heure ont su valoriser leurs atouts : virtualiser les formats de diffusion normés (stéréo, LCR, 5.1, 7.1, …), repositionner avec une grande flexibilité les points de diffusion et surtout maximiser la localisation acoustique. Cerise sur le gâteau apportée par la synthèse de front d’onde (WFS) : l’auditoire bénéficie d’un élargissement et d’une stabilisation notables de la spatialisation sonore au-delà du fameux sweet spot (zone d’écoute idéale). Finie l’oreille du prince : le son spatialisé se démocratise ! Gaetan Byk, aux commandes de la société Amadeus, en est convaincu : “Il y a eu quelques révolutions dans le domaine de l’audio comme le passage de l’analogique au tout numérique, l’audio sur IP, le déploiement des systèmes line array, … Aujourd’hui, c’est penser spatial, localisation, objets sonores et uniformisation de la couverture ! Que des institutions majeures telles que le Théâtre national de Chaillot, le Théâtre Nanterre-Amandiers, le Festival d’Avignon prennent cette direction témoigne que le virage est largement amorcé”. Pour y répondre, il a axé la stratégie de son entreprise autour du développement du processeur Holophonix : “Une collaboration stimulante avec le monde de la recherche à l’Ircam”. Elle impulse une nouvelle gamme d’enceintes avec la mise sur le marché de la série C. Alternative aux systèmes coaxiaux souvent mobilisés pour la spatialisation, elles ont été optimisées en termes de dispersion, de recouvrement, de compacité, avec une bande passante étendue dans le grave.

Vue de la régie, Salle Jean Vilar du Théâtre national de Chaillot - Photo © Amadeus

Vue de la régie, Salle Jean Vilar du Théâtre national de Chaillot – Photo © Amadeus

Une offre croissante

Holophonix cohabite aujourd’hui sur le marché français avec une offre de plus en plus étoffée. Chacun des systèmes décline autour de cette notion d’objet audio 3D commune ses spécificités et son environnement logiciel. L-ISA de L-Acoustics privilégie la continuité avec l’écosystème en place. La matrice Dante 64×64 polyvalente du DS100 de d&b audiotechnik s’enrichie d’une réverbération à convolution émulant différentes acoustiques archivées (En-Space). Le processeur SARA II d’Astro Spatial Audio a fait une brève incursion sur le Festival d’Art lyrique d’Aix-en-Provence. Yamaha a aussi dans ses cartons son contrôleur AFC – Active Field Control. Le module audio 3D AFC Image se complète également d’une réverbération assistée AFC Enhance nécessitant l’implantation de microphones en réinjection. Pionnier dans le domaine de la WFS avec le déploiement du processeur Wave 1 de Sonic Emotion, Euphonia s’appuie désormais sur le processeur Fletcher Machine, un nouvel entrant développé de A à Z avec BeSpline en partant de l’environnement logiciel audio modulaire Usine. Doté d’une réverbération à convolution, il a fait ses premières armes avec Jacques Laville sur la sonorisation de concerts en extérieur à l’été 2021.

Pour Holophonix, la gamme s’enrichira au printemps 2022 d’une version native sur Mac vendue moins de 300 €. “Cette déclinaison vers le bas est absolument nécessaire à notre sens pour la démocratisation et la vulgarisation de ces nouvelles esthétiques sonores, artistiques et spatiales. Elle va faciliter la prise en main par des ingénieurs, exploitants, compositeurs, artistes ou lieux désireux de se sensibiliser à la spatialisation mais n’ayant pas les moyens ou le besoin de s’équiper avec un processeur dédié doté de 64 ou 128 sorties”, appuie Gaetan Byk.

Les lignes de rappel en surplomb, Salle Jean Vilar du Théâtre national de Chaillot - Photo © Amadeus

Les lignes de rappel en surplomb, Salle Jean Vilar du Théâtre national de Chaillot – Photo © Amadeus

La convergence des flux

Le développement parallèle des formations spécialisées devrait accélérer la montée en compétence des techniciens et créateurs sur ces systèmes. Comment mobiliser à présent tout leur potentiel créatif ? Des freins subsistent. Une passerelle semble se dessiner entre créations, répétitions, diffusion, tournées, archivages : le format objet (abrégé OBA pour Object-Based Audio). Il s’appuie sur l’ADM (Audio definition model), un ensemble de métadonnées ouvert, normalisé (ITU-R BS.2076-0ADM). Avons-nous trouvé le DMX de l’audio 3D ? Restreint pour l’heure dans sa représentation des environnements sonores manipulés, il en constitue néanmoins une première marche vers cette convergence attendue entre les systèmes. Pour Gaetan Byk, c’est une simple affaire de table de correspondance : “Chaque environnement a sa façon de nommer une source audio 3D ; ici un canal, là un objet. Il suffit d’interposer un lexique sur la passerelle OSC qui est en train de se normaliser (initiative portée au départ par FLUX:: Immersive, L-Acoustics et Radio France)”. La spatialisation sonore peut ainsi prendre place dans les flux de données synchronisées de la conduite du spectacle (lumière, vidéo, capteurs, machinerie scénique, …) au sein de postes d’aiguillage tels que Usine, Chataigne, TouchDesigner et autres environnements de contrôle programmable multi-protocole en temps réel comme Max, PureData, … La convergence autour du format HOA (Higher order ambisonics) et l’offre accrue de microphones compatibles participent aussi à cette convergence autour de l’ADM en mode Scène (Scene-Based).

Interface de contrôle Holophonix - Photo © Théâtre national de Chaillot

Interface de contrôle Holophonix – Photo © Théâtre national de Chaillot

L’offre en suivi de mouvement (ou stage tracking) se diversifie également (BlackTrax initié par Cast Software, Stage Tracker TTA, Naostage, Eliko, …) et les interfaces avec les plates-formes d’audio-spatialisation se consolident. Les outils mobilisés par l’industrie du jeu vidéo viennent ici s’immiscer dans le spectacle vivant pour le pilotage des trajectoires sonores. Un obstacle subsiste : donner aux artistes sur le plateau, exclu du ceinturage des voies de diffusion, un moyen de s’immerger eux aussi au cœur de ces flux audio-spatialisés.

L’expertise de Chaillot

Nous avons sondé un des utilisateurs les plus chevronnés de ces technologies sur ces évolutions. Appelé en 2016 par la direction technique du Théâtre national de Chaillot pour prendre en main le service son, Marc Piéra a carte blanche pour repenser le système de sonorisation. Parcours croisé de musicien, de sonorisateur, de compositeur pour le spectacle vivant et proche collaborateur des concepteurs de la société A2T, il a longtemps exploré les arcanes de la multidiffusion dans les pas de la musique concrète et ses acousmoniums. Parmi les premiers à adopter en France la WFS, il se trouve de fait bêta-testeur de plusieurs systèmes et son expertise est sollicitée sur plusieurs installations.

Quelle est la genèse du système de spatialisation sonore de la salle Jean Vilar ?

Marc Piéra : La multidiffusion m’a accompagné partout avant que j’intègre Chaillot, dans les créations musicales avec Denis Levaillant, Alain Françon, Mark Tompkins, … Il m’était devenu insupportable de diffuser ma musique sur des systèmes stéréophoniques, la plupart du temps de technologie ligne source induisant une totale monophonie pour la quasi totalité des spectateurs (exception faite du mixeur). Dans cette refonte de la sonorisation de la salle Vilar, je me suis donc orienté en 2016 vers une solution hybride combinant des haut-parleurs développés par Amadeus et un processeur de synthèse de champ sonore (WFS) de Sonic Emotion. Premiers essais tellement concluants, même avec un système peu calibré et peu optimisé dans sa distribution, que le choix de le conserver a fait l’unanimité. Il sera amélioré plus tard avec une “rampe sonore” de nez-de-scène grand format, incluant vingt-quatre haut-parleurs, une première dans le genre. Nous avons basculé en 2018 sur le système Holophonix. Son principal atout : la poly-algorithmie qui associe de multiples processus d’encodage du son spatialisé (HOA, VBAP, LBAP, WFS, …). Au départ, les gains recherchés étaient l’amélioration de la stéréophonie pour un large auditoire et l’utilisation des sources ponctuelles virtuelles. Le système immersif est arrivé en second temps. La genèse était bien de redonner de la multidiffusion, des axes, du mouvement et de l’espace en virtualisant les sources dans un contexte de rotation des spectacles où nous n’avons plus le temps de déployer des installations électroacoustiques sur-mesure. Nous avons aussi installé plus récemment un système de suivi de mouvements (Stagetracker II de TTA) encore peu sollicité avec la crise sanitaire. Cela reste coûteux (près de 40 K€) mais c’est le complément naturel et indispensable de l’audio-spatialisation qui automatise le suivi des artistes et recentre l’exploitant sur le mixage durant le spectacle. Impensable de dédier deux ou trois techniciens au suivi de comédiens comme nous l’avons tenté dans la Cour d’Honneur en Avignon l’été dernier. Le système fondé sur la RFID plutôt qu’une détection caméra se montre plus robuste et polyvalent en situation d’accueil car moins impacté par la scénographie et l’éclairage. Nous obtenons une précision de l’ordre de 2 cm après calibration ; justifiée pour de la lumière ou de la vidéo, mais pour le son nous pourrions nous contenter de moins et donc disposer sans doute d’outils moins onéreux.

d&b Soundscape au Sony Hall, NYC - Photo © Amit Peleg

d&b Soundscape au Sony Hall, NYC – Photo © Amit Peleg

Comment joues-tu de cette “hybridation” des techniques de spatialisation sur plusieurs tableaux : celles centrées sur un point d’écoute optimal HOA, VBAP et d’autres comme la WFS qui tentent de s’en affranchir ?

M. P. : J’utilise principalement HOA et WFS, les 126 enceintes permettent un ordre ambisonique très correct. Cette polyvalence permet de tirer le meilleur parti de chaque processus simultanément. Nous gérons par exemple des déplacements de sons rapides avec l’HOA ou des flux audio HOA déjà encodés. Nous privilégions l’image pour le plus grand nombre et la précision de la localisation avec la WFS. Pour l’HOA, plusieurs paramètres permettent d’élargir le sweet spot en privilégiant plutôt l’homogénéité du timbre ou la localisation. Cela devient un choix artistique et une forme de “contournement” des effets Doppler induits par la WFS sur des mouvements rapides. La WFS reste néanmoins le mode de diffusion le plus probant.

Assistons-nous à une bascule du même ordre d’ampleur que la systématisation des line array vers la virtualisation de la diffusion dans le spectacle vivant ?

M. P. : J’en suis persuadé. Le diktat des “vendeurs de boîtes” quant à l’uniformité de la pression sonore pour tous au détriment de l’image spatiale est révolu. L’important est que tout le monde ait une proposition de qualité mais pas forcément identique. Ceci ne veut pas dire qu’avec la WFS la répartition du niveau sonore est mauvaise. Par ailleurs, contrairement aux idées reçues, le coût économique n’excède pas celui d’une installation stéréophonique basée sur un système line array bien dimensionné.

L’adhésion des artistes et des utilisateurs est au rendez-vous. Nous accueillons des compagnies internationales tout au long de l’année qui ont adoré ce système, sa “palette de couleurs”. Cela ramène de l’artistique, du choix. Je commence d’ailleurs à recevoir des fiches techniques qui sollicitent des dispositifs de type WFS. Il ne se passe pas une semaine sans que le système immersif ne soit sollicité, pour élargir une stéréo, donner de l’espace, introduire une réverbération, mais aussi pour déconstruire une diffusion ou évidemment pour de la multidiffusion.

Une installation de ce type nécessite-t-elle une calibration complexe ou des réglages fréquents ?

M. P. : Ayant suivi l’installation des premiers systèmes et calé plusieurs salles, j’étais assez inquiet au départ. En définitive, nous avons un rapport assez classique entre une source électroacoustique et une acoustique, sa position, les réflexions proches, … Ce qui change c’est une multiplication des réflexions mais elles sont aussi plus faibles. Lorsque nous avons déployé la première ligne WFS avec un espacement de près de 2 m, cela fonctionnait bien alors que la théorie nous prédisait un rendu limité à 100 Hz ! Depuis, la recherche a progressé et nous comprenons que l’audition s’affranchit des artefacts anticipés puisque nous expérimentons les mêmes quotidiennement dans notre écoute de l’environnement. C’est stimulant : la pratique fait aujourd’hui retour sur une approche théorique en laboratoire et nous adaptons les outils en conséquence.

Quels outils d’écriture et de création pour ces systèmes de diffusion ? L’audio orienté objet (ADM), bien que limité, peut-il s’imposer comme une passerelle avec l’intégration d’une couche OSC pour le live ?

M. P. : Le son d’un spectacle devrait pouvoir se transposer d’un lieu à l’autre sans reconfigurer toute l’implantation de la diffusion. L’ADM est un premier pas pour piloter la conduite sonore d’un spectacle, moyennant quelques adaptations liées à la diffusion, la taille, la géométrie d’une salle. En tournée, nous devrions pouvoir importer l’ensemble de nos sources virtuelles dans un setup configuré pour le lieu. Cela va prendre du temps mais une bonne dynamique s’est installée. Il reste un gros travail de normalisation pour y intégrer, par exemple, la gestion de la réverbération, la référence d’un point d’origine, …

Meyer Sound Spacemap Go - Photo © Meyer Sound

Meyer Sound Spacemap Go – Photo © Meyer Sound

Quels outils sont disponibles pour mettre une création sonore spatialisée en place sur des configurations plus réduites en nombre d’enceintes ou en écoute binaurale ?

M. P. : Beaucoup de systèmes de spatialisation proposent ou vont proposer un monitoring binaural. Leur qualité dépend du jeu d’HRTF proposé. Personnellement, je n’arrive pas à en trouver un qui me convienne. J’ai testé le processus d’individualisation Immerse de Steinberg fondé sur une prise de vue de ses oreilles et un apprentissage en IA, testé plus de trois cents fichiers HRTF au format SOFA, sans avoir été convaincu. Je n’ai pas encore tenté la solution proposée par Genelec basée sur un scan à partir d’une capture vidéo de sa tête et son buste.

Le plus important est de trouver comment permettre une écriture spatiale couplée aux logiciels en vogue comme Ableton Live ou QLab. Des environnements modulaires comme Usine, Chataigne en synchro, constituent des outils très polyvalents pour assurer la conduite d’un son spatialisé. Mais nous cherchons encore un instrument de contrôle aussi simple qu’un fader pour pouvoir interpréter en temps réel, sinon nous sortons du spectacle vivant qui m’est cher. Il y a encore peu de créateurs qui ont pris à bras le corps la multidiffusion dans le spectacle vivant. Après tant d’années de monophonie, c’est logique ! Il y a l’appétit, l’envie de découvrir mais il faut accompagner cela par le développement de passerelles facilitant l’interfaçage, de la “tuyauterie” car un fader n’est pas adapté à la 3D. Il faut inventer un instrument, un geste et pas uniquement de l’automation. C’est très difficile. Je m’y attelle actuellement en prototypant sur le logiciel Usine.

C’est du côté de la réalité virtuelle ou augmentée qu’il faut creuser ?

M. P. : J’ai testé l’interface Leap de capture des mouvements de main, pas simple à apprivoiser ! Je crois beaucoup plus à la réalité augmentée associée à des capteurs de mouvements venus de la VR. J’attends avec impatience un système qui nous permettrait de diffuser en immersion dans la salle en surimposant, sans casque lourd, la vision des objets manipulés. Une façon de donner du plaisir à des novices pour se saisir de cette dimension spatiale du son, travailler sur les trajectoires, la distribution des effets.

Les moteurs de jeu vidéo utilisés en VR sont dotés de capacités d’immersion sonore hyperréalistes qui simulent les premières réflexions de l’environnement, les effets d’écran, les couplages, … Allons-nous vers cela ?

M. P. : Pour simuler des environnements acoustiques au-delà d’un son direct localisé, nous jouons avec Holophonix sur une distribution de la réverbération optimisée en fonction du décodage, HOA, WFS, … La VR tend à s’affranchir d’une acoustique réelle qui se surimpose. Or nous ne pouvons l’ignorer ! J’aimerais tellement pouvoir changer la physique, et je ne suis pas le seul. Pour le projet de la future salle Jean Vilar de Chaillot (qui fermera ses portes de fin 2022 à 2024) les équipes d’Amadeus et de l’Ircam travaillent sur un nouveau système d’acoustique active sophistiqué avec des avancées sur l’absorption active directement implémentée dans Holophonix. À l’arrivée, nous visons une maîtrise de l’acoustique virtuelle et réelle plus poussée. Ils travaillent d’arrache-pied mais encore une fois la route est longue.

 

Facebook
LinkedIn

CONNEXION