La stéréophonie permet déjà de reproduire les sons avec une sensation d’espace et de profondeur. Cependant, elle fonctionne uniquement pour la ou les quelques personnes correctement placées face aux enceintes, le fameux « sweet spot ». La spatialisation sonore fait sauter cette barrière en reproduisant et en déplaçant plusieurs sources simultanément et précisément dans l’espace, et ce pour la grande majorité des auditeurs. Cela nécessite des enceintes supplémentaires et des outils spécifiques servant à manipuler les flux sonores.
La technique existe depuis quelques décennies, mais la puissance logicielle nécessaire est réellement mise entre les mains des créateurs, des artistes et des ingénieurs du son depuis quelques années seulement. Voici un état des lieux des solutions actuellement sur le marché.
De la stéréophonie à la spatialisation
La stéréophonie est encore largement utilisée dans le spectacle vivant. Si vous êtes positionné sur la droite de la salle, il y a de grandes chances pour que vous entendiez principalement les enceintes du système de reproduction situées à droite. La représentation sonore n’a alors plus aucun rapport avec ce que vous voyez sur scène. La stéréophonie ne fonctionne plus, la sensation d’espace et de placement disparaît. La problématique est identique avec la reproduction multicanale en 5.1 ou 7.1. Que ce soit dans une salle de cinéma ou à la maison, si vous êtes assis tout à l’avant ou sur un côté, vous ne pouvez pas saisir l’œuvre correctement.
La multiplication des enceintes du multicanal n’est donc pas une réponse à la problématique, chaque enceinte reproduisant sa partie et déséquilibrant tout le reste si l’on se trouve être trop proche de l’une d’elles. On a décidé pendant très longtemps que cette situation serait acceptable. Ce sont surtout les développements techniques qui n’étaient pas encore transposables dans des appareils suffisamment simples d’accès pour être utilisés par les techniciens du son dans un théâtre ou une salle de concert.
Différentes technologies de manipulation sonore ont été créées pour dépasser les limites de la stéréophonie. Ce sont par exemple les panoramiques d’intensité avec le VBAP (vector base amplitude panning) ou le DBAP (distance-based amplitude panning), et le contrôle du champ sonore via le WFS (wave field synthesis) ou le HOA (higher order ambisonics). Certains algorithmes sont plus complexes que d’autres en agissant en 2D ou en 3D. Des fabricants vont en choisir un et pas les autres. Tandis que les processeurs les plus perfectionnés seront capables de tous les intégrer et de les faire fonctionner simultanément avec différents objets.
Car la spatialisation s’occupe de chaque source comme d’un objet indépendant. Elle ajoute une direction à cet objet sonore. Il n’est plus fixé face à l’audience. Il peut être positionné précisément dans l’espace et en mouvement. Mais surtout, plusieurs objets sonores peuvent être perçus simultanément à des endroits différents et se déplacer dans de multiples directions. Le logiciel associé à ces processeurs est donc une véritable console numérique de son 3D nécessitant de nouvelles approches du métier.
L’impact du son spatialisé sur le spectacle vivant
Les pièces de théâtre, les événements, les concerts, les festivals sont de plus en plus nombreux. Dans cette offre pléthorique de spectacles, la technique peut aider à se démarquer. C’est souvent ainsi qu’elle est adoptée au départ. La spatialisation du son est désormais assez développée pour être un outil presque comme un autre. Pour faciliter les choses, des scènes s’équipent de telles installations de façon fixe. Utilisées ou non au maximum de leurs possibilités, elles sont prêtes à servir l’œuvre lorsque nécessaire.
Les artistes ayant créé une œuvre en son 3D se tourneront vers ce type de salle pour faire profiter l’audience d’un spectacle augmenté. Pour les événements ponctuels comme les concerts, le son 3D va offrir une valeur supplémentaire aux spectateurs qui se rendront compte que le son est meilleur ou différent de celui d’autres concerts encore très majoritairement en stéréophonie. Le son spatialisé fait maintenant partie du show son et lumière à part entière.
L’impact du son spatialisé est donc double. Il permet tout d’abord de développer des œuvres comme cela n’a jamais été possible auparavant. Une fois l’outil maîtrisé, il offre aux auteurs et aux créatifs de nouvelles formes d’écriture insoupçonnées pour explorer toutes ses possibilités et les dépasser. Le son 3D casse les codes. Il n’y a plus de vérité et de scène fixe devant soi. Le son peut être réinventé, déplacé… Il nécessite une parfaite adéquation avec la vidéo, la lumière, la pyrotechnie et bien sûr les artistes sur scène.
Une œuvre en son 3D impose de nouvelles interactions entre les intervenants techniques, ingénieur du son y compris. Le deuxième impact est commercial. Un spectacle, un concert, une exposition en son spatialisé peut attirer plus de monde parce que l’événement bénéficie de cette spécificité technique, quel que soit le nom qu’on lui donne.
Le WFS chez Sony, Barco et Sonic Emotion
Sony a adopté la technique WFS pour sa plate-forme Sonic Surf VR. Le wave field synthesis peut être traduit par synthèse de front d’ondes. La proposition fonctionne sur un seul plan horizontal. Tous les haut-parleurs sont donc positionnés côte à côte, en nombre plus ou moins important. Ils peuvent même ceinturer entièrement la salle si besoin. Chaque module comprend huit haut-parleurs adressés de façon individuelle. Un contrôleur Sonic Surf VR s’occupe de huit modules, donc de 64 haut-parleurs.
Le système Sony est adapté aux usages de type musée ou exposition où l’on va se déplacer et entendre des sons qui nous suivent ou bien totalement différents d’un endroit à un autre. Où que l’on se trouve, on entend uniquement le son diffusé par les haut-parleurs face à soi, et aucunement tous les autres situés ailleurs dans l’espace. Barco, avec le Iosono Core, et la société Sonic Emotion appartenant à Sennheiser, avec le Sonic Wave I, travaillent tous les deux autour du WFS, mais cette fois en trois dimensions grâce à des enceintes placées sur plusieurs plans. Ces deux systèmes gèrent 64 canaux en MADI par défaut et sont totalement indépendants des amplificateurs et enceintes utilisés.
L’IHS développé par L-Acoustics
L-Acoustics a préféré développer ses propres algorithmes de traitement du son dans son outil L-ISA sans reprendre précisément l’une des techniques existantes. La technologie maison IHS, pour immersive hyperreal sound, rassemble une simulation de salle associée à un maximum de 96 objets distincts. Le système contrôle jusqu’à 64 enceintes. Elles seront installées principalement à l’avant, en différents clusters, et éventuellement sur les côtés afin de couvrir efficacement l’espace recevant le public. Ces clusters en nombre limité de cinq à sept suffisent à assurer une couverture satisfaisante de l’espace.
C’est le point de différenciation de la solution L-ISA lorsque des systèmes concurrents nécessitent des enceintes à des dizaines d’endroits différents. La configuration passe par la simulation 3D de la salle effectuée via le logiciel Soundvision fourni par L-Acoustics. Chacun des objets peut être placé précisément grâce aux réglages individuels de panoramique, distance, largeur et élévation. L-Acoustics développant ses propres enceintes, il suffit de piocher les références dans le logiciel pour obtenir la quantité de tel ou tel modèle à installer, à quelle hauteur, avec quel angle, etc. Le processeur L-ISA a contribué à l’animation de dizaines de tournées musicales de par le monde. Il est également installé à demeure au Puy du Fou.
Le multi-formats d’Amadeus
La société Amadeus travaille en collaboration depuis de longues années avec l’Ircam, Institut de recherche et de coordination acoustique/musique, autour des techniques du son. Après avoir créé des enceintes spécifiques à certaines salles, Amadeus a décliné son savoir-faire dans l’Holophonix, son premier processeur de son 3D. Celui-ci s’appuie sur toutes les techniques existantes. Ainsi, dans un même système, certains groupes d’enceintes fonctionneront en WFS et d’autres en VBAP par exemple. En dehors de ceux déjà cités, il supporte les algorithmes tels que Angular 2D, k-Nearest Neighbor, Stereo Panning, Stereo AB, Stereo XY et Binaural.
Par défaut, l’Holophonix gère ses entrées/sorties en Dante avec 128 canaux dans les deux sens. Cette limite peut être dépassée si nécessaire. Dans l’une des dernières réalisations accueillant un processeur Holophonix, La Grande Salle du théâtre La Scala à Paris utilise 172 enceintes. Elles sont divisées en plusieurs groupes faisant appel à trois algorithmes différents pour traiter des positions spatiales distinctes.
La simulation de salles par d&b audiotechnik
Le processeur DS100 de d&b audiotechnik gère jusqu’à 64 entrées et 64 sorties via sa connexion Dante. Il sait également manipuler 64 objets dans l’espace grâce au module En-Scene mais d&b ne précise pas le type d’algorithme utilisé. Le système fonctionne par groupes avec de multiples enceintes entourant la salle : principal, nez de scène, rappels, surround, etc.
Le module En-Space s’occupe quant à lui de l’espace sonore. Il simule les caractéristiques de salles mémorisées que l’on peut appliquer dans d’autres environnements aux enceintes grâce à une « technologie unique d’émulation des surfaces ». Pour un résultat optimal, la prise de son s’effectue aux 64 positions correspondantes à l’emplacement des enceintes.
Le suivi des comédiens chez Astro Spatial Audio
Le processeur SARA II d’Astro Spatial Audio fonctionne en mode objet sans que le type d’algorithme utilisé n’ait été dévoilé. Les déplacements des 32 objets vers les 64 canaux Dante en sortie sont possibles dans les trois axes et en live. Ce processeur permet d’appliquer une simulation de salle pour transporter les spectateurs dans un environnement totalement différent. Les caractéristiques de la salle sont appliquées aux objets.
Astro Spatial Audio s’est associé à TTA pour intégrer le Stagetracker. Grâce à de petits modules sans fil invisibles que portent les comédiens et chanteurs sur scène, le SARA II connaît leur position exacte et donc celle de leurs micros en temps réel. La voix se déplace entre les différentes enceintes du système pour suivre avec réalisme les déplacements sur la scène. Il est également possible de prévoir des déplacements pré-programmés initiés par des déclencheurs. Le SARA II est utilisé dans les théâtres, les auditoriums et lors de nombreux événements ponctuels.
Du multicanal à l’audio orienté objet
La stéréophonie et le 5.1/7.1 sont basés sur des canaux, tandis que l’audio 3D est basé sur des objets. Voilà la différence fondamentale. Les objets peuvent être manipulés indépendamment les uns des autres. Il est possible de les déplacer de la façon la plus pointue possible : en appliquant une vitesse, un angle, une variation de niveau ou de réverbération. Tout est possible pour se rapprocher au plus près de la réalité et proposer ainsi une expérience réellement immersive.
Côté technique, l’audio 3D et ses nombreux canaux utilisés simultanément profitent grandement du développement de l’audio sur IP : la plupart des processeurs travaillent justement en AES67 ou en Dante plus précisément.
Enfin, la spatialisation sonore apporte un bénéfice inattendu : la baisse du niveau sonore général, un problème récurrent dans les concerts. Par rapport à la stéréophonie, les éléments bien détachés les uns des autres deviennent naturellement beaucoup plus intelligibles. Il n’est plus nécessaire de monter exagérément le volume pour que tous les éléments soient audibles. Encore une autre bonne nouvelle pour les spectateurs des événements en audio 3D.
Article paru pour la première fois dans Sonovision #17, p.70-72. Abonnez-vous à Sonovision (4 numéros/an + 1 Hors-Série) pour accéder, à nos articles dans leur totalité dès la sortie du magazine.