Les techniques (ou procédés) de projection sonore

 

Projeter des sons à partir de plus d'un haut-parleur pose une infinité de questions, parmi lequelles :
- quel type d'image spatiale souhaite-t'on créer : précise, diffuse, enveloppante, éclatée ?
- pour quel auditoire, dans quelles circonstances ?
- essaie-t'on de reproduire un espace acoustique pré-existant ou d'en "inventer" de nouveaux ?
- quel sont les rapports qui existent entre la manière dont le signal est inscrit sur le support et les canaux de projection ?
- existe-t'il une liaison avec des éléments visuels ?
- les auditeurs sont-ils rassemblés en une même zone ou se déplacent-ils ? Comment sont-ils orientés ?
etc...

 

base sur les rapports existant entre la chose fixée et la chose projetée

 

La Projection directe

Je le rappelle, cette technique de projection ne nécessite aucun traitement du signal : ce qui est inscrit sur le support est directement dirigé vers un canal de projection. Ceci constitue un de ses avantages car aucune transformation due à un encodage / décodage spatial ne vient modifier les sonorités.

Chaque canal est ainsi associé à un haut-parleur, ou à un groupe de haut-parleurs (utile pour la diffusion spatiale), dont la disposition proportionnelle et les caractéristiques principales sont normalement les mêmes pour la réalisation en studio et pour l'audition publique.
Cela ne veut pas dire pour autant, comme le pense encore pas mal de persoones, que l'on ait un son = un canal = un haut-parleur ! Ceci concerne la manière dont les
masses spatiales des objets sonores sont organisées à l'intérieur de l'espace de l'oeuvre.

En projection directe, tout ce qui est antérieur au support de diffusion : captures microphoniques n-phoniques, traitements spatiaux par contrôle des intensités ou autres méthodes, se retrouve intégralement à écouter.

La nature de l'espace projeté n'est en soi pas définie dans cette technique, c'est à chaque œuvre de choisir un dispositif de projection existant ou d'en définir un nouveau, car contrairement aux projections simulées, cet espace projeté n'est pas spécialement destiné à la reproduction d'un espace acoustique préexistant mais à des créations originales.

Éloge de l'empirisme.
Le principal "défaut" de la
projection directe est de ne pas être basée sur des modèles physiques ou mathématiques comme le sont l'HRTF ou la WFS, mais sur l'expérience empirique et la conjonction plus ou moins hétéroclite de procédés de traitement du signal, d'environnements matériels et logiciels quelconques...

Conséquence, cette méthode est généralement cantonnée dans la littérature spatiale à son utilisation en stéréophonie à deux canaux et en pentaphonie, et son application aux formats supérieurs est le plus souvent totalement ignorée, alors que pratiquement toutes les oeuvres multiphoniques composées depuis vingt ans l'utilisent.

Le contrôle direct des intensités.
C'est la technique la plus simple et aussi, en principe, la plus apte à créer et traiter tous les types de masses spatiales et de leurs variations.

Les interpolations d'intensités.
Selon différents calculs : interpolation linéaire ou selon des courbes variables, VBPAN... c'est ce genre de traitement que l'on trouve dans les modules "surround" intégrés aux logiciels multipistes actuels.

DBAP VBAP

 

 

 

Les projections indirectes

Si la projection directe représente un raccourci idéal dans le sens où il minimise les opérations sur le signal qui peuvent interférer avec les critères du son, le nombre de canaux nécessaire peut prendre trop de place sur un support (pellicule, baladeur...) ou nécessiter des débits trop importants (Internet, DVD-Video...).

le Matriçage 

Les techniques de matriçage employées au cinéma dans les anciens formats surround ou sur les DVD n'ont en fait pas grand chose en commun avec l'Ambisonic, si ce n'est de présenter un nombre de canaux sur le support différent de celui de la projection (généralement plus faible).

La finalité peut dans certains cas d'ailleurs être la même : économiser de la place sur un support et / ou permettre un certain niveau de compatibilité entre des dispositifs de projection différents.

La différence principale entre les deux techniques est que le matriçage ne se préoccupe que de trouver des artifices techniques, essentiellement des déphasages et des filtrages, pour réunir et et séparer des canaux discrets, qui correspondent normalement à la même disposition spatiale avant et après le décodage. L'autre différence est que le signal non décodé est parfaitement audible et directement compatible avec une écoute stéréo. Le matriçage n'est pas sensé interpréter le contenu spatial.

La technique du matriçage est utilisée aujourd'hui pour les formats LCRS 4.1 compatibles Dolby Prologic I, mais aussi pour obtenir une voie centrale arrière dans les formats 6.1 EX, et même pour du pseudo 7.1 en Prologic II ou en SRS.

Les progrès réalisés entre le Prologic I et le Circle Sound II sont impressionnants, et on se rapproche dans ce dernier cas à l'audition de ce qu'on obtient en utilisant des canaux séparés. On peut envisager aujourd'hui des utilisations du matriçage qui ne dénaturent pratiquement pas le signal par rapport à un signal aux canaux discrets (voir ).

 

l'Ambisonique

Contrairement au matriçage, le but initial de l'Ambisonic n'est pas d'économiser des canaux, même si aujourd'hui encore le fait de pouvoir n'en utiliser que quatre reste un atout non négligeable pour la capture microphonique. Il s'agit d'abord du codage de l'image spatiale perçue en un point donné, celle-ci pouvant être ensuite "reconstruite" d'une manière plus ou moins précise par un ensemble de projecteurs sonores concentriques. La particularité, et l'intérêt majeur de ce codage / décodage, est que le nombre de haut-parleurs peut être quelconque, typiquement de deux à douze dans les outils les plus connus, à condition tout de même qu'ils soient équidistants et placés sur une sphère, centrée sur l'auditeur.
Contrairement aux
projections simulées, mais comme en projection directe, l'emplacement des projecteurs sonores détermine les masses spatiales qu'il est possible d'obtenir : pas de 3D avec seulement deux haut-parleurs...

 

Depuis son invention par Michael Gerzon dans les années 70, l'Ambisonic représente une des techniques les plus intéressantes pour la capture microphonique d'environnements sonores en un point.
Ses deux principaux atouts sont la simplicité de l'équipement (un seul micro peut remplacer un ensemble de 4 ou 5), et surtout, l'enregistrement multicanal résultant peut être décodé pour différentes configurations, de la stéréo à l'octo en passant par le 5.1.
« La technologie “ Ambisonic® ” basée sur une théorie de la localisation des sons, est apte à reproduire le champ sonore complet en décomposant les caractéristiques directionnelles d'un champ sonore en composantes harmoniques d'une sphère, appelées W, X, Y et Z utilisant les sources ponctuelles distribuées dans l’auditorium (haut-parleurs) de façon complémentaire pour recréer ces composantes directionnelles. »
Un microphone spécial, le "Soundfield" ou un modèle du même genre, est nécessaire pour cette captation (voir la page sur les
microphones).

Le nombre de canaux de transmission et de stockage dépend du degré de précision de l'encodage : en "ordre un", quatre canaux sont suffisants, mais neuf canaux sont nécessaires en deuxième ordre et vingt-cinq en quatrième ordre (voir les liens ci-dessous).
De ce nombre de canaux de codage, et de la qualité du décodage, dépend la précision spatiale de la projection. Avec les 4 canaux du premier ordre, c'est correct pour des ambiances assez larges, mais peut être un peu "flou" pour des prises plus détaillée. Cependant, un outil de décodage comme l'
Harpex a montré qu'il était possible d'augmenter d'une manière impressionnante la précision du rendu spatial du formatB, et donc que cette technique possède un très large domaine d'applications.
Evidemment, un microphone comme l'
Eigenmic, avec ses 32 capsules, devrait apporter un niveau de détail satisfaisant dans tous les cas !

Cela dit, les différences spatiales et esthétiques entre capsules coïncidentes (X/Y, M/S, Soundfield), microphones séparés (couple A/B, croix IRC, arbre DECCA etc.) et réseaux de microphones restent pertinentes, et la prise de sons ambisonique n'a pas vocation à remplacer les autres modes.

 

 

Une autre application, distincte de la capture acoustique, consiste à utiliser la technique d'encodage / décodage spatial pour le traitement des masses spatiales en studio.

Pour ma part, après moult tentatives, je reste très sceptique sur l'intérêt de cette méthode au delà de son application pour les formats surround habituels (5.1 et 7.1) ou l'octo (en cercle ou en cube).
Le codage spatial du point d'écoute impose des effets (site coïncidents flous, déséquilibres pour les dispositions qui ne sont pas parfaitement équidistantes...) qui, s'ils ne sont que peut perceptibles pour des ambiances sonores, peuvent être dommageables pour une compositions de type objet. Pour le "surround" à 6 ou 8 enceintes, la différence est peu pertinente, et ce procédé est parfaitement adapté, puisqu'il permet en plus une modification relativement facile du dispositif : coder une fois, et décoder en fonction du format de projection (voir la section suivante). Mais, selon moi, celà devient plus problématique avec les formats supérieurs.
La principale limite du procédé reste d'ailleurs le nombre d'enceintes (pas de limite théorique) et leur disposition (pas de dispositions multiplans par exemple). C'est aussi celle des outils existants. Au-delà de 12 canaux de projection en dodécahèdre que l'on trouve dans quelques plugins, il faut en effet passer par la réalisation d'outils dans des logiciels spécialisés comme Max/Msp, et perdre au passage l'intégration dans les logiciels de composition. Je n'ose imaginer comment faire avec 24 ou 32 enceintes...
Tout celà pour dire que, de même que pour la prise de sons où le codage ambisonique possède d'évidente qualités mais ne saurait répondre à tous les cas de figure, utiliser ce principe pour le contrôle des
masses spatiales possède également un domaine où il fonctionne, et d'autres où des techniques comme le DBAP ou le VBAP, qui ne passent pas par un codage de l'écoute, me semblent plus efficaces et ont le mérite de ne pas être limitées à certaines dispositions spatiales.

Note : tout ceci est évidemment un point de vue personnel, lié à l'expérience de composition acousmatique, et on peut certainement trouver d'autres arguments pour les applications musicales (c-à-d instrumentales) ou au cinéma.
Malgré tout : moins il y a d'enceintes et plus l'espace en tant qu'image (je ne parle pas du critère d'image d'espace / empreinte spatiale !) a une place prépondérante dans ce qu'on fabrique et dans ce qu'on entend (en stéréo, il en constitue pratiquement la totalité). Réciproquement, plus les points de projection / canaux sont nombreux, plus l'espace en tant qu'objet est prépondérant et le rôle d'espace-image devient secondaire.

 

 

C'est un aspect qui est aujourd'hui crucial en terme de diffusion au cinéma : en l'absence de dispositifs de haut-parleurs réellement standards, il est tout de même possible de définir des catégories typiques à une situation d'écoute particulière, avec pour chacune uniquement des différences de résolution et/ou de répartition de la densité des projecteurs à gérer.

En ce sens, les niveaux élevés de codage ambisonique (High Order Ambisonics) permettent d'emblée une adaptation de formats, à l'intérieur bien sûr des limites imposées par le procédé (espace centré équidistant). S'il est bien-sûr possible de faire plus simplement avec les techniques d'amplitude habituelles, qui fonctionnent parfaitement pour des réductions de la résolution jusqu'à un facteur 2, celles-ci deviennent en effet plus difficiles à traiter au delà, et sont forcément de plus en plus imprécises.
Un système comme
IMM Sound (racheté par Dolby pour l'intégrer à l'ATMOS) utilise entre autres des principes similaires au codage HOA. L'association d'un codage de ce type avec des descriptions d'objets semble être la direction incontournable pour l'industrie du cinéma dans les prochaines années. Il ne s'agit plus là vraiment de l'ambisonique au sens classique, mais plutôt d'associer certains de ses principes à la définition d'objets spatiaux, fixes ou en mouvement, pour parvenir à la réalisation, au stockage, à la transmission et à la projetion du son en "3D" avec une "indépendance de la résolution", voir, dans certains cas, de la disposition des enceintes.

Sans aller jusque là, ou en attendant que de tels outils soient accessibles (techniquement et surtout financièrement, on connait Dolby !), peut-on utiliser l'ambisonique courant (c-à-d en deuxième ou troisième ordre) pour effectuer des transcodages à l'intérieur de formats compatibles ? C'est ce que font depuis longtemps certains compositeurs, comme Natasha Barret par exemple, pour la diffusion de leurs œuvres.
J'ai effectué des essais de conversion bidirectionnelle entre deux formats (en ambisonique 3ème ordre), histoire d'entendre si le procédé était réversible : test 12 canaux dodécahèdre en "point source" > codage ambisonic > décodage en octo cube > codage ambisonic > décodage en 12 canaux dodécahèdre. Le résultat a été très décevant, le retour au dodécahèdre ayant perdu énormément de sa précision et de sa lisibilité : les points étaient devenus des taches... Bien-sûr, ça ne veut pas dire pour autant qu'une composition réalisée directement en ambisonique sonnera mal une fois décodée. Il est également possible que les résultats soient différents avec des d'autres plugins, notamment si on passe en HOA.

Note : pour ma part, j'ai fait le choix pour l'instant de réaliser mes pièces en "haute résolution" en projection directe, typiquement autour de 32 canaux, ce qui permet ensuite de les décliner dans des formats inférieurs compatibles. L'imprécision résultante est ainsi due uniquement à la perte de résolution spatiale, sans faire intervenir une autre approximation due à un encodage/décodage. En outre, c'est plus facile à faire ! Et si, dans quelques années, des systèmes basés sur des objets et des formes d'encodage spatial haute-résolution deviennent des standards, il sera facile de les intégrer sans perte.

 

 

La projection interprétée

Contrairement aux autres techniques présentées, la projection interprétée ne constitue pas à proprement parler un procédé de création d'espace dans le sens où celui-ci se situe par définition en dehors de la composition.
Il s'agit plutôt d'une manière de transformer une
projection directe comportant peu de canaux de réalisation pour l'adapter à un dispositif de projection plus large, ou en tout cas différent de celui d'origine. En celà, cette approche ressemble à celle de la projection indirecte, sauf qu'au lieu
Cette technique se rencontre uniquement lors de la projection d'œuvres instrumentales ou acousmatiques dans le cadre de 
concerts. On se reportera d'ailleurs à la présentation de cette formule pour comprendre la dimension historique et esthétique de son utilisation.

Le principe en est très simple : le signal d'un support comportant moins de canaux que le dispositif de projection (la grande majorité des œuvres est encore réalisée sur deux canaux, cinq à huit commençant maintenant à être assez fréquents) est multiplié dynamiquement sur les canaux de projection durant la présentation publique, par dosage des intensités. Il est également possible d'enregistrer cette adaptation pendant la préparation du concert et de la projeter ensuite automatiquement, ou de remplacer l'interprétation manuelle par des systèmes d'automation.

L'importance que peut prendre la partie interprétée par rapport à la partie composée est proportionnelle à la différence entre le nombre de canaux du dispositif de projection et celui du support. Dans le cas où ces deux valeurs sont identiques aucune interprétation n'est possible. Plus cette différence est grande, plus l'espace extrinsèque peut être développé.

 

Il est à noter que les compositeurs ne délivrent que TRÈS rarement des informations concernant leur conception ou leurs souhaits d'adaptation, ce qui peut paraître curieux, mais finalement me semble cohérent avec ce que représente la composition acousmatique :
- le compositeur réalise l'espace que lui renvoient ses oreilles, et s'il n'a que deux haut-parleurs
- les acousmoniums n'étant pas standardisés, les lieux de projection pouvant être très divers, les indications qu'il laisserait ne pourraient être que très globales (d'accord, ce serait dans certains cas toujours mieux que rien...) ; celle-ci est donc le plus souvent laissée à la discrétion des programmateurs de concerts, donc au hasard, pour quelques-fois le meilleur, comme pour le pire...

Depuis quelques années, un renouveau vise à donner un statut officiel d'interprète à des personnes qui se spécialisent dans ce travail.

 

La conception "classique"

La méthode la plus répandue encore aujourd'hui consiste à doser manuellement les intensités de chaque canal du support à l'aide d'une "console de diffusion". Les consoles dédiées à la projection du son doivent permettre le routage de peu d'entrées vers beaucoup de sorties, ce qui représente l'usage inverse d'une console de mixage. Pour cette raison, il a longtemps été fait usage "d'astuces" comme l'utilisation des sorties directes ou même de consoles spécialement fabriquées pour cette tâche comme la console de la "machine acousmatique" du GMVL construite par Daniel Habault), mais à l'heure actuelle la tendance est plutôt vers des modèles commerciaux choisis pour le nombre d'envois auxiliaires dont ils disposent.

L'avantage de cette méthode est qu'elle est technologiquement légère et permet de s'adapter rapidement à n'importe quelles conditions de projection. La technique est basée sur des ajustements fins qui contrôlent à la fois l'aire et la densité de la masse spatiale globale de l'œuvre, et avec de l'entraînement, il est assez facile de maîtriser des intentions qui, de toute manière, restent extrêmement simples par rapport à ce qui peut être composé.
Les meilleurs résultats (à mon avis !) sont obtenus lorsque l'interprète est capable de se laisser aller "au feeling", le suivi de partitions donnant toujours (encore une fois, à mon avis !) des résultats trop schématiques et simplistes.

La conception "technologique"

On trouve depuis les années 70 plusieurs systèmes d'assistance à la "diffusion / spatialisation" des œuvres en concert.

Quelques-uns ont connu un certain succés dans les années 80 ("Sinfonie" du GRAME par exemple dans les années 90) et correspondaient à cette époque au souci d'optimiser les capacités de projection d'une source stéréophonique sur un ensemble de haut-parleurs. A la fois assistance (virtuosité, précision) et mémorisation des gestes, ils pouvaient permettre également la REPRODUCTION d'une diffusion particulière.

Ces solutions, séduisantes car elles conservent le principe d'interprétation cher à beaucoup de musiciens et cohérentes dans le cadre d'œuvres instrumentales ou "mixtes", conservent la dissociation en deux étapes : composition + extension spatiale (lire l'article "Espace et Musique mixte" de Vincent Tiffon dans la revue Ars Sonora n° 5).

L'aspect automation, c'est à dire l'enregistrement des actions effectuées par "l'interprète" est peut être un des aspects qui reste le plus intéressant aujourd'hui, en ce qu'il permet la projection d'œuvres de concert dans le cadre de séances. Une autre utilisation de cette possibilité d'enregistrement serait de pouvoir comparer différentes interprétations d'une même œuvre dans un cadre pédagogique.

Les systèmes :
Collectif & Cie :
Phonic
GRAME :
Sinfonie
IMEB :
Cybernéphone
Espace Musical : Processeur Spatial Octophonique (breveté en 1986)
CREATE :
Creatophone
...

Techniquement, ces systèmes sont (étaient) basés généralement sur des séries de VCA (amplificateurs contrôlés en tension) pilotés en MIDI par des systèmes informatiques.
A part le
"Cybernéphone" qui s'inscrit dans une démarche de longue date de la part du groupe de Bourges, et dans une moindre mesure Phonic, les autres procédés-machines datent des années 80 et sont, sinon tombés dans l'oubli (Sinfonie), du moins limités à une utilisation privée (concerts "Puce Muse" d'Espace Musical).

Il est aujourd'hui particulièrement facile de concevoir et d'intégrer de tels systèmes sur un ordinateur portable avec une interface audio adaptée. Certains logiciels et plugins dédiés à la "spatialisation" sont consacrés à cette tâche.

 

 

Projections simulées

Le "binaural" HRTF

Depuis le temps que j'assiste à des démonstrations, que je teste des logiciels, que j'écoute des fichiers, j'avoue que le résultat sur enceintes ne m'a jamais convaincu. Évidemment, je ne peux m'empêcher de le comparer à ce que mon système nerveux a mémorisé durant ces vingt dernières années de travail avec des systèmes multi haut-parleurs... Il est possible bien sûr de combiner ce traitement dans des dispositifs offrant plus de deux canaux, sorte de travail d'espace virtuel, mais la fragilité du procédé ne garanti rien si l'auditeur n'est pas placé exactement au centre du dispositif... A bannir donc pour les diffusions publiques.

En ce qui concerne l'écoute au casque (écoute binaurale) les choses sont assez différentes, et peuvent donner parfois d'excellents résultats.
Dans ces systèmes, le renforcement visuel peut être important, et est bien sûr beaucoup plus efficace dans un jeu vidéo qu'en écoute "pure".


Principe

Les différentes techniques de simulation sont souvent regroupées sous la bannière "Son 3D", et associées à d'autres techniques multimédia en "réalité virtuelle". En fait, le terme de son 3D sert à qualifier aujoud'hui n'importe quoi, du surround à l'Ambisonic, en passant par les simulations au casque et les procédés appliqués aux jeux vidéo comme l'EAX.
Sur ce site, ce terme fait toujours référence aux simulations de placement de sources sonores à partir de deux projecteurs acoustiques, des enceintes classiques (transaural) ou un casque (binaural), qui, au delà des différentes appellations, sont tous basés sur un traitement du signal de type
HRTF

.

 

Le but premier de la HRTF ou de ses adaptations est de permettre une sensation de "relief augmenté", un peu à la manière dont des lunettes bicolores nous permettent "d'entrer" dans des images de synthèse en "3D", et ceci sans avoir à utiliser de contraignant dispositif multi-haut-parleurs. 

Son application la plus efficace, et celle où il n'y a pour l'instant que peu d'alternative, est l'écoute au casque, soit pour simuler une projection pentaphonique de type "surround", soit dans des dispositifs multimédia interactifs qui permettent de détecter les mouvements de la tête et de contrôler les apparences de positions sonores relativement.

Le principe en est simple mais délicat, et est basé sur le même type de raisonnement que la synthèse additive : si on arrive à comprendre comment on l'entend on peut inverser le procédé.
Dans le domaine spectral c'est la "transformée de Fourrier" qui donne la clé (décomposition d'un signal complexe en superpositions de sinusoides), dans le domaine spatial c'est la "fonction de transfert relative à la tête" ou
Head Relative Tranfert Function.

>>>

Pour une description détaillée, je vous engage à lire la section consacrée aux systèmes binauraux du mémoire de Daniel Courville.

La principale difficulté du procédé, et qui fait que la plupart du temps le résultat est peu convainquant, provient des variations importantes de ces courbes selon les individus.
Idéalement, le système devrait utiliser pour effectuer les calculs des fonctions de transfert issues de la tête de celui qui écoute... ce qui est dans la pratique difficilement réalisable.
Pour contourner le problème, certains logiciels ou jeux vidéo permettent de choisir parmi des modèles préexistants celui qui donne les meilleurs résultats d'après un test, et il existe également des modélisations de ces variations qui permettent une certaine adaptation dynamique (voir les travaux d'
A-Volute). De plus, pour accentuer la crédibilité spatiale de la distance ou du mouvement, chaque système ajoute sa panoplie de filtrages, réverbérations et effets doppler.

Enfin, la limite principale de l'HRTF est l'importance de la variabilité des morphologies, qui fait qu'un même traitement pourra paraître "réaliste" pour quelqu'un et totalement quelconque pour un autre. La solution serait de pouvoir personnaliser les fonctions de transferts selon la paersonne qui écoute et le casque qu'elle utilise...
C'est ce que fait le
Smyth Realiser A8, un processeur qui mêle HRTF et convolution pour faire un traitement en temps réel de sources multicanales. C'est fait pour le 5.1 et le 7.1, mais peut (pourrait) être étendu à tout dispositif. C'est bluffant, mais c'est cher !

 

la Wavefield Synthesis

C'est la technique de projection qui a actuellement le vent en poupe, et c'est effectivement celle qui est la plus prometteuse dans sa catégorie, et qui peut-être, un jour, pourra toutes les unifier ???

La Wave Field Synthesis (Synthèse de Front d'Ondes) a commencé au début des années 1990 à l’Université de Delft aux Pays Bas (Berkhout), puis s'est développée avec le projet CARROUSO rassemblant une dizaine de centres de recherche (IRCAM, Université de Delft, Fraunhofer Institut...).

Le physicien Huygens a postulé en 1690 qu'il est possible de reproduire un front d'ondes (lumineuses ou acoustiques) en le synthétisant à partir d'une ligne composée d'une infinité de points de projection.

Entre le moment où j'ai commencé cette page (2004 ?) et aujourd'hui, les applications et les persepectives de la WFS se sont pas mal élargies, à la fois vers une "simplification" du dispositif et vers une potentielle intégration dans des solutions commerciales (voir par exemple http://www.euphonia.fr/).

 

 

« L’installation L’Amiral cherche une maison à louer bénéficie d'une technologie inédite de diffusion du son garantissant la disparition acoustique, et ici aussi visuelle, des haut-parleurs. Alors que la stéréophonie, ou le multicanal 5.1 utilisé au cinéma, risque de confiner les événements sonores à proximité des points de diffusion, la WFS, en assumant l'augmentation du nombre de haut-parleurs (56 dans cette installation), leur donne corps. Le signal audio est filtré et retardé avant d'être envoyé à chacun des points alignés de façon à synthétiser les vibrations telles qu'elles seraient émises par une ou plusieurs sources. Quelle que soit la position des auditeurs, la distinction spatiale ainsi réalisée permet une singularisation accrue, en présence, localisation et relief, des objets à entendre.» (Ircam)

« A complete sweet spot: Individual speakers are not discernable as all of the speakers work together to bathe the audience in sound. A person sitting in the front corner has the same listening experience as the person in the center of the room.
The pin pointing of sound in space: Sound can appear to be coming from any point inside or outside of the listening space. Imagine a helicopter approaching from outside of the theatre and then circling around your head, a tiger stalking the back of the theatre, a villain racing up the aisle or crickets jumping from your seat. The possibilities are endless.
Total acoustic immersion: As speakers surround the listening audience, sounds can come from any direction just as they would in real life. Outdoor environments are complete and authentic. Room acoustics are natural, making a small space sound large or vice versa.» (Système IOSONO)

(
C'est moi qui souligne) On retrouve là à la fois l'idée d'enveloppement sonore, de bain ("bathe the audience in sound") et aussi la reproduction de la continuité "naturelle" acoustique. Il est important d'oublier la projection sonore, de faire comme si le haut-parleur n'était pas responsable de la création du son pour se concentrer sur son effet. Finalement, l'espace sonore existe en dehors des moyens de sa production (d'une certaine manière !). 

Un des buts les plus intéressants de la WFS est de corriger le défaut des systèmes de projection stéréophonique et "surrounds" qui concentrent la zone d'efficacité spatiale au centre du dispositif (le point focal de ces dispositifs de projection). D'une certaine manière, et avec une méthode opposée, son but rejoint celui des dispositifs multicanaux irréguliers, mais avec un gros avantage pour certaines disposition de concert et les salles de cinéma par exemple, qui est de ne pas avoir besoin de placer des enceintes parmi l'auditoire.

Avantages :
- possibilité de simuler des
masses spatiales à proximité de l'auditeur sans avoir besoin de placer un haut-parleur à cet endroit ;
- le système est basé sur la notion d'
objet sonore.

Inconvénients actuels (certains points devraient être largement améliorés dans les années à venir) :
- fonctionne actuellement uniquement dans l'axe horizontal ;
- précision des
masses spatiales à comparer avec la projection directe multipoints ;
- interférence avec les
empreintes spatiales ;
- nécessite un
très grand nombre de haut-parleurs, coût ! ;
- aliasing spatial au dessus de 1500 Hz, dû à l'écart entre les points de projection ;
- sources monophoniques ? (mais pouvant être groupées) ;
- calculs intenses... ;
- peu de logiciels disponibles (Wonder sur Linux et ???).

Pour l'instant, cette technqiue semble surtout adapté à la reproduction de musique instrumentale ou électro-acoustique avec des sons simples ou de la voix, mais quelques applications sur des bandes sonores de films semblent être concluantes.

 

 

 

La projection "objets"

 

 

 

 

 

proj. directe

proj. indirecte

proj. interprétée

proj. simulée

proj. objets

matriçage

ambisonic

HRTF

WFS

Atmos / MDA

dispositions compatibles

toutes

 

sphère

toutes

binaural

carré

surround 3D

correspondance entre les canaux fixés et projetés
oui : 1 à n
non : 2 => 3 à 7
non : 4 / 9 / 16 => 2 à n
non : 1 à 8** => non défini
oui : 2
non

partielle

points de projection
virtuels
(position fantômes)
oui, mais peu efficaces
oui

variable

fixation complète

oui (dispositif implicite ou explicite)
partielle selon décodage
non
oui
oui, en fonction de la programmation logicielle

oui, selon

traitements

oui
(éventuellement possible)
possibles
(oui, global)
(possible, mais introduit des déformations spatiales)
(certains sont intégrés dans le calcul WFS)

 

jeu instrumental (synthèse,
échantillonnage)
oui
(éventuel)
possible
oui
(éventuel)
(possible)

 

applications

capture multi-microphonique, traitements, synthèse, contrôle des masses et des empreintes spatiales, projection
diffusion
capture microphonique, contrôle des masses spatiales, diffusion
projection (contrôle de la masse spatiale globale)
diffusion
capture microphonique ?, contrôle des masses spatiales, projection

 

formules
supports domestiques et cinéma, installations, séances, (éventuellement concert)
supports domestiques (et cinéma)
installations (domestique avec décodeur)
concert uniquement
supports domestiques, jeux
installations, diffusions, concerts

 

définition / résolution / dimensions
illimitée, dépend de la disposition et du nombre de canaux
moyenne 2D
variable / fonction de l'encodage ("ordre"), dispositifs centrés équidistants uniquement
variable...
médiocre (HP) / moyenne (casque)
potentiellement illimitée, actuellement 2D

 

respect du spectre
excellent
bon à moyen
très bon
variable
moyen
variable ?

 

compatibilité
modification par proj. interprétée, changement de résolution si dispositif voisin
-
technique de contrôle des masses spatiales en proj. directe
pocophonie en proj. directe
stéréo en proj. directe
-

 

outils : nombre, diversité,
intégration
nombreux et variés, logiciels et plugins, traitements et instruments
(encodage)
peu nombreux, limités au contrôle du site de la masse spatiale
-
peu nombreux, limités
centres de recherche, Wonder (Linux)

 

avantages
efficacité, qualité sonore, tous dispositifs possibles, c'est la seule technique qui soit utilisable durant tous les aspects d'une composition
ne nécessite que deux canaux, compatible stéréo sans décodage
ne nécessite que 4 canaux en 1er ordre, adaptation parttielle au dispositif, possibilité de concevoir une œuvre indépendamment du dispositif de projection à condition qu'il soit de type centré
adaptation facile au dispositif de projection et au lieu
n'utilise que deux haut-parleurs
indépendance du contenu sonore et du dispositif de projection

 

inconvénients
la précision dépend du nombre et de la position des haut-parleurs, dispositifs difficilement interchangeables, nécessité de concevoir le dispositif comme un élément artitistique (mais est-ce un inconvénient ?...)
limite du nombre de canaux de projection, séparation médiocre, artefacts spatiaux et spectraux
complexité d'utilisation, précision très dépendante de l'ordre et du décodage, dispositifs centrés uniquement, nécessité de décodage pour effectuer des traitements
dissociation entre ce qui est composé et ce qui est entendu par le public, reproduction impossible à moins d'enregistrer l'interprétation
écoute au casque principalement
complexité, très grand nombre de haut-parleurs, ressources informatiques importantes