Comment voyez-vous l’évolution de la projection numérique au sein du collectif MxM ?
Elle s’est faite de pair avec une évolution artistique. Que ce soit des spectacles comme Electronic City, Ctlr-X, on ne peut plus parler de société contemporaine en faisant abstraction des outils technologiques qui nous entourent. On me dit que je travaille avec des nouvelles technologies : j’ai 37 ans, les technologies que j’utilise ont toujours fait partie de mon quotidien. Dans le cadre de MxM, la recherche d’évolution technologique a toujours été dictée par des envies de réalisation artistique. La technique est au service de l’idée et non l’inverse.
C’est mettre la barre très haut, car tout n’est pas réalisable…
Si ! Toute idée artistique trouve sa réalité de réalisation, même si tout n’est pas possible en termes de résolution technologique. Certains angles artistiques demandent un développement technologique. L’image projetée est un flux lumineux. Son utilisation dans le spectacle vivant a une histoire ancienne, elle s’est adaptée aux découvertes, que ce soit la lumière naturelle, la bougie, l’éclairage artificiel électrique, la maîtrise de la colorisation, etc.
Comment a évolué votre manière de travailler ?
Nous avons toujours installé des caméras sur scène. L’image captée, traitée et diffusée en direct est une marque importante de notre travail. Nous avons proposé des spectacles en multicaméras et multidiffusions, gérés par des mélangeurs de vidéos analogiques. Nous avons commencé à intégrer des signaux numériques avec l’outil informatique MaxMSP puis avec Isadora. Ensuite, nous avons travaillé avec un langage de programmation visuel, VVVV. Pour notre dernière création, Hamlet, présenté à l’Opéra comique, nous utilisons le média serveur, Smode (ndlr : Smode Tech, issu du studio D/Labs).
Comment avez-vous travaillé avec ces solutions avant de choisir Smode ?
Nous avons réalisé de nombreux développements technologiques avec Isadora (Troikatronix) et avec VVVV ; nous ne trouvions pas de solution « clé-en-main » adaptée à nos envies de création. Nous avons dû développer nos propres outils. Festen, le spectacle en tournée actuellement, est une performance filmique dont l’image est gérée dans VVVV. Cela nous a permis, en plus de la gestion des flux et contenus vidéo, de créer une interface utilisateur optimisée.
Qu’entendez-vous par là ?
L’un des enjeux dans Festen est la réalisation d’un film en temps réel. Nous avions besoin d’une solution offrant la meilleure ergonomie possible, à savoir une interface utilisateur avec des retours caméras, un affichage en résolution réelle de ce qui est diffusé, le tout combiné avec toutes les informations liées au déroulé de la pièce (conduite, etc.). L’interface combine le tout afin que l’utilisateur puisse être totalement au service des enjeux artistiques.
Quel est le dispositif de cette pièce adaptée du film éponyme de Thomas Vinterberg ?
Tout est tourné en temps réel avec un cadreur-chef opérateur (Nicolas Dorémus) et un cadreur (Christophe Gaultier) sur le plateau, équipés de caméras avec des systèmes de transmission sans fil. Les images tournées sont montées et diffusées en direct et en temps réel. Dans tous nos projets, l’interprète technique est moteur du spectacle au même titre que n’importe quel autre participant, d’où l’importance cruciale du temps réel.
À quel stade ces outils techniques interviennent-ils dans la création ?
Dès la création. Ils ne sont pas uniquement outils de réalisation, mais aussi d’écriture.
Concrètement comment cela se traduit-il dans l’opéra Hamlet (donné à l’Opéra comique en décembre dernier) ?
Dans Hamlet, toutes les surfaces de projection bougent. L’idée a été de penser un système qui laisse à cette scénographie en mouvement la liberté de s’adapter à l’interprétation musicale. L’image réagit en direct. Si nous diffusions des images préenregistrées, précalculées, la technique deviendrait quelque chose de figé. Elle ne participerait pas à l’interprétation du spectacle. Le rythme d’un mouvement de décor doit s’adapter à celui de la musique, qui peut varier selon le jour.
Pour que l’image se cale en temps réel sur les variations des chanteurs, c’est une forme de tracking ?
Techniquement parlant non. Dans le cas d’Hamlet, nous travaillons avec un système de retour de position des moteurs qui déplacent le rideau monté sur des patiences en multiples S sur la profondeur du plateau. Une personne bouge ces éléments de décor en fonction des chanteurs. En régie, nous recevons les informations nécessaires à localiser en 3D ces décors. Il y a aussi un écran qui bouge verticalement en avant-scène. Grâce à un capteur d’altimétrie, l’image le suit. Dans un précédent spectacle, Tête haute, toute l’image était générée en temps réel dans un univers programmé en 3D. On aurait pu utiliser un système Kinect pour déclencher les changements d’images selon les comédiens. On a préféré le faire à la main. On était à la frontière de l’interactivité et de l’interaction.
Quels sont les prochains spectacles prévus ?
Notre prochain, Opening Night, débutera à Namur (Belgique) en février prochain, puis à Angers au Quai et à Paris aux Bouffes du Nord. Nous aurons un dispositif spécifique, qui est encore secret !
Article paru pour la première fois dans Sonovision #14, p.39-40. Abonnez-vous à Sonovision (4 numéros/an + 1 Hors-Série) pour accéder, à nos articles dans leur totalité dès la sortie du magazine.