Les joueurs sont assis dans une grille (par exemple 3 lignes et 4 colonnes, soit un total de 12 personnes). Leurs mobiles forment une matrice d’écrans and haut-parleurs qui permettent de spatialiser le sont et la lumière.
Pour l’instant, la matrice est performée par une joueur à la fois : une représentation de la matrice apparaît sur l’écran du joueur qui devient le performeur : en déplaçant son doigt dans la matrice, il contrôle de quel(s) appareil(s) la lumière et le son sont issus dans le monde réel. (Le son change avec la vitesse de trajectoire du doigt). Ainsi, le joueur utilise à distance les appareils des autres personnes. Après un temps défini, un autre joueur prend le contrôle de la lumière et du son, devenant ainsi le nouveau performeur.
La vidéo ci-dessu donne une technique de l’installation : alors que les joueurs sont généralement assis à une distance d’un ou deux mètres les uns des autres, les smartphones sont espacés de quelques centimètres seulement pour les besoins de la vidéo.
Le son est généré de manière locale sur les mobiles connectés à un serveur Web Socket (utilisant node.js et socket.io). Le serveur reçoit la position de l’appareil du performeur et contrôle les générateurs sonores de tous les appareils de la matrice.
Cette web application mobile a été développée pour une session Collective Sound Checks au Studio 13/16 au Centre Pompidou.