Tip:
Highlight text to annotate it
X
Je voudrais parler des principales approches à la création d'installations interactives.
Sur l'écran derrière vous pouvez voir les logos des logiciels les plus connus dans le domaine.
D'ailleurs, dans le hall d'exposition à côté il y a une expo Decode, et la plupart
des travaux de cette exposition ont été réalisés avec de tels logiciels.
Peut-être que certains ont des questions sur le type de logiciel
utilisé pour créer certains de ces travaux.
Récemment, les instruments de création d'installations interactives et d'art génératif
sont devenus de plus en plus accessibles. C'est super, car de plus en plus de gens
s'impliquent dans ce genre de pratique artistique.
Cela devient un hobby pour beaucoup, et ça génère du mouvement.
A la base, l'art génératif à évolué dans la célèbre sous-culture demoscene,
qui a démarré avec le développement des ordinateurs dans les années 70-80,
plus encore celui des PC.
Les demoscenes créaient des graphiques et visuels sans but particulier,
pas pour les jeux vidéos, simmplement de l'art pour l'art, créant toutes sortes d'effets spéciaux.
Voici ici la photo d'un meeting demoscenes dans les années 90 aux USA.
VOici son équivalent en Russie, au Chaos Construction Festival à St Petersbourg.
Demos font des choses similaires aux jeux vidéos, mais avec des scénarios très stricts, fermés.
C'est généré par un programme; l'élément artistique ne tient pas seulement
aux visuels générés comme résultat, mais aussi à la source code utilisée.
Je souhaiterais mentionner que ceci est bien sûr un enregsitrement vidéo,
mais le fichier source est fait seulement d'une douzaine de kilobytes maximum,
et tous les visuels sont rendus en temps réel.
Tout est créé par un code et peut être perçu comme un jeu vidéo
qui fait son rendu image par image.
Oui, à la "vieille époque", quand le démoscène était florissant,
il y avait une compétition entre codeurs et artistes pour créer les plus petits fichiers possible.
En fait, il n'y avait aucune obligation de faire ça au moyen d'un code,
c'était juste pour le fun. Le demoscene est donc une sous-culture très spécialisée,
quelque chose attirant les geeks et les maniaques de codes.
Il n'y avait pas vraiment d'artiste impliqués, et ce n'était pas interactif.
Et c'était le but, de faire ça purement pour le codage,
de pouvoir relier certains paramètres des images générées à certains événements
et faire marcher ça sur l'instant.
Le tournant fut l'apparition de la bilbiothèque OpenCV en 1999. CV est pour Computer Vision.
Pour la première fois tous les instruments pour l'ananlyse d'image étaient rassemblés.
Avant cela chaque programmeur devait inventer sa propre mécanique, il n'y avait pas de plateforme commune.
Cette bilbiothèque évolue encore aujourd'hui, et la plupart des installations interactives
que vous pouvez voir à l'exposition Decode l'emploit d'une façon ou d'une autre.
C'était donc en 1999. La deuxième phase pour la popularitsation de l'art génératif
et des installations interactives est venue
avec le développement de la bibliothèque Processing un environnementde programmation, open source sur Java.
La particularité de Processing est sa grande communauté de personnes
intéressée par le graphisme, pas seulement des geeks, mais aussi des artistes.
Actuellement Processing rassemble la communauté la plus grosse et la plus documentée.
Il existe aussi quelques livres, dont un s'appelle "Processing pour artistes visuels"... etc.
L'art génératif et les installations interactives émergent donc d'un milieu numérique,
mais pour les gens travaillant aujourd'hui dans le domaine, la beauté du code source n'a pas de sens;
ce qui compte c'est la beauté des graphismes générés.
Vous voyez ici ce qu'on peut faire avec Processing. Cette installation est à l'exposition Decode.
Prenons par exemple un superbe projet de danse contemporaine,
créé par un de nos amis. Il utilise le tracking d'objets en mouvement.
Ici vous pouvez voir ce tracking.
Ici, vous pouvez voir, ce programme, vous avez juste à l'allumer,
et il s'occupe automatiquement du reste, presque.
Processing est devenu le 1er instrument parmi bien d'autres outils à être construit
sur un langage particulier, ce qui rend la vie facile à l'artiste,
et aide quelqu'un qui n'a pas envie de se plonger en profondeur dans le codage.
L'autre produit est OpenFrameworks. En fait il utilise les mêmes principes que Processing,
mais a été contruit sur un langage plus avancé et productif,
à savoir C++. Il est maintenant très utilisé, ce travail en est un exemple.
La caméra est installée sur le panneau d'affichage et filme les passants dans la rue.
A l'image s'ajoute une main, qui pousse ou déplace les passants; une sorte de main divine.
Ce qui est réellement génial avec ce genre d'installations n'est pas que c'est bien fait,
il y a des tonnes de choses bien faites dans le genre.
Ce qui est génial, c'est le simple fait que ça ait lieu.
Que quelqu'un ait commissionné un tel travail pour un espace public, dans un centre ville.
Je n'ai pas encore vu de tel bienfaiteur dans notre pays pour l'heure.
Ce qui rend OpenFrameworks différent de Processing est qu'il est plus productif.
Mais il a quelques désavantages, il est plus lent, et sa communauté est moins importante.
Cette installation fait partie de l'exposition Decode, utilisant OpenFrameworks.
Elle a été réalisée par Mehmet Akten, un artiste basé à Londres.
Il a également beaucoup travaillé au développement d'OpenFrameworks,
en créant notamment une bilbiothèque pour la simulation de liquide, utilisée ici.
Malheureusement, le vidéo projecteur utilisé à l'expo n'est pas très puissant,
il manque donc quelque chose à l'installation.
Nous avions vu ce travail au festival Yota Space, et ça rendait beaucoup mieux.
Ce travail s'appelle Body Paint. C'est un travail de haut niveau.
Pour de telles installations les gens sont placés en face de l'écran, filmés de devant ou derrière,
et leurs actions sont reflétés, reportées dans un environnement.
Je vous montrerais sûrement à la fin comment Mehmet a réactualisé cette installation pour Toyota
pour que vous ayez une idée de la façon dont une création peut être utilisée dans un but commercial.
Cette installation aussi était au festival Yota Space. C'est un mini écosystème,
représenté par des maisons en cubes qui peuvent être déplacées.
Certains cubes sont utilisés comme obstacle à la lumière, et un en est la source.
Quand vous le bougez, vous changez la position du soleil et les ombres bougent en fonction.
Je voudrais aussi vous parler d'une série d'outils nodaux connus pour la création de contenu.
Ils ressemblent à cela, on peut voir les données et algorithmes utilisés
et connecter ces nodes par câbles, puis transmettre les données.
Cela peut être aussi représenté par Max/MSP,
qui fut d'abord créé pour des musiciens et est exploité depuis un bon moment maintenant.
Le module Jitter fut ajouté plus *** pour permettre de travailler avec des graphiques.
Généralement, ceux qui travaillent hors des codes trouvent que c'est une meilleure
façon de travailler. Mais en fait, si vous travaillez avec un algorithme compliqué,
ça peut rapidement ressembler à ça. Surtout si vous n'oganisez pas bien les choses.
VVVV appartient aussi à cette catégorie d'environnements de programmation, il est adoré
de beaucoup, et est grauit pour Windows OS. Max/MSP est payant et développé pour Macintosh à la base.
VVVV est très utilisé pour le mapping. AntiVJ par exemple l'utilise.
En fait il est très populaire en Russie.
TouchDesigner mérite aussi de l'attention. Il est assez spécial,
car il est dérivé de Houdini, logiciel utilisé pour la création graphique 3D.
Pour ceux qui ont déjà des compétences en graphisme 3D il sera aisé à gérer,
car il est quasi idntique à Houdini. Il utilise les mêmes catégories d'objets, etc.
Il a une interface très attrayante. Alva Noto, par exemple, a fait avec le visuel de la musique
de Ryiuchi Ikeda, et d'autres concerts. Chaque note est visualisable dans le node, sur cette interface.
Si vous enlevez un signal audio par exemple, cela affectera la vague ou autre chose.
Il y a des milliers de possibilités de visualisaion. Votre écran sera rempli de graphiques,
et dans chaque module quelque chose se passe en fonction de la musique.
Ce rend vraiment bien, au final vous aurez un visuel combinant tout cela,
faisant le rendu en arrière-plan.
C'est très joli, et le fait que ce soit sur Houdini est aussi un vrai plus.
- Et dans quelle mesure c'est pratique ? Je vois juste un nuage de blocs ici,
et j'imagine qu'une personne qui démarre peut être rapidement perdue là dedans.
Par exemple, on modélise une boîte sur 3D Max, puis une autre boîte à l'intérieur de celle-ci, etc.
un peu comme des couches. Sur ce graphique...
- Ici, on a des boîtes, des contextes, à l'intérieur desquelles on place de la géométrie,
de l'animation, etc. Ca peut être structuré d'une certaine façon, mais j'aurais tendance
à dire que si vous contruisez ce graphique, vous saurez quel node contient quoi.
- Par exemple des architectes intègrent aussi des outils génératifs comme Grasshopper aujourd'hui,
et ça donne le même genre d'image. Ils travaillent dans une approche artistique,
un travail par balayage : il y a une boîte ici, une autre là, et ensuite il faut tout rassembler.
-Oui, mais il faut faire très attention avec cette approche à ne pas perdre trop de temps,
et ce qui fait la particularité de TouchDesigner est son système pour 3D
spécialement pensé pour le rendu interactif. J'ai attendu cela longtemps.
- En fait, ce n'est pas totalement un logiciel de 3D.
On peut l'utiliser pour du VJing, faire de la composition en temps réel...
Ca vous donne donc la possibilité de travailler dans un espace 3D, sans limite.
Vous pouvez l'exploiter au max : faire du modeling, des réglages, etc.
En d'autres termes, vous pouvez faire des choses dont les autres logiciels sont incapables.
- Oui, car la création de graphisme en elle-même, en utilisant ce genre de boîte sur Max/MSP
or VVVV, n'est pas facile. Mais ce genre de chose est bien géré par les logiciels de 3D,
donc il est bien qu'apparaissent ce genre de logiciels. Voici exemple
de la façon dont c'est utilisé par un célèbre musicien et producteur techno Richie Hawtin.
Ce n'est pas très compliqué techniquement, juste un égaliseur sympa.
Cependant, on sait que ce musicien utilise souvent TouchDesigner sur ses visuels.
Il est surprenant qu'il y ait si peu d'exemples
de bons travaux fait avec TouchDesigner.
Je vais ajouter qu'une bonne perspective de développement se trouve dans
l'utilisation de moteurs de jeu dans la création d'installations interactives, car c'est la même chose.
Les toutes premières applications interactives étaient faites pour jouer avec un clavier et un joystick.
Les installations interactives impliquent normalement un spectateur, ou son image,
et beaucoup de tâches habituelles ont été résolues par les jeux, dans cette optique.
C'est bien de les utiliser. Par exemple, si on utiliser un personnage,
il peut être déjà animé. Voici une installation réalisée
avec Unity et OpenFrameworks, avec un personnage interactif.
Elle réagit aux mouvements, et a la vitesse du mouvement.
La caméra est placé au dessus des portes. Elle localise le spectateur,
transmet les données au moteur de jeu, et le personnage réagit en fonction. Les technologies sont combinées.
Je voudrais ajouter que les jeux comme la Xbox Kinect gagnent vite en popularité.
La Kinect est une caméra stéréo produite pour Xbox ayant des outils de développement pour PC et Mac.
Beaucoup de designers interactifs et media essayent de comprendre comment ça marche.
Sa particularité est que c'est une caméra stéréo qui peut mesurer la profondeur.
Chaque point est localisé non seulement sur un axe x-y, mais z également.
Elle peut reconnaître un squelette. Quand vous vous rapprochez de la caméra
vous voyez votre reflet dans un personnage imaginaire, qui répond à vos mouvements.
Ce qu'on veut dire, qu'avec un outil à l'apparence aussi simple que la kinect,
on s'attend à ce que beaucoup de travaux interactifs se retrouvent dans des musées, dans la rue...
Des vitrines interactives, tous types de manipulations d'écran se basent sur cette technologie.
Cette année et la prochaine, les technologies interactives vont se développer très très vite.
- Oui, on prévoit une année Kinect. - Oui, c'est ça.
L'art interactif se développe aujourd'hui, le public grandit.
Les moyens logiciels et techniques nécessaires ne sont pas encore totalement développés,
et les passants ou visiteurs ne sont pas encore habitués à cela, à l'interaction.
Donc pour l'instant seulement les outils les plus simples sont exploités pour l'interaction.
pour l'instant on bouge la main, on presse des boutons, etc. Mais ça reste une action en elle-même,
il n'y a pas d'histoire ou de déroulement par delà (encore une fois, pour le moment).
L'exposition Decode pose certaines questions, car certains travaux datent vraiment.
Personnellement, je pense que la moitié des oeuvres ne devrait pas être exposée.
Dans tous les cas, l'interaction avec les spectateur se limite à sa présence
ou son absence autour de l'installation.
Je pense que dans le futur, quand le visiteur y sera plus sensiblisé,
ce qui est un processus long, les artistes développeront
des moyens d'interactions avec le public plus complexes.
- Est-ce que je pourrais vous demander quel programme vous recomandez pour
un total débutant, mais aimerait faire du mapping et produire des oeuvres interactives ?
- En fait, pour le mapping, il n'est pas nécessaire de savoir faire de la programmation,
car le contenu de mapping architectural, par exemple,
peut être réalisé par des programmes comme AfterEffects ou autres.
Un logiciel est seulement nécessaire pour ajuster l'image une fois sur place.
Généralement on utilise une sorte de serveur media. Peut-être que Yan veut ajouter quelque chose...
- Dans le contexte, pour du mapping chez soi, Modul8, Granul8 ou Resolume,
n'importe lequel va très bien. Si vous avez par exemple
4 surfaces, deux murs, un sol, un plafond,
avec Resolute ou Modul8 cela se gère sans aucun problème.
On parle ici de mapping en intérieur, on extérieur c'est différent vous aurez besoin
certainement d'autres projecteurs qui sont trop chers pour faire du simple loisir.
Si on parle d'outils pour installations interactives,
je vous conseille de commencer par apprendre Processing,
car il possède la plus grande et la plus documentée des communautés.
Vous pouvez aussi apprendre à manier des outils tels que VVVV ou Max/MSP,
Vous pouvez faire des esquisses rapides et compréhensibles avec ceux-là.
Je dirais que quel que soit le système que vous choisissiez, même s'il semble
simple qau premier abord, doit faire l'objet d'un apprentissage.
Choisissez un système, puis concentrez-vous dessus, prenez le maximum qui peut en être tiré.
La communauté est énorme, il y a des tonnes d'exempes, tout est diponible librement.
Tout est très bien renseigné. Max/MSP a une section d'aide géniale,
vous pouvez trouver n'importe quel sujet, voir des exemples au cas par cas.
Tout est bien expliqué. Honnêtement, si vous voulez apprendre, vous pouvez.
Je ne vous pas l'intérêt d'apprendre trois programmes différents,
car ils vous donnent des résultats presque similaires.
Certains ont peut-être un meilleur débit,
mais dans l'ensemble je pense qu'apprendre à la fois VVVV et Max/MSP est inutile.
- Merci, et concernant l'équipement, de quel genre de projecteurs et autres
ai-je besoin pour commencer ? Quelle caméra, quels capteurs infrarouges choisir ?
Le conseil quant au choix d'un projecteur à grande échelle devrait être donné par un pro,
car ça dépend. Pour du mapping chez vous vous pouvez utiliser n'importe quel projecteur "large".
Si vous avez une petite salle, il vaut mieux choisir un projecteur avec une lentille à angle large.
De mon expérience, pour de l'intérieur, surtout si vous éteignez la lumière, 5.000lm suffisent.
Avec 10.000 c'est parfait. En extérieur, 20.000 et plus, même 30.000, c'est...
oh pardon, on parle seulement d'intérieur, c'est ça ?
Pour faire simple, tout le monde démarre avec un petit projecteur intérieur.
Et dès que vous éteingez la lumière, c'est très bien.
- Un choix courant pour les installations ineractives est la caméra de la console Sony PS3.
Pafois les gens la modifient en ôtant la lentille
et en en mettant une autre qui ne filtre pas la lumière infrarouge.
Cette caméra est particulière par sa vitesse; vous pouvez avoir 60 images/sec
contre les 24 habituelles.
- Est-il vrai que ces programmes peuvent interpréter n'importe quel genre de signal ?
Disons que si j'ai un capteur, est-ce que je peux utiliser des valeurs données en tant que source
pour l'alimenter et les transformer en images, par exemple ?
- Oui, vous avez raison. - Avec n'importe quel capteur existant ?
- Oui c'est ça. Peut-être que l'on devrait parler de L'Esprit des Fleurs ?
- Oui. C'est une installation... C'est un processus très lent en fait.
L'Esprit des Fleurs est basé sur l'idée que vous pouvez approcher des fleurs
et entamer une communication télépatique avec elles, échanger des émotions.
On envoie un message mental à une plante en face de nous,
puis on collecte des données de signaux électriques produits par la plante, ensuite
visualisés sur ordinateur avec Processing ou C++. Le résultats dépend des donées de la plante.
- Donc vous lisez des données de plantes, pas d'humains ?
- On peut avoir l'air d'être devenus fous, mais il existe des expériences par Cliff Baxter
qui affirme avoir prouvé que les plantes sont hypersensibles et réagissent à nos intentions.
- Cliff Baxter, c'est l'inventeur du détecteur de mensonge.
- Donc c'est une expérience ou vous savez ce que vous faites ?
- Non, pour l'instant on expérimente. Et le processus est très très lent.
Les plantes ne nous parlent pas, en fait !...
- ...Où allez-vous parlez de cett recherche ?...
-... On ne perd pas expoir, Baxter a décrit tout ce qu'il a fait avec les plantes.
Par exemple, ils avaient des pensées méchantes envers les plantes, comme celle de les brûler.
Cette plante qui était relié au détecteur,
enregistrait alors des signaux actifs car la plante s'inquiêtait.
Et quand tout va bien, il n'y a pas de signal. J'adorerais voir ça de mes yeux.
La raison pour laquelle on vous dit cela est celle des capteurs.
Vous pouvez bien collectez des données de n'importe quelle source.
Tout ce qui peut être mesuré peut être organisé en une matrice de données,
et cette matrice de données peut être arrangée grâce aux programmes dont on a déà parlé.
- Merci beaucoup pour ce cours très intéressant.
- Je voudrais réjouter que l'on travaille en étroite collaboration avec l'Académie Audiovisuelle.
Ce sont des amis qui fournissent des services éducatifs en ligne pour apprendre ce que l'on fait.
Voici ici la description des programmes et leur adresse web.
C'est gratuit, en ligne, allez y faire un tour.
Tout le monde peut y trouver du contenu intéressant, des conseils de professionnels,
des leçons de création de contenu, de mapping, pour VJ, etc.
Pour les techniciens et tous ceux qui aiment toucher le matériel, il y a aussi des leçons.
Il y a donc divers programmes.
- Bientôt il y aura également des leçons sur les technologies interactives.