La carte en temps réel

Jean Cristofol

Des logiciels comme Google Earth, des systèmes de géolocalisation comme le GPS, la multiplication des appareils mobiles qui intègrent des fonctions de communication et de production d’images et de sons dans des usages eux-mêmes géolocalisés, mais aussi le développement des jeux qui nous permettent de vivre l’action dans un espace de type cartographique, tous ces dispositifs, avec les expériences qu’ils génèrent, témoignent de la façon dont notre relation à l’espace et à sa représentation s’est transformée depuis plus d’une vingtaine d’années. L’idée de la carte elle-même s’est modifiée et avec elle les disciplines liées d’une façon ou d’une autre à la cartographie. Ces transformations ont des conséquences multiples, dans des domaines extrêmement différents, qui vont des manières de faire la guerre au développement des échanges commerciaux, des dispositifs de surveillance et de contrôle des personnes et des communications aux pratiques artistiques.

 

1)  Il y a bien des façons d’illustrer ces transformations. On peut par exemple rappeler que c’est dès les années 1980 que l’on a vu le commerce maritime commencer à lier l’apparition du container et avec lui l’homogénéisation des flux marchands, avec des sys- tèmes d’informations qui permettraient de suivre, en temps réel, le mouvement des « boites » en fonction des routes maritimes et des conditions financières des transactions marchandes(1). Dès alors, le rôle de la carte était en train de muter. Il ne s’agissait plus seulement d’assurer la sûreté des trajets et de penser le théâtre des échanges, mais d’agir sur les destinations des marchandises, de rationaliser l’organisation des chargements, de spéculer sur la valeur des biens et des monnaies. On était en train de passer de la carte constituée comme une représentation arrêtée du monde à des technologies de l’espace qui constituent des outils de traitement des données « en situation ». On voyait apparaître les prémisses d’une nouvelle façon de se situer comme « acteur », ou comme agent d’une logique intégrée, celle d’un processus où le point de vue serait à la fois celui d’une vision générale et celui d’une action particulière dans le  temps et le lieu de la circulation des marchandises.
Un exemple comme celui-ci nous donne déjà les moyens de mieux comprendre un aspect essentiel de ces transformations, qui touche à la fois au statut de la représentation, à la place du sujet dans sa relation à l’espace représenté, et à ce qui relève d’une forme de temporalité particulière, ce qu’on appelle le temps réel. Evidemment, il ne s’agit pas ici de s’en tenir à une définition purement technique de la notion de temps réel, qui caractériserait seulement certaines applications informatiques, comme celles qui assurent l’interaction de l’homme et de la machine dans un univers virtuel. Il ne s’agit pas de se satisfaire de l’idée que le temps réel résulterait de l’accélération des calculs informatiques, de la capacité des machines à traiter de plus en plus vite des masses d’informations de plus en plus importantes, même si cela peut certainement en être la condition technique. Il s’agit par contre de penser le temps réel comme un type de temporalité spécifique, propre à la circulation et à la régulation des flux, en particulier des flux d’informations, et des systèmes orientés vers un but au sens que la cybernétique des années 1940 avait pu en donner(2).

Cela signifie, par exemple, qu’il ne suffit pas qu’il y ait un effet de simultanéité pour qu’on puisse parler de temps réel. Le fait que deux événements soient simultanés ne signifie pas encore qu’il existe entre eux une relation susceptible de les unir dans une cohérence logique. Or, il faut, pour qu’on puisse parler de temps réel, qu’un événement soit associé à un autre par une relation qui les associe dans un mouvement d’ensemble. Mais il ne s’agit plus alors d’une simple simultanéité, il s’agit d’un processus complexe qui articule des mouvements différents dans une totalité constituée par des éléments dont les comportements sont solidaires et dans une relation d’ajustement réciproque. En réalité, la simultanéité relève d’une coexistence spatiale, elle ne suffit en aucun cas à décrire une forme temporelle. Dans la configuration spatiale de la carte, tous les points sont évidemment coexistants. La carte traditionnelle est statique et ce ne sont que par les trajets potentiels qu’elle dessine ou qu’elle suggère que des mouvements qui se développent dans le temps peuvent être signifiés. Au contraire, parler de temps réel suppose que, par exemple, le déplacement d’un élément dans la carte va modifier la carte elle-même ou, en tout cas, qu’il va modifier la situation d’autres éléments dont les comportements lui seront liés. Cela suppose que la carte se modifie en fonction de la variation des données qu’elle restitue ou/et en fonction de la situation de l’utilisateur. C’est bien le cas de l’automobiliste qui suit son trajet sur l’écran de son GPS. Il peut alors voir la position qu’il occupe sur la carte changer en même temps qu’il se déplace dans l’espace réel, ou plus exactement dans ce qu’on peut appeler « l’espace concret ».

 

2) C’est sans doute énoncer une évidence que de dire que les cartes sont des instruments de la connaissance de l’espace concret. Mais si l’on veut réfléchir à la question de la relation entre cartographie et temporalité et à la façon dont le développement des technologies numériques a transformé cette relation, c’est une réalité qu’il est bon de rappeler. Disons même que c’est une notion incontournable, ne serait-ce que parce que c’est ce qui constitue d’abord la dimension temporelle des cartes, qui nous parlent toujours de notre relation à l’espace dans lequel nous agissons, et qui en disent donc autant des lieux que des activités, des façons de vivre et des façons de connaître des hommes.

J’entends par « espace concret » l’espace géologique, environne- mental, historique, politique, économique, culturel, dans lequel nous vivons, que nous parcourons, que nous organisons en y dessinant nos « territoires » et nos trajectoires, quelle que soit la forme ou le mode d’existence de ces territoires(3). L’espace concret est ainsi toujours marqué par des caractères particuliers, des configurations originales, des complexités singulières, qui l’opposent à l’espace abstrait de la géométrie. Et c’est bien de cette réalité toujours différente que les cartes s’efforcent de rendre compte.

Bien sûr, l’histoire du développement de la cartographie est celle de la codification des représentations, de leur constitution comme modalités efficaces et partageables de la connaissance. Il y a au moins deux aspects dans cette formalisation : celui de la mise en place d’un vocabulaire  graphique  et  symbolique  conventionnel et celui de la modélisation des techniques de représentation de l’espace. De ce dernier point de vue, elle est inséparable de l’exercice de méthodes géométriques et en général de l’application des principes de production de l’espace abstrait sur l’organisation de l’espace concret, tel qu’il s’ouvre à la curiosité des hommes, à la préparation de stratégies militaires ou à la compréhension des circulations marchandes. Ce mouvement d’élaboration d’une science cartographique, qui articule une méthode géométrique à une représentation singulière, semble remonter très loin, peut-être jusqu’au vième siècle avant J.C., avec Anaximandre de Milet, élève de Thalès. Mais si l’histoire de la cartographie est profondément marquée  par les chemins qui ont pu être inventés pour rendre rigoureuse la représentation du monde, c’est bien vers cette représentation que les cartes sont entièrement orientées, c’est dans cette fonction de production imagée qu’elles trouvent leur but et leur sens. De ce point de vue, elles représentent une forme majeure de la connaissance des choses particulières(4).

Or c’est là un trait qui doit être souligné parce qu’il est rare et pré- cieux. Aristote disait que la science « consiste dans la connaissance de l’universel(5) », et il soulignait le caractère inconnaissable des individus. Toute connaissance revient toujours à dégager de la mul- tiplicité et de la variabilité individuelle, des constantes, des récur- rences, des principes d’organisation, des types et des catégories. La science irait donc du particulier vers le général, jusqu’à trouver sa légitimité rationnelle dans l’énonciation de lois universelles. La carte part peut-être du particulier et elle opère par modélisation, mais c’est bien pour revenir au particulier, pour parvenir à en rendre compte de façon à le constituer comme une réalité intelligible. Il y a de ce point de vue une relation profonde entre la carte et le récit, comme, évidemment, entre la carte et l’image(6). De la même façon, l’intelligibilité cartographique est d’abord une intelligibilité de l’interprétation et de la compréhension des situations. Elle relève d’une herméneutique qui trouve son critère de validation soit dans sa capacité à satisfaire le besoin de se situer et de trouver sa place dans un ordre imaginable (si ce n’est dans un ordre imaginaire), soit dans sa capacité à éclairer la décision, à orienter l’action, à per- mettre la prévision des événements.

Ainsi, si les cartes participent d’une connaissance de l’espace, le fait qu’elles s’intéressent à la particularité des configurations géographiques, dans leur variabilité et leurs changements, ainsi qu’à l’interprétation des configurations qui sont mises en œuvre dans l’espace concret, et à la décision ou à l’organisation de l’action, laisse apparaître une relation fondamentale au temps. D’une certaine façon, ce dont nous parlent les cartes, c’est autant du temps, ou plus exactement des temporalités (géologiques, biologiques, historiques, politiques, économiques, etc.), que de l’espace, ou pour mieux dire, c’est de l’inscription dans l’espace de phénomènes temporels. Une carte nous renseigne sur des processus en les restituant dans leur mani- festation spatiale à un «moment» donné. Elle se construit dans une relation à des données qui doivent être produites et traitées selon des modèles théoriques et des techniques propres à une époque. Une carte détermine ainsi un ou des points de vues qu’elle articule et qui prennent sens par rapport à un contexte scientifique, culturel et historique. Une carte engage des pratiques qu’elle a pour fonction d’éclairer, d’accompagner, de refléter.

 

3)  Or voici que les modèles dans lesquels se construit la représentation cartographique ne sont plus seulement des modèles qui abstraient et articulent les territoires dans des figures fixes, lisibles et interprétables. L’objectif est de plus en plus de traiter des données, de les organiser, de mettre en place des modèles et des processus automatisés de traitement de l’information. On voit apparaître de nouveaux « objets » de la représentation spatiale qui ne s’appuient plus seulement sur la fixité des éléments structurants mais sur l’émergence de configurations identifiables, des variations et des récurrences qui vont constituer des phénomènes, des « objets » repérables et significatifs, capables de déterminer des stratégies d’action. La carte n’est plus une représentation statique mais un cadre qui permet de faire apparaître la dynamique des transformations et des déplacements.

 

Cette transformation ne concerne pas seulement la production, la captation et le traitement des données, elle touche aussi à l’accès et à l’utilisation des formes cartographiques. A la représentation de l’espace s’est ajoutée la formalisation et la visualisation d’informations dans l’espace. De plus en plus, la carte devient une matrice qui permet de démultiplier et de combiner des approches et des points de vue. Elle devient un espace stratégique où se combinent des éléments fixes et des configurations mouvantes, des processus lents et des séquences rapides, qui déterminent des évolutions possibles, des hypothèses prédictives et des décisions.

 

Ces évolutions ont transformé notre relation quotidienne à la représentation cartographique. On peut maintenant agir sur la carte, la modifier, y inscrire des repaires, y indexer des photos, par- tager des informations. Avec un projet comme OpenStreetMap(7), la carte devient une œuvre collective et un outil de travail librement accessible à tous. La carte peut être le résultat de l’intervention de chacun, à partir du point particulier du territoire qui est le sien. Mais on peut aussi s’y déplacer et y percevoir en temps réel notre déplacement. L’automobiliste auquel il était fait allusion tout à l’heure, qui suit le trajet dessiné par son GPS, se déplace à la fois dans le territoire et dans la carte.

 

Dans un billet publié en 2006(8), Daniel Kaplan reprenait la célèbre formule d’Alfred Korzybski suivant laquelle « Une carte n’est pas le territoire(9) », pour annoncer que la formule contraire étaient maintenant devenue aussi vraie, que la carte fait territoire et qu’elle est un territoire. Évidemment, entre les deux, le sens de la proposition a changé, ou plus exactement, la formule inverse ne vient pas nier ou abolir la formule première de Korzybski. Chez ce dernier, il s’agissait de souligner l’écart essentiel entre le langage et la réa- lité, et plus particulièrement entre la connaissance et son objet. Toute connaissance est une construction – comme telle, elle vient constituer le monde dans une architecture qui ne l’épuise jamais et qui doit pouvoir rester ouverte, transformable, évolutive, critique. Dans cette optique, la formule de Korzybski vient donner à ce qu’il appelle « La sémantique générale » ses prémisses, avec trois propositions qui sont présentées comme autant d’aspects d’une même analogie :

1. Une carte n’est pas le territoire. (Les mots ne sont pas les choses qu’ils représentent.)

2. Une carte ne couvre pas tout le territoire. (Les mots ne peuvent pas couvrir tout ce qu’ils représentent.)

3. Une carte est auto-réflexive. (Dans le langage nous pou- vons parler à propos du langage.)

 

Le renversement par Kaplan de la formule de Korzybski ne constitue pas un instant une remise en question de sa validité épisté- mologique, elle ne vient pas la contredire. Elle opère plutôt un déplacement. C’est maintenant la représentation construite qui est devenue un espace dans lequel on peut agir. Elle est à son tour devenue un territoire, du fait même qu’elle est manipulable, ajus- table, transformable, parce qu’elle n’est plus un objet que l’on pose devant nous mais plutôt une configuration à l’intérieur de laquelle nous nous trouvons transportés.

« Oui, écrit Kaplan, l’expression sensible du monde livrera toujours autre chose que sa simulation ou sa représentation. Mais la  nouveauté d’aujourd’hui tient peut-être à ce que désormais, l’inverse est aussi vrai. Observons comment les habitants de Second Life se libèrent de leurs inhibitions dès lors que le monde qu’ils habitent n’est plus que sa carte ; comment se partage l’expérience sensible des lieux au travers des «flèches jaunes» et autres autocollants géolocalisés ; ce que produisent les expériences (physiquement impossibles ou au moins très dangereuses) de survol du Grand Canyon en 3D, qu’on imagine bien sûr très vite vivre à plusieurs, pour le plaisir ou la compétition… On vit dans la carte ; on l’enrichit ; on la partage ; on la clique ; on la tisse avec le territoire sensible; on la déforme pour imaginer et débattre d’avenirs possibles(10)»

Ce qui est en jeu dans ce déplacement, ce n’est pas la carte comme construction théorique, forme de connaissance, ni même la carte comme représentation, comme image. C’est l’idée que la carte n’est pas seulement une figure, mais un environnement dans lequel on peut agir, un espace où la pratique se déploie et que la pratique vient mettre en œuvre comme une forme qui structure l’action. Ce qui apparaît ainsi suppose de nouvelles façons d’articuler la connaissance et l’action, la théorie et la pratique.

 

4)   Pour aller jusqu’au bout de ce qu’implique la formule de Korzybski, il faut franchir encore un pas. On y trouve clairement une affirmation « constructiviste », qui marque l’écart nécessaire entre la construction du savoir et la réalité dont elle rend compte. Mais il faut encore comprendre que cette construction, qu’elle soit une élaboration théorique ou une représentation imagée, ne fait pas que rendre compte d’une réalité extérieure déjà présente. Elle contribue aussi à la produire, à la constituer. Les images que nous produisons du monde ne sont pas seulement le reflet de la réalité, elles contribuent à y situer des «objets» qu’on peut désigner et donc percevoir comme des éléments distincts, des « choses » sur lesquels on agit, qu’on modifie, ou qu’on identifie et qu’on organise. Et si on prend au sérieux la figure de la carte, la formule de Korzybski nous engage à comprendre que l’espace concret constitue à la fois une réalité objective à laquelle nous nous trouvons confrontés, et que c’est aussi un produit, le résultat de notre activité, le résultat aussi de nos façons de penser, de connaître et de construire le monde dans lequel nous vivons.

De ce point de vue, les cartes doivent être reconnues à la fois comme une tentative de rendre compte d’une réalité et comme une façon de structurer cette réalité, de la modeler, de la produire, non seulement en la représentant et en la modélisant, mais en y projetant des points de vue, des intentions, des intérêts et des valeurs. On se souvient par exemple de la façon dont Peters, dans les années 1970, avait contesté la légitimité acquise de image du monde qui, à travers le modèle de la projection de Mercator, privilégiait les pays de l’hémisphère « nord » par rapport à ceux qui se trouvent dans la zone de l’équateur(11). Il avait alors proposé d’autres façons de repré- senter le monde, d’autres types de projections, qui devaient donner une meilleure idée de l’importance relative des continents.

Aujourd’hui, l’étude des frontières politiques nous donne un enseignement dont la portée est peut-être encore plus grande. On assiste, depuis une trentaine d’années au moins, à un proces- sus rapide de transformation des frontières(12). Alors que la chute du mur de Berlin semblait annoncer un monde plus ouvert, on n’a jamais vu autant de murs et de barrières s’élever et clôturer les territoires. Alors que certaines des frontières anciennes dispa- raissent ou sont intériorisées dans des unités plus larges, beau- coup de nouvelles frontières apparaissent et témoignent d’une fragmentation des groupes nationaux. Pendant que la circulation des hommes, ou plutôt de certains d’entre eux, les moins nantis, devient de plus en plus restreinte, de façon parfois incroyablement violente, l’espace économique subit une forte pression pour que s’efface l’obstacle des limites politiques, et les flux de capitaux sont parvenus à échapper très largement à leurs contrôles. D’une façon plus générale, c’est sans doute la nature même des dispositifs de contrôles et de leur application dans l’espace qui est en train de changer. On voit ainsi se juxtaposer et s’articuler au moins deux logiques, d’une part celle qui passe par le dessin de lignes qui partagent l’espace et tracent des territoires et des zones, d’autre part celle qui passe par la dynamique de la circulation des flux entre une constellation de noeuds, et qui structure l’espace en faisceaux, en trajectoires et en points de passages ou/et de stockages.

La première logique s’est développée de façon dominante depuis le xviième  siècle, et elle s’est  accompagnée du développement de   la cartographie moderne. Les cartes ont alors permis de fixer les frontières, non seulement parce qu’elles les représentent, qu’elles en dessinent les parcours et qu’elles les situent précisément, mais aussi parce qu’elles ont donné le cadre conceptuel et technique de leur production. Elles ont permis de concevoir les frontières linéaires, et elles ont été l’instrument grâce auquel on a pu les  reporter sur la surface accidentée des plaines, des côtes maritimes et des montagnes. La carte a été un instrument décisif de fixation, de stabilisation, d’organisation des territoires pensés comme des surfaces homogènes et continues. Elles n’ont pas seulement servi à représenter le monde politique, mais bien à le mettre en place, à le dessiner dans la matière même de la surface de la Terre.

La seconde logique accompagne la globalisation et s’appuie sur le monde de fonctionnement propre aux technologies informationnelles. Les modalités de la représentation des frontières, les formes qui permettent d’en avoir une expérience et une connaissance, les voies qui conduisent à les saisir comme des processus intelligibles et transformables ne relèvent plus des formes de la cartographie traditionnelle. La relation des frontières avec l’espace géographique ne consiste plus seulement dans le dessin de lignes continues ou de figures homogènes, mais elle se décline dans des dispositifs complexes, des éléments hétérogènes et des sphères spatio-temporelles de circulations multiples. L’espace concret, tel que ces processus le génèrent et le structurent, est devenu un espace dont la représentation échappe largement aux outils classiques de la cartographie. Les enjeux de la représentation sont manifestement liés au fait que les éléments structurants de l’espace ne sont plus d’abord des éléments statiques mais des éléments dynamiques, ce ne sont plus des choses ou des lieux, mais ce sont des flux et des noeuds ou des pôles entre lesquels ces flux circulent.

Or ces deux logiques coexistent. Elles ne sont pas les représentantes de formes sociales différentes qui viendraient se succéder, de sorte que l’une devrait progressivement laisser la place à l’autre, et  que  la  « logique  des  territoires »  devrait  s’effacer  devant la « logique des flux ». Les deux logiques ne font pas non plus que se superposer. Elles s’articulent et se combinent, elle s’opposent et se complètent. Il y a non seulement des flux différents par leurs trajectoires, leurs vitesses, leurs intensités, mais aussi par la nature même des réalités qui circulent, les hommes, les marchandises, la monnaie, l’information, les représentations ou les façons de vivre. Et à l’intérieur des même types de flux, il y a des échelles et des discriminations qui induisent des valorisations différentes et des façons profondément différentes – profondément inégalitaires – de circuler. Regardons simplement la situation des êtres humains, la différence entre le touriste pour qui la frontière est un seuil exo- tique et le migrant, pour qui elle est un obstacle qui détermine la possibilité même de son existence. Tantôt la frontière existe, tantôt elle n’existe plus, ou à peine. Tantôt la mobilité est un droit, tantôt c’est un modèle imposé au travailleur dans le cadre d’une société du travail précaire, tantôt c’est un espoir de survie et une quête inaccessible.

 

5) Ce ne sont donc pas seulement les cartes qui changent, mais notre relation à la carte et à l’espace cartographique. Historiquement, les cartes modernes ont produit un point de vue qui détermine la place du sujet dans sa relation à la représentation. On a beaucoup parlé de ce point de vue, surplombant, dominateur, peut-être même absolu sinon divin(13). Mais s’il nous place au dessus du monde, il pose aussi le monde devant nous comme une réalité extérieure, immobile, ramenée à la surface de la feuille. La carte nous livre traditionnellement l’image d’un monde qui se déploie devant nous comme une réalité potentiellement accessible mais parfaitement détachée, toute entière assujettie au regard. Il y a là un effet de distance qui a beaucoup contribué à l’affirmation du caractère  d’objectivité de la représentation cartographique. Plus largement, il participe à une conception du savoir qui présuppose le retrait du sujet et le surplomb de la vision.

Or l’idée que nous puissions agir dans la carte, nous y déplacer, y intervenir, complexifie considérablement la place du sujet par rap- port à la configuration cartographique. Contrairement à la perception surplombante d’une représentation objectivée sur la surface de la feuille, nous pouvons nous trouver immergés dans un univers dont nous sommes partie prenante. Penser le territoire comme une continuité spatiale définie par ses contours et les axes qui la structurent n’est pas la même chose que de penser la réalité spatiale qui est la notre comme un ensemble de flux qui développent des logiques de circulation différentes dans une totalité complexe.

Le premier cas de figure suppose que la connaissance passe par la projection d’une représentation objective du monde. Le second cas de figure implique qu’il ne saurait y avoir de représentation satisfaisante d’une complexité toujours mouvante dont on se trouve nécessairement partie prenante. Cette réalité est évidemment représentable, mais dans des approches inexorablement déterminées par un point de vue déterminé. Elle est évidemment connaissable, mais pas si simplement sous la forme d’une synthèse immobile et objectivable. La troisième formule de Korzybski, celle qui veut que la carte soit autoréflexive, suppose d’inventer d’autres formes de l’écart, d’autres modalités de la mise à distance, qui ne passent plus seulement par la projection d’une image fixe d’un monde arrêté.

D’autres démarches sont nécessaires, qui articulent la construction théorique sur des pratiques critiques et exploratoires. C’est certainement l’un des aspects importants des interventions que depuis une trentaine d’années les artistes développent sur les frontières. Penser les relations nouvelles à l’espace que les technologies de la mobilité, les nouvelles formes de géolocalisation, les systèmes géographiques de traitement de l’information et d’une façon plus générale la logique des flux et des réseaux qu’ils génèrent, passe par des stratégies qui articulent d’une nouvelle façon pratique et théorie, intervention dans les situations locales et représentations géographiques, mais aussi connaissance scientifique, activisme et pratique artistique(14).

Un exemple particulièrement convaincant de cette complexité est donné par la magnifique vidéo de Charles Heller et Lorenzo Pezzani(15), Liquid Traces, qui reconstitue, sur fond d’une image de la mer Méditerranée, la longue dérive d’une embarcation chargée de migrants, partie des côtes syriennes et abandonnée à son sort, alors même qu’elle est repérée et suivie par les radars militaires et civils et les nombreux bateaux qui croisent dans le secteur pour la pèche, le commerce, ou la surveillance des frontières. Il s’agit bien d’une vidéo et non d’une pièce interactive qui aurait mis en œuvre le temps réel par le jeu du visiteur. Mais ce qui s’y déploie, en 17 minutes, fait bien apparaître le jeu des formes du contrôle dans un monde de flux et interroge efficacement sur la place de chacun, la différence des points de vue, le rôle des hommes et des dispositifs de captation, le mouvement des eaux, des machines et des communications. Elle trace avec force et délicatesse la ligne froide qui conjugue l’effacement et le récit, la connaissance et l’oubli, l’espérance et la mort.

 

1.   Voir, par exemple, la note de synthèse de l’ISEMAR, http://www.isemar.asso.fr/fr/pdf/note-de- synthese-isemar-49.pdf

2.   En particulier l’article  de 1943 d’Arturo  Rosenblueth, Norbert Wiener et Julien    Bigelow,

« Comportement, but et téléologie », publié par Aline Pélissier et Alain Tête dans Sciences Cognitives, Textes fondateurs (1943-1950), Éditions des Presses Universitaires de France, Paris, 1995.

3.   La notion d’espace concret doit beaucoup à François Dagognet, en particulier : Une Épistémologie de l’espace concret, Éditions Vrin, 1973, et Pour une théorie générale des formes, Vrin, 1975.

4.   Dans ce sens, Michel Serres, Atlas, Editions Champs Flammarion, 1994, Page 17-18.

5.   Aristote, Seconds Analytiques, Livre 1, 31, Éditions Vrin, 1979.
6.   La relation de la carte à l’image est importante à un autre titre. D’un certain point de vue, la carte est une construction abstraite. D’un autre point de vue, elle est une image et elle parfai- tement reconnaissable en tant que telle. Ou plus exactement, nous reconnaissons bien dans la carte l’image d’un territoire. Et de ce point de vue, la carte nous apprend beaucoup sur ce que nous appelons les images. Nous avons tendance à considérer les images comme des doubles seconds de la réalité perçue, des reproductions, ou des imitations de quelque chose que nos sens nous présentent d’abord. C’est une idée largement renforcée par l’influence de la pensée de Platon. Mais la carte constitue un excellent exemple d’une image de quelque chose qu’on n’a jamais vu (tout au moins avant l’aviation) et qu’on peut toutefois parfaitement «reconnaitre». Peut- être devrait-on nous demander si les images sont si évidemment que ça des doubles fabriqués de la réalité perçue, ou si elles ne sont pas d’abord des réalités construites qui contri- buent à structurer la perception que nous avons du monde.

7.  http://openstreetmap.fr/

8.   http://www.internetactu.net/2006/09/01/la-carte-fait-le-territoire/

9.   Alfred Korzybski, « Le rôle du langage dans les processus perceptuels (1949-1950) », publié dans : Une carte n’est pas le territoire, Éditions de l’Éclat, Paris 1998.

10.     Daniel Kaplan, « La Carte fait le Territoire », http://www.internetactu.net/2006/09/01/ la-carte-fait- le-territoire/

11.     http://fr.wikipedia.org/wiki/Projection_de_Peters

12.     Voir à ce propos les travaux de l’antiAtlas des frontières : http://www.antiatlas.net/

On peut se rapporter au livre récent de Anne-LAure Amilhat Szary, Qu’est-ce qu’une frontière aujourd’hui ?, Éditions des Presses Universitaires de France, Paris, 2015.

13.     Par exemple, Christine Buci-Glucksmann, L’œil cartographique de l’art, Éditions Galilée, 1996.

14.     On se reportera, à titre d’exemple, au travail de Trevor Paglen (Experimental Geography: From Cultural Production to the Production of Space by Trevor Paglen, The Brooklin Rail, 2009) ou de Laura Kurgan (Close Up at a Distance, Mapping, Technology & Politics, Zone Books, 2013).

15.     On peut trouver le riche travail de Charles Heller et Lorenzo Pezzani sur leur site : http:// www.forensic-architecture.org/. On peut voir en ligne leur vidéo Liquid Traces : https://vimeo. Com/89790770

Jean Cristofol est professeur à l’École Supérieure d’Art d’Aix-en-Provence, où il enseigne la philosophie et l’épistémologie. Il est membre du comité scientifique et artistique de l’antiAtlas des frontières. http://www.antiatlas.net/

http://openstreetmap.fr/ http://www.internetactu.net/2006/09/01/la-carte-fait-le-territoire/ http://fr.wikipedia.org/wiki/Projection_de_Peters http://www.paglen.com/ http://www.zonebooks.org/titles/KURG_CLO.html http://www.forensic-architecture.org/

https://vimeo.com/8979077

 




Temps réel et temps de l’histoire. Archivage entre pérennité et ouverture, entre mémoire et art vivant, entre document et événement

Joanne Lalonde

Ce texte propose une réflexion sur l’archivage des patrimoines numé- riques tel que nous le pratiquons au sein des Laboratoires NT2, des laboratoires de recherche en arts et littératures affiliés à trois universités du Québec UQAM, Université Concordia et Université du Québec à Chicoutimi, laquelle mettra à contribution les notions de temps réel, de présent éternel et de temps uchronique.

 

La prolifération des cultures numériques pose des défis à la mise en valeur et à la conservation des œuvres de création artistique ou littéraire conçues pour l’ouverture contributive des réseaux. Nous travaillons aux Laboratoires NT2 à un grand projet de recherche en archéologie du contemporain nommé Observatoire de l’imaginaire contemporain lequel inclut un répertoire des arts médiatiques, une base de données qui se présente comme une collection sympto- matique de la création Web, des expositions en ligne, Abécédaire du Web et Speedshow qui visent à mettre en valeur les œuvres de notre collection et une revue de création BleuOrange qui invite des auteurs à créer, adapter ou traduire une œuvre de littérature hyper- médiatique, c’est-à-dire une œuvre littéraire faisant usage des technologies numériques et combinant au matériau textuel, des images fixes et animées ainsi que des sons.

Pour dire les choses le plus simplement possible, nous construi- sons une archive en direct de la création sur internet.

 

Cette archive répond à deux finalités principales, organiser le chaos discursif et la pléthore, ce matériel en développement continu qui échappe à toute saisie globale et collecter et conserver des traces afin de témoigner de diverses caractéristiques de cette culture à l’écran. Cette base de données est accessible en ligne gratuitement et ouverte à la communauté de chercheurs dans le domaine.

Le grand défi des études sur l’hypermédia a été jusqu’à maintenant la compréhension d’un phénomène en progression exponentielle. Un défi de taille qui se trouve en partie réalisé, mais dont l’exhaus- tivité restera à jamais inaccessible. Pour ce faire, nos recherches se sont principalement inspirées du principe de l’échantillonnage par captures d’images et navigations filmées et de l’indexation descrip- tive, à la fois d’œuvres références et de concepts clés. Du principe de l’échantillon, nous sommes passés au modèle de la collection, c’est- à-dire penser des stratégies de sélection et de mise en valeur de ces prélèvements révélateurs de la création et de la créativité, notamment par des pratiques de commissariat en ligne qui s’inspirent du modèle des environnements de recherche et connaissances (ERC), des dispositifs de diffusion de la recherche exploitant les potentialités dynamiques du Web sémantique, lequel permet de catégoriser et indexer les contenus afin de pouvoir les partager, dans cet esprit d’accès libre pour la communauté, mais aussi dans une perspective reposant sur le concept d’expérience et exploitant une diversité de documents et d’informations en développement continu. Les ERC sont aussi de la recherche en temps réel ou direct, et non seulement l’exposé de résultats finaux ou terminaux.

 

La question du « Comment penser la notion d’histoire de l’art en fonction de celle de temps direct » est centrale à notre réflexion.   Il faut œuvrer avec l’inattendu et l’intégrer dans nos méthodolo- gies de recherche, ce que les anglophones appellent le principe de Serendipity. D’autres questions subordonnées à la précédente apparaissent : quoi choisir, comment le faire et selon quels critères,

quelles méthodologies valoriser ? Que devons-nous préserver dans un contexte de langage hétérogène où l’image occupe certes une place centrale, laquelle se trouve toutefois amplifiée par le texte, le son, le mouvement ?

 

Notre première démarche a été de procéder par captures d’écran, une image fixe, un échantillon minimal pensé comme trace des sites/œuvres hautement volatils. Très vite il est apparu que ces fragments ne témoignaient que très partiellement de l’expérience polysensorielle que proposaient les œuvres. Nous avons donc par la suite archivé des microfilms, des navigations filmées, auxquelles ont été par la suite intégré des sons. Ces navigations filmées sont la principale matière de notre archéologie de la culture Web.

La nature même de notre objet d’étude a conduit à convenir de cer- taines stratégies méthodologiques. Voici un rappel de quelques points importants.

1)     La mise en commun des ressources. Ces types de conte- nus font valoir divers aspects des œuvres au moyen de des- criptions, d’analyses brèves ou enrichies, de documentation Média (capture d’écran, navigation filmée) et d’une taxonomie qui en souligne les modes d’interactivité. La mise en com- mun des ressources est donc chaperonnée par l’équipe du Laboratoire et est déterminée par le raffinement des infras- tructures Web développées par le NT2. Ces ERC ne réunissent pas simplement des données, elles les relient au moyen de mots-clés (taxonomie) qui permettent aux chercheurs d’avoir accès à des contenus connexes et thématiques. A la fois une lecture à distance ou distant reading (Moretti 2013), par la gestion du nombre, et une interprétation pointue, plus fréquent dans l’herméneutique universitaire.

2)      Établir un protocole de recherche basé sur l’expérience variable des œuvres (ou des textes) pour représenter un pro- fil type de l’œuvre.

3)     Ouvrir les données et leurs utilisations pour les communautés académiques.

4)      Concevoir des méthodologies de la recherche en crowd sourcing ou en externalisation ouverte auxquelles la communauté peut contribuer.

Comment documenter les expériences ? Il s’agit bien de cela, documenter une expérience, car les œuvres que nous documentons sont « praticables » comme le rappelle Emmanuel Mahé (2012),cette temporalité perceptive de l’internaute en action. Il ne s’agit pas d’analyser à distance un objet externe qui semble terminal. Nous documentons un parcours dynamique, à renouveler à chaque itération de l’œuvre, toujours en partie singulière selon son principe d’ouverture et d’in- détermination, mais qui propose tout de même des prescriptions et des protocoles que le spectateur doit reconnaître afin d’en garantir la maniabilité et la « jouabilité ». Les œuvres hypermédiatiques ne sont pas des ensembles donnés mais des invitations à la découverte et à la transformation. Le « faire » – c’est-à-dire les gestes de manipula- tion des interfaces, les déambulations dans et à travers l’œuvre – y est aléatoire, parfois individuel, parfois collectif.

Nous substituons donc la notion d’expérience à la notion d’œuvre, plus classique dans l’histoire de l’art. Comment alors conjuguer pérennité et ouverture, mémoire et art vivant, document et événe- ment, temps réel et temps de l’histoire, temps uchronique de l’expé- rience et temps anachronique du discours ?

Nos répertoires font cohabiter des sources d’informations de nature multiple : images graphiques, fiches descriptives, commentaires théoriques et critiques (trois manières de faire classiques de la muséologie), des navigations filmées lesquelles répondent égale- ment à notre mission d’archivage et de documentation de la culture Web par essence volatile. Notre modèle se veut donc un hybride entre la conservation et la diffusion et cette cohabitation, si riche soit-elle, génère des réflexions a posteriori.

Dans une conférence intitulée Temps de l’histoire et temps uchronique, penser autrement la mémoire et l’oubli pour ZKM en décembre 2010 sur le thème Digital art conservation, Edmond Couchot suggère de s’inspirer pour la diffusion et la conservation des arts numériques des modes d’opérations de la mémoire organique, plus flexibles que de ceux du « disque dur » c’est l’image qu’il utilise, le disque dur est un mode de conservation qui demeure tributaire de l’identité fixe et matérielle de l’œuvre. Les navigations filmées   que nous opérons aux Laboratoires NT2 relèvent du modèle du disque dur, elles représentent un passé accompli, une certaine certitude de l’œuvre du moins un témoignage de l’expérience, c’est la valeur d’ar- chivage exposée plus haut. Or peut-être y aurait-il un autre enjeu pour la diffusion des arts numériques, un enjeu qui ne serait pas tant de retrouver un événement passé dit Couchot mais de le récréer. C’est ici que le modèle de la mémoire organique pourrait devenir ins- pirant, celui par exemple du souvenir, lequel, on le sait, n’est jamais tout à fait le même quand il est revécu. Une mémoire plus imprécise qui construirait tout de même une histoire de l’art en transition.

 

Rétrospectivement, force est de constater que les différentes contraintes budgétaires et la volonté de retenir l’internaute dans l’environnement de notre site, nous ont conduit à choisir ce modèle de l’enregistrement  plutôt que d’explorer  d’autres  stratégies  plus « événementielles », lesquelles demeurent en grande partie à définir. Une autre question importante surgit alors : comment produire et transmettre des connaissances, à travers le texte et des images constantes sur des œuvres qui évidemment visent à produire (comme toutes pratiques artistiques) des effets et des affects dans le cadre d’une relative indétermination mais qui surtout se vivent dans un présent continu ? Où l’enjeu ne serait pas tant de « retrou- ver » quelque chose, un objet externe mais de le récréer comme art vivant. Bref ce que rappelle Edmond Couchot dans sa présentation : Comment capter ce volatil et en transmettre une trace vivante ?

 

Temps réel, présent éternel et temps uchronique
Revenons un instant à la notion d’uchronie proposée par Couchot (1998, 2007), définie comme une synthèse de plusieurs temporalités propre à la création numérique. Ainsi que l’affirme l’auteur, la plupart des dispositifs numériques interactifs peuvent être   considérés comme des simulateurs de temps uchronique, qu’il s’agisse de jeu électronique, de téléphonie mobile multifonction, de carto-graphie GPS ou de toute autre interface de navigation numérique.

En effet, le mode dialogique « mécanique » relatif aux interactivités endogène (dialogue entre les différentes composantes du dispositif numérique) et exogène (relation entre la perception humaine et la création numérique) entrainerait une révision de notre conception du temps, laquelle serait davantage liée à un « chronos » distinctif, écrit l’auteur (1998, p.141), un chronos ou temps de synthèse qui résulte des multiples opérations inhérentes au produit virtuel (différent de la genèse analogique), lequel s’autonomisera par rapport à une temporalité convenue ou factuelle. Le temps numé- rique, explique Couchot, est une simulation qui ne renvoie plus aux conventions universelles du temps : « Le temps de synthèse est un temps ouvert, sans orientation particulière, sans fin ni début (comme le film photographique ou la modulation scandée de la vidéo) un temps qui s’auto-engendre, se réinitialise au gré du regar- deur, selon les lois imaginées par l’auteur. C’est un temps uchro- nique » (1998, p.141).

Ce temps uchronique engendre donc un présent subjectif particu- lier, un « hors-temps » (2007, p. 208) qui ne suit pas un passé dont il témoigne et qui ne se répètera pas non plus dans un avenir qui le suit. « Uchronie », donc, d’un présent éternel, ou encore selon Couchot, de multiples présents originaires, des présents probables, qui s’actualisent par l’intermédiaire du dispositif.

C’est en ce sens que le temps numérique n’est pas un temps de re- présentation de ce qui a nécessairement préexisté au spectacle, mais un temps de présentation de ce qui se déploie devant nous par l’activité de la machine. Et ce temps de la machine rejoindra toujours le temps existentiel du percepteur dans l’expérience de l’œuvre, la notion de temps uchronique, synthèse de différentes temporalités, intégrant également la temporalité perceptive du spectateur.

 

Le temps du présent éternel
Pour discuter de la notion de présent éternel, je donnerai un exemple qui propose une occasion de vivre le temps de manière différente, la temporalité subjective de l’internaute étant mesurée  à celle « uchronique » du dispositif. Cet exemple est tiré de l’exposition en ligne Abécédaire du Web.

Adam’s CAM (2005) de Sebastien Longhman est une œuvre qui fait comprendre cette portée du « hors-temps » ou « des temps de présents probables » qui ne demandent qu’à s’actualiser dans l’expérience de l’œuvre. L’évocation du travail du film et de la vidéo y est importante. À la source de cette œuvre se trouve le point de vue, concept fondamental pour penser toutes pratiques artistiques, incarné par la caméra nommée dans le titre mais invisible comme dispositif, cachée mais pourtant centrale, car c’est par elle que nous pouvons voir la séquence unique de l’œuvre, celle d’une femme allongée que l’on regarde dormir. Plus que jamais ici, ce point de vue s’incarne par le regard que porte le spectateur sur la scène jouée et rejouée en boucle, dans un présent éternel et inépuisable.

Métaphore originelle ou scène primitive, la naissance de l’homme dans la culture biblique, ce regard d’Adam porté par la caméra numérique devient une renaissance de l’image pensée dans un hors-temps. Dans cette absence de repères temporels au sein de la diégèse, il n’y a pas plus de passé que de futur, mais un continu infini, insistant sur le présent affectif du spectateur et sur son temps de réception qui devient alors le temps principal de l’œuvre.

Toute l’expérience esthétique se recentre donc sur celui-ci, sur son regard qui se substitue à celui d’Adam alors qu’il explore l’œuvre à travers une interface simple qui lui permet de faire bouger légère- ment le personnage, lequel lui échappe en partie car il ne se tour- nera jamais de son côté. Qu’il soit témoin ou espion (les deux modes de navigation proposés pour l’accès au site), l’internaute se trouvera face à son propre regard, dans lequel s’affiche en caractères rouges le temps présent de sa réception (Tuesday, 24 may, 2011, 11:51:06, 11:51:07, 11:51:08) égrenant une par une les secondes d’une éter- nité infinie quoique rendue abstraite par la frontalité du spectacle. Comme une insistance sur le moment présent dans une urgence de voir et dans une violence relative où on ne peut plus raconter de la même manière, le spectateur se trouve alors, rappelle Couchot, « entre  deux  temporalités  antagoniques »,  oscillant  et  déchiré « entre le temps uchronique et le temps de l’Histoire » (2007, p. 279).

 

La notion de contemporain et le temps de l’histoire
Le propos de l’histoire de l’art est une reconstruction anachronique de l’objet. On le sait depuis les écrits de Daniel Arasse (2006) et de Giorgio Agamben (2008) et ce pour toute activité d’interprétation, même avec l’objet le plus voisin dans le temps, « le plus direct », il y a nécessairement décalage entre le discours et l’occurrence de l’œuvre. Encore aujourd’hui le matériau principal de l’histoire de l’art est l’image, la photographie occupant une place déterminante comme document, témoin, des événements ou des œuvres. Au point où ces images documents sont proposées maintenant à leur tour comme œuvre, sinon comme leur plus parfait substitut, je réfère ici évidemment aux écrits théoriques sur la performance (Jones, 1997).

Comment alors conjuguer ce temps uchronique de l’expérience et celui anachronique du discours, la couche de médiation (textes, images, émulation, archivage) que l’on construit autour des œuvres, lesquelles sont aussi basées sur un principe de découverte (ouver- ture contributive du réseau). Quels outils de connaissances sont offerts aux spectateurs afin de respecter la dimension interactive des œuvres ?

L’histoire de l’art peut s’écrire en direct du moment que l’on recon- naît que ce direct est mirage anachronique. Cet archivage doit gar- der un équilibre entre pérennité et ouverture, entre mémoire et art vivant, entre le donné et le devenir, entre document et événement. Loin d’être de petits défis, voilà donc quelques questions méthodo- logiques qui nous animeront pour les prochaines occurrences de notre projet.

 

Références :

Agamben, G (2008). Qu’est-ce que le contemporain, Paris, Rivages poche/Petite bibliothèque Payot

Arasse, D. (2006) Anachroniques, Paris, Gallimard.

Couchot,E.(1998).La technologie dans l’art,Nîmes,Éditions Jacqueline Chambon.

Couchot, E. (2007). Des images, du temps et des machines dans l’art et la communication, Paris, Éditions Jacqueline Chambon-Actes Sud. Jones, A. (1997). « “Presence” in Abstensia: Experiencing Performance as Documentation », Art Journal, Vol. 56, N° 4

Mahé, E. (2012). « Les pratiqueurs » dans L’Ère post-média Humanités digitales et Cultures numériques, ouvrage collectif, dir. J.-P. Fourmentraux, Paris, Editions Hermann, Coll. Cultures Numériques, pp. 137-154.

Moretti, F. (2013). Distant Reading. Londres, Verso.

Loghman, Sebastien. Adam’s Cam : http://www.adamscam.net/            Abécédaire du Web : http://nt2.uqam.ca/fr/expositions/abecedaire-du-web Speedshow : http://nt2.uqam.ca/fr/expositions/exposition- speedshow-de-bleuorange

Revue  BleuOrange http://revuebleuorange.org/

Joanne Lalonde est historienne des arts médiatiques et numériques. Ses recherche portent sur les pratiques d’art réseau et médiatique. Elle est membre du Laboratoire de recherche sur les œuvres hyper- médiatiques, le NT2, du Centre de recherche sur le texte et l’imaginaire Figura de l’Université du Québec à Montréal. Elle s’intéresse également aux représentations de genres et aux figures du métissage sexuel dans l’art actuel, aux modalités de l’interactivité dans l’art contempo- rain de même qu’aux méthodologies de la recherche sur les pratiques artistiques émergentes. Elle a publié récemment deux essais sur la culture hypermédiatique, Le performatif du Web (Chambre Blanche 2010), L’Abécédaire du Web (PUQ 2012) et conçu une exposition en ligne éponyme en collaboration avec le laboratoire NT2 de l’UQAM qui a remporté le prix Or Spécial Web’Art dans la Catégorie Expositions et dossiers, du Festival International de l’Audiovisuel & du Multimédia sur le Patrimoine (FIAMP) d’AVICOM en 2012.
Joanne Lalonde est Professeure titulaire au département d’histoire de l’art de l’Université du Québec à Montréal (UQAM)
http://nt2.uqam.ca/




Une archéologie du bug

Christophe Bruno et Emmanuel Guez

 

Ce texte est initialement paru dans le Magazine des Cultures Digitales, MCD #75

« Archéologie des média » (septembre/novembre 2014).

Dans un système temps réel, l’absence de réponse dans une période prédéfinie est aussi mauvaise qu’une erreur logique. Le bug signifie alors tout aussi bien l’impossibilité de calculer, que de calculer dans le temps imparti. Pour l’utilisateur, le bug se présente sous la forme d’une attente indéfinie. Mais qu’est- ce qu’un bug ? De quoi est-il réellement le signe ? Pourquoi seule la méthode archéologique permet-elle de le saisir ?
Le bug comme métaphore de dysfonctionnement des phénomènes humains

En démontrant en 1936, à la suite des travaux du logicien Kurt Gödel, l’impossibilité de l’existence d’un programme qui pourrait diagnostiquer les failles d’un programme quelconque, Alan Turing ouvre la voie à la possibilité même de sa Machine de Turing, premier ordinateur jamais conceptualisé. Ainsi, c’est l’assomption de l’impossibilité de se débarrasser du bug, qui instaure le champ de l’informatique, et qui a permis à l’humanité de plonger dans l’ère du numérique un demi-siècle plus tard. Aujourd’hui, les spécialistes de l’informatique théorique et de la logique mathématique savent que l’univers des programmes qui fonctionnent est plongé dans un univers bien plus vaste et intéressant, celui des programmes qui errent, qui divaguent, bref, qui buguent(1).

 

Mais pour le commun des mortels, l’idée du bug oscille quelque part entre la soi-disant perfection de la machine et l’imperfection humaine. Cette distinction entre la machine et l’humain est éga- lement l’objet de la recherche de Turing. Dans son texte fondateur Computing machinery and intelligence(2), Turing décrit ce qui deviendra le fameux test de Turing, où un ordinateur tente de se faire pas- ser pour un humain. Par la suite, on a notamment cherché à simuler les phénomènes humains par des comportements informatiques.

 

C’est l’attitude réciproque que nous adoptons ici, imaginer l’infor- matique comme simulée par les interactions humaines (pratiques sociales, technologiques, linguistiques, sémiotiques, artistiques…). Nous manipulons la notion de bug comme une métaphore à obsolescence programmée du dysfonctionnement de ces interactions humaines. Par « métaphore à obsolescence programmée » nous entendons que ce qui est ici comparaison métaphorique est éven- tuellement destiné à devenir du réel. Autrement dit, si nous intro- duisons une comparaison entre un programme informatique et un dispositif social, ou bien entre une typologie de bug informatique et le détournement d’un outil de communication, etc., alors cette comparaison, qui opère comme une métaphore dans l’état historique actuel, peut devenir analogie véritable dans le futur. Alors, la métaphore se dissoudra car elle sera réalisée.

 

La manière dont cette obsolescence se produira (si elle se produit) ne nous concerne pas ici : évolution vers le post-humain, réunification de la logique mathématique avec les sciences sociales, révolution trans-genre, hyper-fascisme (sous l’effet une fois de plus d’une mutation technologique majeure)… Pas plus que les dates de péremption de telles métaphores, dates qui nous sont inacces- sibles (elles sont donc « programmées », mais nous ne savons pas quand le programme se terminera).

 

Le bug, une lecture qui (se) passe mal
Le 22 juillet 1962, la sonde américaine Mariner 1 est détruite 294,5 secondes après son décollage, suite à une défaillance des com- mandes de guidage. La cause : une barre suscrite manquante dans une ligne de code en FORTRAN. Comme l’a écrit Arthur C. Clarke, confondant le trait d’union et la barre suscrite :« ce fut le trait-d’union le plus cher de l’histoire »(3). Le bug est une affaire typographique, un arrêt dans le processus de la lecture machinique. Englobons donc le bug dans le concept d’écriture qui concerne aussi bien la pratique humaine que l’exécution d’un programme. L’exécution d’un pro- gramme informatique appartient en effet au registre de l’écriture : c’est l’interaction d’un texte, appelé programme, avec son contexte, les données d’entrée ou de sortie. Lorsque le programme fonctionne, un nouveau texte est produit, issu de l’ancien. Les bugs sont les dysfonctionnements lors de cette exécution.

Par exemple, dans une situation d’interblocage lors de l’exécution d’un programme, deux actions concurrentes sont chacune dans l’expectative que l’autre se termine, provoquant une attente indéfinie(4). D’autres types de bugs existent. Si par exemple la foudre vient frap- per l’ordinateur en train d’effectuer un calcul, nous pouvons considérer cela comme un bug ; ou bien la confusion entre un « billard » et un « pillard », pour reprendre un exemple célèbre dû à l’écrivain Raymond Roussel(5), chez qui les homophonies et les équivoques sont utilisées pour gripper les rouages de la machine langagière.

On pourrait ainsi remonter jusqu’aux pratiques alchimiques et à la « langue des oiseaux ». Les associations phoniques utilisées par les initiés constituent en effet un argot crypté qui révèle et accentue les sens cachés, tandis qu’elles les dissimulent aux profanes, pour qui cette « langue secrète » apparaît comme insensée. Dès lors qu’un bug se produit, quelque chose de l’écriture reste en suspens. Le bug, ici paradigme du dysfonctionnement des interactions humaines, s’institue précisément là où l’écrit est défaillant, où la lecture se heurte à un impossible. Le bug dessine en creux les frontières du champ de l’écriture et de la lecture.

 

En lieu et place de l’histoire, une archéologie du bug

L’historien se fonde sur des écrits, contrairement à l’archéologue de la protohistoire qui s’intéresse aux peuples qui n’ont pas de sources textuelles mais qui, parfois, sont évoqués dans les écrits de civilisations plus récentes. En tant que point aveugle de l’écrit, le bug peut-il être l’objet d’une histoire ? Ne serait-ce pas en archéologue qu’il conviendrait plutôt d’aborder ce qui serait finalement non pas une histoire du bug, mais ce qui ne peut être à jamais qu’une proto-histoire ?

Dans finnegans Wake, Joyce rend le roman illisible. Non pour qu’il ne soit pas lu, mais parce qu’il est paradoxal de vouloir imprimer d’écrire au sens de l’imprimerie – l’oralité protohistorique de la langue. Du point de vue du roman, il est illisible, mais il est audible par sa lecture à haute voix. De la même manière, du point de vue de l’histoire et de l’humanisme (numérique), i.e. de l’écriture et de la lecture, le bug est un dysfonctionnement tandis que du point de vue de l’archéologie et du post-humanisme, i.e. des machines, l’impossible située au cœur de l’écriture et de la lecture dissout la notion même de fonction. Ainsi le bug est-il un acte qui doit être pensé selon deux points de vue. Nous nous demandons si les humains n’auraient pas une vue partielle de l’histoire des machines, qui ne pourrait se départir d’un point de vue « colonialiste ». Il s’agirait ici de savoir s’il est possible de fonder une vision post-coloniale du champ machi- nique, où le bug aurait toute sa place.

 

Esthétique du bug

Il est courant de penser que le glitch appartient à l’esthétique du bug. Il n’en est rien. Le glitch appartient au point de vue du dysfonctionnement, que l’artiste glitcheur cherche à rendre lisible. Chez les machines, la lecture est l’exécution d’un programme, d’un code. La dysfonction est liée à un contexte, à une attente. Elle a pour signe la frustration, qui se situe dans l’habitus du langage naturel. On peut bien entendu prendre du plaisir esthétique à provoquer de la dysfonction (Faust). Dans l’esthétique du glitch, la dysfonction se mue en fonction dans la tentative de restaurer une lecture qui n’a pu se faire, lecture faite par une machine mais destinée à un humain. Comme l’écrit Friedrich Kittler, « le programme se mettra soudaine- ment à fonctionner correctement lorsque la tête du programmeur est vidée de mots(6) ». Il y a donc deux modes de « lecture » presque incompatibles l’un avec l’autre, dans l’inter-action desquels peut se situer le plaisir esthétique du programmeur.

Ainsi, Nick Montfort écrit-il : « L’aspect  puzzle  [du  programme] met en évidence qu’il y a deux principaux « lecteurs » pour un pro- gramme d’ordinateur : d’une part, le lecteur humain qui examine   le code pour comprendre comment cela fonctionne, et comment débuguer, améliorer ou développer ; d’autre part, l’ordinateur, qui exécute ses états ou évalue ses fonctions par l’exécution du code- machine correspondant à son processeur. Un programme peut être suffisamment clair pour un lecteur humain, mais peut contenir  un bug qui l’empêche de fonctionner tandis qu’un programme peut fonctionner parfaitement bien mais être difficile à comprendre. Les auteurs de codes obscurs <obfuscated code> s’efforcent d’atteindre ce dernier, façonnant des programmes de sorte que l’écart entre  le sens humain et la sémantique du programme donne du plaisir esthétique(7) ».

Une esthétique du bug prend le point de vue inverse : elle ne peut qu’émaner des machines elles-mêmes, tout comme les machines écriraient elles-mêmes leur histoire : un programme informatique pourrait par exemple prendre comme objet sa propre histoire, l’archive de ses interactions passées, et les programmes seraient à même de participer à l’écriture de l’histoire de leur victoires ou de leurs défaites (les bugs). Pour la comprendre, il faudrait alors s’appuyer non sur l’histoire mais sur l’archéologie des média, qui se situe par-delà la notion de fonction.

 

La figure du débugueur

Le problème pour les humains, c’est que, depuis l’imprimerie, ils écrivent et lisent leurs histoires avec des machines. Leurs mots dépendent aujourd’hui du code-machine. Et plus les machines,  les OS et les softwares deviennent complexes, étoffés, intercon- nectés, plus le nombre de lignes de code-machine s’allonge entre le processeur et nos mots, plus le bug devient l’ennemi du verbe. Le bug c’est non seulement l’arrêt de la lecture du programme mais c’est donc aussi, pour les humains, l’arrêt du sens. Il n’y a rien d’étonnant à ce que le bug soit pour le théâtre d’aujourd’hui ce que le suicide était pour le théâtre du xixème siècle. C’est pourquoi les humains cherchent, au nom d’une prétendue alliance objective, à programmer les machines pour qu’elles luttent avec eux contre le bug.

Le débugueur est alors la figure du médium rationnel. Son point de vue est celui de la raison contre l’irrationnel. Le débugueur est au bug, ce que, pour la philosophie et l’humanisme classiques, l’homme est à l’animal. Ce dernier, pas plus que la machine, ne parle. À l’Âge classique, le corps de l’homme se discipline en opposition à lui. Il n’est pas anodin que la première médiatisation d’un dysfonctionnement informatique de l’histoire ait été attribuée à un insecte. En l’occurrence cette « petite » mythologie fonde le bug comme métaphore des dysfonctionnements informatiques (et technologiques) et le début de l’histoire coloniale des machines par les hommes.

Ce n’est pas non plus un hasard si les humains, dans les films d’Hollywood des années 1950 – années de la cybernétique – sont souvent menacés par des insectes. Les parasites de l’information – comme, du temps d’Edison, un parasite du signal(8) sont des êtres particulièrement détestables et singulièrement muets par rapport au règne animal : une punaise, une mite, un papillon de nuit, un cafard, comme dans le film Brazil en 1985. Comme tous ses dérivés, les virus et les vers (worms), le bug est nuisible, anxiogène (cf. le fameux « bug de l’an 2000 » réveillant les peurs de l’an 1000), voire pathogène(9). Et  pour  le  qualifier, les  programmeurs-débugueurs

ces nouveaux médecins du verbe – n’hésitent pas à descendre encore davantage dans la chaîne organique(10), nous remémorant ainsi la question de Platon : y a-t-il une Idée de la fange ?

Le débugueur, ce chasseur d’insectes, possède son esthétique. Il réintroduit de la reproductibilité, du lisible, tout ce que le bug a dis- sous, là où du point de vue des machines, il y avait de la durée pure. Le bug dépend du point de vue de ceux qui ont des attentes quant au programme. L’existence même d’un bug dépend du contexte. Si ces attentes ne sont pas définies, s’il n’y pas de spécification du    programme, il n’est pas possible de savoir s’il y a bug ou non, de même qu’il n’est pas possible de savoir si une boucle, dans une situation d’interblocage, va se terminer ou non : il faut une décision arbitraire, un acte, un événement, qui détermine ce qui s’écrit de l’histoire. Le pas à pas rend la décision – et la lecture possible. Le débugueur est le Muybridge du monde actuel, le modèle actuellement dominant de l’esthétique numérique.

L’archéologie du bug comme fondement d’une protohistoire des machines par les machines
Tandis que l’histoire des média s’appuie sur les machines en capacité de lire, l’archéologie des média se fonde sur les machines en incapacité de lire, et pour cela, condamnées par les humains à l’oubli historique. L’archéologie des média, fondée sur une archéologie du bug, montre au contraire que cette incapacité de lire est le point de vue des humains, non des machines elles-mêmes qui, au-delà de la notion de fonction, continuent d’agir sur les représentations et l’imaginaire humain (la littérature, le cinéma et le jeu vidéo, la science-fiction, la cyberculture, la culture geek et les arts médiatiques…).

L’échec fait partie de la relation naturelle  homme/machine.  Du point de vue humain, l’échec est généralement à éliminer, car incompris(11). Du point de vue des machines, comme toute défaite, le bug travaille pour l’avenir, qu’il s’agisse d’un déploiement fictionnel ou technique et industriel(12). Au débugueur, figure de la raison, il faut opposer une nouvelle « ruse de la raison » dont les machines sont en réalité les puissances agissantes. Dans le temps profond, archéologique, de leurs propres développements, c’est la ruse des machines que d’appréhender mieux que nous-mêmes, humains, notre point de vue de sujets parlants. Aux humains d’assumer, ou pas, leur statut de bugs.

 

 

1.   Girard (J.-Y.), Le point aveugle, Tomes 1 et 2, Hermann, 2007. On trouvera un certain nombre d’articles de Girard en partie accessibles aux non-mathématiciens sur http://iml.univ-mrs. fr/~girard/Articles.html Pour une introduction non technique : Mosca (A.), « Jean-Yves Girard, le logicien scélérat », Critique, 2005, vol. 61, n.701, p. 743-75.

2.   Turing (A.), « Computing machinery and intelligence », Mind, Oxford University Press, 59, 236, 1950,  p.460. http://mind.oxfordjournals.org/content/LIX/236/433.full.pdf

3.   Clarke (A. C.), The Promise of Space, Harper and Row, 1968. Pour les détails, cf. G. J. Myers, Software Reliability: Principles & Practice, p. 25.

4.   Cf. Le  dîner  des  philosophes. http://fr.wikipedia.org/wiki/D%C3%AEner_des_philosophes

5.   Roussel (R.), Comment j’ai écrit certains de mes livres (1935), 10/18, 1963.

6.   Kittler (F.), « Code », in Fuller (M.), Software Studies – A Lexicon, MIT Press, 2005, p.46 (nous traduisons).
7.  Montfort (N.), « Obfuscated Code », in Fuller (M.), op. cit., p. 194 (nous traduisons).

8.   Cf. Parikka (J.), Insect Media, An archaeology of animals and technology (posthumanities), University of Minnesota Press, 2010, p.131.

9.   Cf. Mackenzie (A.), « Internationalization », in Lovink (G.), Rasch (M.), Unlike Us Reader, Social media monopolies and their alternatives, Institute of Network Cultures, 2013, et notamment ce passage, p.153 : « By virtue of the notions of universality attached to numbering systems (such as decimal and binary), to computation (Universal Turing Machine), and to global technoculture itself, software seems virulently universal. When figures of otherness appear around soft-ware, they tend to be pathological. Pathological software forms such as viruses, worms, otherness appear around software, they tend to be pathological. Pathological soft-ware forms such as viruses, worms, trojan horses, or even bugs are one facet of otherness marked in software ».

10.     Chez Bram Cohen (le créateur de BitTorrent), le bug devient de la merde. Cf. Cohen (B.),

« Aesthetics of Debugging thinking of turds as bugs and your home as your code », posté sur advogato.org le 18 Décembre 2000 à 00:58.

11.     Il faut apporter ici une nuance. Cf. Fuller (M.), Goffey (A.), Evil Media, The MIT Press, 2012. Cf. aussi Lessig (L.), Code: An other laws of cyberspace, version 2.0, Basic Books, 2006. Lessig montre que l’Internet ouvert, non régulé, doit être compris comme un bug, une imperfection salutaire, y compris économiquement (p.48). D’un point de vue politique, citons encore cet extrait : Comme le dit John Perry Barlow, « [les valeurs du cyberespace] sont les valeurs d’un cer- tain bug programmé dans l’architecture du Net – un bug qui empêche le pouvoir du gouverne- ment de contrôler parfaitement le Net, même si elle ne désactive pas ce pouvoir entièrement » (p.152) (nous traduisons). Selon nous, il s’agit encore d’un point de vue humain, qui pressent toutefois le point de vue de la machine établissant sa propre protohistoire. Cf. encore la célèbre phrase d’Eric Raymond : « Many eyeballs make all bugs shallow » (beaucoup de globes oculaires ramènent les bugs à la surface). Pour Raymond, le bug est constitutif de l’idée de communauté qui est la « solution » la plus efficace pour lutter contre lui. Le bug est ainsi indirectement à l’origine de toute l’open-culture, dont les répercussions politiques (nouvelles formes d’actions collectives), juridiques (creative commons, etc.), économiques (p2p, crowd-funding, -sourcing, etc.) sont immenses. Dans son ouvrage The Cathedral & the Bazaar : Musings on Linux and Open Source by an Accidental Revolutionary (O’Reilly, 2001, p.373), Raymond met en avant la méthode du bazar : « Here, I think, is the core difference underlying the cathedral-builder and bazaar styles. (…) In the bazaar view (…), you assume that bugs are gene-rally shallow phenomena – or, at least, that they turn shallow pretty quick when exposed to a thousand eager co-developers pounding on every single new release. Accordingly you release often in order to get more cor- rections, and as a beneficial side effect you have less to lose if an occasional botch gets out the door ». En esthétique, le bug a été l’objet de plusieurs études, dont, en français, la thèse d’Emmanuelle Grangier, Le bug, une esthétique de l’accident, Université de Paris 1, 2006.

12.     Cf. Zielinski (S.), Deep Time of the Media: Toward an Archæology of Hearing and Seeing by Technical Means, The MIT Press, 2008.

Christophe Bruno vit et travaille à Paris et à Sète. Son œuvre polymorphe (détournements, installations, performances, travaux conceptuels…) propose une réflexion critique sur les phénomènes de réseau et de globalisation dans les champs du langage et de l’image. Il partage son temps entre son activité artistique, curatoriale, l’ensei- gnement, des conférences et publications. Commissaire d’expositions pour l’espace virtuel du Jeu de Paume en 2011 et 2012, il enseigne à l’École Supérieure d’Art d’Avignon depuis octobre 2013 et fait partie du laboratoire PAMAL (Preservation & Art – Media Archaeology Lab) http://www.christophebruno.com

Emmanuel Guez est artiste, théoricien des média, commissaire d’exposition et enseignant à l’ESA d’Avignon et aux Beaux-Arts de Paris. Il est directeur du PAMAL (Preservation & Art – Media Archaeology Lab). Dernière publication (au 1er juin 2015) : Friedrich Kittler, Mode protégé, édité et préfacé par Emmanuel Guez et Frédérique Vargoz, Les Presses du Réel, 2015.

http://emmanuelguez.info http://writingmachines.org http://pamal.org

 

 




Save our Bits !

Lionel Broye et Emmanuel Guez, avec le concours de Prune Galeazzi

Ce texte, initialement paru dans le Magazine des Cultures Digitales, MCD #75 « Archéologie des média » (septembre/novembre 2014), a été actualisé.

 

Nombreux sont aujourd’hui les ordinateurs et autres machines médiatiques qui ont disparu et, en dehors d’un intérêt historique ou pour les musées d’histoire des techniques, pourquoi les conserver ? Depuis le premier ordinateur, il existe des œuvres d’art produites avec ces machines. Certaines de ces créations, parce qu’elles sus- citent l’intérêt du monde de l’art ou de la culture, sont parfois tra- duites et diffusées par des machines bien différentes de celles pour lesquelles elles avaient été pensées. Jusqu’à quel point les œuvres d’art médiatiques peuvent-elles, au regard des effets sur la réception, passer d’une machine à une autre ? Comment peuvent-elles être réparées, dupliquées, émulées, migrées, virtualisées, réinterprétées, cultivées ? Quelles sont les solutions habituellement pro- posées pour leur conservation(1) ?
Le « réflexe » de l’histoire et de la pensée en général consiste à oublier les machines. Issue de la théorie des média, l’archéologie des média postule que les machines et leur matérialité conditionnent le produit de la création et de sa réception. L’objectif est de mettre à l’épreuve, à la fois, et ce parti-pris et les solutions évoquées plus haut, lesquelles aboutissent parfois à des contresens artistiques. Le PAMAL a alors mis en place un protocole d’étude appliqué à une série d’œuvres d’art(2), dont la conservation interroge le bien-fondé de ces solutions.

 

Un « second original » pour des œuvres disparues

Dans les différentes étapes de ce protocole, la plus passionnante à ce stade de nos recherches est celle de second original. « Second original » est une association peu commune de termes, qui selon leur définition respective, sont quasiment antinomiques. « Original » s’utilise en parlant d’une chose qui émane directement de l’auteur, tandis que le terme « second » lui est accolé en droit privé    pour désigner le double d’un contrat ou document quelconque signé par le déclarant ou les parties. Dans le contexte de notre recherche, cette association de termes prend un sens voisin, bien que très dif- férent. Entre les deux approches citées ci-dessus, notre « second original » serait une version de l’œuvre originale alors que celle-ci, sur sa machine d’origine ou équivalent, a disparu. Le « second origi- nal » reprend toutes ses qualités premières (software et hardware), émanant d’une collaboration entre l’artiste et l’unité de recherche(3). Le « second original » n’est plus à proprement parler une « œuvre », qui pourrait par exemple être vendue, mais une copie constituant une « archive ».

Il faut ici se placer dans un contexte d’exposition et de transmission de l’œuvre. Nous savons d’expérience, laquelle est courte en raison du peu de recul historique concernant ce type d’œuvres, qu’elles sont sensibles aux phénomènes d’obsolescence en plus des variations traditionnelles connues (matérielles, culturelles, etc.). Ces phénomènes d’obsolescence sont d’une telle ampleur qu’ils pré- cèdent bien souvent tous les autres et entraînent des modifications radicales pouvant aller jusqu’à la perte complète de l’œuvre par dys- fonctionnement, incompatibilité, etc. Citons ici quelques exemples bien connus tels que l’abandon progressif d’une technologie largement employée par les artistes, tels Flash(4) ou Director, pour créer des interfaces et des animations. Nous pourrions aussi évoquer la rupture de compatibilité d’un système d’exploitation à l’autre(5).

 

Une archive qui sert aussi à retracer le processus de création

La réalisation d’un « second original » peut s’avérer utile sous deux aspects, en tant que nouvel exemplaire fonctionnel, puis en tant qu’expérience de conception. Le nouvel exemplaire fonctionnel réalise ce que la série promet. En art, comme ailleurs, le nombre fait la force. Plus un objet est reproduit, plus nous avons de chance de le conserver. C’est le choix fait par les responsables de la mémoire des centres de stockage de déchets nucléaires à l’ANDRA, multiplier le nombre d’exemplaires des « mémoires de synthèse pour les générations futures » contenant les informations essentielles (localisation, historique, contenu, etc.) tout en le distribuant au plus grand nombre. L’expérience de conception, quant à elle, permet de prendre la mesure des variations technologiques et des phénomènes d’obsolescence en mobilisant des achats de pièces, de logiciels et des connaissances des langages informatiques.

Lors de cette réalisation, la fabrication d’un « second original » refait l’expérience initiale de conception et éprouve ainsi les rup- tures et incompatibilités prévues et imprévues tout en conservant l’intégrité de l’œuvre considérée. La conception de ce « second original » ne permet pas de préserver l’œuvre sur le long terme, puisqu’il est identique avec le « premier original »(6). Toutefois, il autorise à nouveau l’exposition, de la même manière que l’autorise la copie d’exposition. Tout en réalisant une étape intermédiaire de conservation préventive précédant les stratégies de conservation curative, plus complexes et encore peu expérimentées pour certaines, il est enfin une pièce dans le puzzle d’un écosystème  médiatique donné, un élément de lecture et de compréhension en regard des contextes médiatiques, techniques et culturels, qui n’apparaissent que lorsqu’ils dysfonctionnent.

 

Le PAMAL (Preservation & Art – Media Archaeology Lab) est une unité de recherche de l’École Supérieure d’Art d’Avignon(7). Il s’intéresse    à l’émergence et à l’obsolescence des œuvres d’art médiatiques et numériques, lesquelles ne sont pas qu’images, sons ou textes, mais aussi des programmes, des interactions homme-machine, des innervations médiatiques, des composants  électroniques, des  câbles, de l’énergie. Il cherche à mieux comprendre les mutations de leurs écosystèmes, au plus près de leurs matérialités. L’un de ses axes de recherche concerne la préservation de ces œuvres, pour laquelle il propose une méthode de recherche.

 

1.   Cf. Stricot (M.) « Agir (et non pas réagir) » in Archéologie des média, MCD #75, septembre/ novembre 2014. Voir aussi : http://digitalis.litchio.com

2.   Les œuvres étudiées sont Angelino d’Albertine Meunier, .jpg printing de Jacob Riddle, Counter de Grégory Chatonsky, fascinum de Christophe Bruno, Les Secrets de Nicolas Frespech, DOEK d’Annie Abrahams et Jan de Weille et les Videotext Poems (œuvres pour Minitel) d’Eduardo Kac.

3.   Une convention contractuelle permet d’établir clairement les conditions de réalisation d’un

« second original » en accord avec (et la participation de) l’auteur et les éventuels propriétaires (privés ou publics).

4.   Se reporter, par exemple, à l’arrêt du développement de Flash Player pour iPhone et Android au bénéfice du HTML5.

5.   C’est le cas avec Rosetta (Mac_OS_X) chez Apple, qui a entraîné l’illisibilité d’un grand nombre de productions artistiques et littéraires.

6.   Certaines pièces fabriquées aujourd’hui, utilisées pour la réalisation d’un second original et dont la durée de vie nous est inconnue, pourraient cependant s’avérer plus fiables que les pièces d’origine (ex. : la re-fabrication d’anciennes cartes Arduino).

7.  Le PAMAL est composé de Stéphane Bizet, Lionel Broye, Christophe Bruno, Lucille Calmel, Prune Galeazzi, Emilie Gervais, Emmanuel Guez, Marie Lechner, Morgan Stricot.

 

Lionel Broye est artiste, enseignant à l’École Supérieure d’Art d’Avignon et chercheur au PAMAL.

Prune Galeazzi est conservatrice-restauratrice, assistante d’enseignement à l’École Supérieure d’Art d’Avignon et chercheuse au PAMAL.

Emmanuel Guez est artiste, théoricien des média, commissaire d’exposition et enseignant à l’ESA d’Avignon et aux Beaux-Arts de Paris.

Il est directeur du PAMAL (Preservation & Art – Media Archaeology Lab). Dernière publication : Friedrich Kittler, Mode protégé, édité et préfacé par Emmanuel Guez et Frédérique Vargoz, Les Presses du Réel, 2015.

http://emmanuelguez.info – http://writingmachines.org – http://pamal.org




Le « temps réel ». Réel, vraiment ?

Le « temps réel ». Réel, vraiment ?

Emmanuel Mahé

 

L’expression « temps réel », mérite une attention toute particulière si l’on veut ne pas se laisser piéger par son apparente clarté. Ce texte n’a pas vocation à définir ce qu’est le temps réel, mais à repérer certains des malentendus et illusions que ce terme induit, à donner quelques éléments de réflexion en contrepoint des discours habituels, ouvrir, ne serait-ce qu’un peu, la boîte noire que devient fatalement toute expression à succès.

Convoqué comme objet et sujet dans certaines œuvres artistiques, le temps réel est soumis à une tension critique, parfois à l’insu même des artistes. En expérimentant des installations fonction- nant « en temps réel », les spectateurs deviennent des pratiqueurs(1) temporels. À travers les œuvres, ils explorent les limites des fonc- tionnalités techniques, inventent parfois des usages, imaginent des relations inédites entre espace et temps, et testent les dispositifs qu’ils actionnent mais aussi leurs propres perceptions.

C’est ce qui se produit par exemple dans les œuvres de Jean Dubois, ou bien encore celles d’Albertine Meunier et de Julien Levesque. Ces actes du colloque rendent compte de ces différentes manières de pratiquer et donc de penser le temps réel. Aussi, prendrais-je un exemple complémentaire avec Surexposition, œuvre collaborative de Samuel Bianchini, élaborée dans le cadre d’un partenariat entre EnsadLab(2) et les Orange Labs(3) en 2014(4), pour nous aider à formuler quelques questions sur le temps réel.

« Surexposition est une œuvre interactive associant une installation et une application pour smartphones. Sur une place, au milieu de l’espace urbain, un grand monolithe noir produit un intense faisceau de lumière blanche dans le ciel. Visible de toute la ville, ce faisceau s’éteint, puis se rallume, il pulse suivant une logique dont on peut ressentir la rigueur, la volonté de communiquer, même si on ne comprend pas immédiatement les signaux ainsi produits. Sur une face du monolithe, des points ou tirets blancs défilent, de bas en haut, imprimant leur rythme au dispositif : chaque fois qu’ils atteignent le haut du monolithe, la lumière se déclenche, comme si ces signes se vidaient dans la lumière. À une toute autre échelle, on retrouve ces mêmes signes défilant sur l’écran des smartphones du public en interaction avec l’œuvre, en rythme. Cette fois, c’est le flash de ces smartphones qui peut émettre de la lumière selon ce langage codé. Car ce sont bien des messages qui sont ainsi diffusés, en morse, adressés par tous, à tous et au ciel et que l’on peut lire grâce au sur-titrage accompagnant ces signes. Chacun, à partir de son smartphone, peut en effet envoyer son message pour exposer ce qu’il pense et tenter de s’exposer ainsi, pour quelques instants, aux yeux de tous, d’une communauté partageant le même temps, le même rythme. C’est une communauté encore plus large dont on peut également prendre le pouls, à l’échelle de la ville, en temps réel, via une cartographie de l’usage du réseau de télé- phones mobiles, visualisable sur un côté du monolithe comme sur smartphones.

Du dispositif individuel (smartphone) à l’échelle de la main, au dispositif partagé à l’échelle de la ville, une communauté momentanée peut ainsi se former et se transformer, partageant un même espace, un même temps, un même rythme, de mêmes données, au gré d’une communication dont la capacité à rassembler par l’expérience sensible l’emporte sur le sens même de ses messages autant que sur leur adresse qui se perd dans le ciel. »(5)

Surexposition a posé de nombreuses questions techniques, complexes à résoudre, notam- ment celle de la synchronisation à distance des images représen- tant les codes morse et la visua- lisation des données produites collectivement, cet ensemble étant diffusé par des terminaux et des réseaux hétéroclites. Cette complexité technique est invisible aux yeux des spectateurs focalisés sur leur seule expérience (un contrat tacite d’ignorance dont on parlera plus loin). L’harmonisation temporelle ainsi réalisée permet de donner l’impression aux pratiqueurs de participer à un « rythme » ou à un « pouls » collectif.

 

La manière dont on ressent cette installation quand on la pratique, est assez proche du temps réel bergsonien(6) qui n’a rien de compa- rable au temps réel des technosciences. Bergson ne parle pas du temps comme on peut l’entendre techniquement : ça ne cesse de moduler, de changer vraiment, de « durer » : quelque chose qui dure non pas en restant identique à soi, mais au contraire, en ne ces- sant de différer de lui-même. Comme s’il y avait dans l’être même du monde une possibilité de vie opposée aux possibilités de l’intelligence géométrique qui restent enfermées dans des découpages rigides et toujours divisibles. Contrairement au temps chronologique, mesurable, dénombrable (qui trouve une traduction spatiale), la durée est non dénombrable, indivisible, parce que ce qui intéresse Bergson dans la durée, ce n’est pas le dénombrement (1, 2, 3…) mais les intervalles, ce qui se passe entre tout ce qui peut être soumis, arraisonné à la mesure. Or le temps réel tel qu’il est mis en œuvre dans de très nombreux dispositifs techniques contemporains, relève de la mesure et du découpage. Deux conceptions s’opposent.

 

Cette installation artistique use des deux, se joue des deux. Elle les « surexpose », les chauffe à blanc en quelque sorte. Par ailleurs, elle combine aussi deux types de dispositifs de télécommunication : le premier ancien, les monolithes font en effet penser aux sémaphores optiques de la fin du xviiième siècle installés sur des collines, visibles de loin et par tous ; et le second, les smartphones, engage un type de communication à la fois plus individuel, chacun a son petit sémaphore dans la poche, et plus collectif, des sémaphores consultables partout.

Mais si le temps réel tel qu’on l’imagine aujourd’hui, n’a rien à voir avec la durée bergsonienne et sa conception du temps réel, de quoi s’agit-il ? Quel est son régime d’énoncés ? Que nous fait-il com- prendre de la réalité ? Comment peuvent s’articuler des conceptions différentes dans des dispositifs communs ? Et, en premier lieu, ne faut-il d’abord pas s’interroger, au moins rapidement, sur ces deux termes : temps et réel ?

1.   étrangeté du temps

 

Quand on parle du temps, il ne peut y avoir que malentendu, pour plusieurs raisons. La première et la plus célèbre est exprimée par Augustin d’Hippone. Plusieurs pièges s’y logent.

« Qu’est-ce donc que le temps ? Qui pourra l’expliquer clairement et en peu de mots ? Qui pourra, pour en parler convenablement, le saisir même par la pensée ? Cependant quel sujet plus connu, plus familier de nos conversations que le temps ? Nous le comprenons très bien quand nous en parlons ; nous comprenons de même ce que les autres nous en disent. Qu’est-ce donc que le temps ? Si personne ne me le demande, je le sais ; si je cherche à l’expliquer à celui qui m’interroge, je ne le sais plus (7). »

 

Il serait tentant de dire que depuis cet énoncé beaucoup d’eau a coulé sous les ponts, philosophiques et scientifiques. Mais le dire nous embarquerait, justement, dans les discours relatifs à la méta- phore du flux(8) (du « Ta Panta Rhei » d’Héraclite(9) à la « fluidité » supposée de nos sociétés technologiques) ou bien encore dans les considérations historiennes sur la longue durée qui essaient  de repérer les variations contextuelles de notions anhistoriques, comme celle du Temps. Or, non seulement « le » temps est pensé et  pratiqué  de  manières  différentes  suivant  les  époques, mais

« il » n’existe pas comme réalité unique et en soi dont il aurait fallu patiemment découvrir les secrets au fil des siècles. Le temps d’Augustin n’est pas le nôtre, non qu’il soit pensé différemment : il est autre. D’ailleurs et pour exemple, il n’est plus possible d’évoquer isolément le temps. Nous devrions parler d’espace-temps depuis que les physiciens l’ont théorisé au début du xxème siècle.

Le temps (T) n’est ni universel ni anhistorique. Certaines sociétés n’ont produit aucune mesure, aucune perception ou pensée en rela- tion avec le temps ou la temporalité, pas même celles des saisons et de la vie. De notre point-de-vue anthropocentré, cette absence (qui pour eux n’en est pas une) est le signe d’une ignorance étrange, alors que cette étrangeté (-T) devrait précisément questionner l’ignorance produite pas nos savoirs établis.

 

Aujourd’hui dans nos sociétés dites avancées, ce qui nous apparaît comme une seule vérité (« le » temps) est en réalité au moins double et pour partie contradictoire. Une première vérité, ancienne mais suffisamment récente pour qu’elle imprègne encore nos esprits, est celle de l’espace et du temps newtoniens, dans laquelle s’intègre facilement l’ancien espace euclidien dont les cartes-écrans de nos GPS sont par exemple les héritiers (nos vitesses de déplacement et de localisation se réalisent dans une étendue homogène).

Une seconde vérité, récente mais suffisamment ancienne pour avoir investi nos dispositifs technologiques de manière massive : l’espace-temps des théories de la relativité (qui ne sont relatives que par leur nom), dont un des nombreux avatars est le dispositif satellitaire et terrien du GPS, permettant, en temps réel, de nous localiser. Dans cet exemple, le « temps réel » combine des concep- tions et des représentations différentes du temps et de l’espace, pour parties incompatibles scientifiquement, mais hybridées dans les usages et les représentations(10).

 

Le temps réel, celui qui nous occupe ici, n’est pas réel au sens où il serait préexistant à nos théories ou que nos théories nous aide- raient à saisir. Il est réel en cela qu’il est construit, c’est une réalité temporaire (et donc éphémère) qui est elle-même composée de plu- sieurs vérités, parfois de plusieurs rationalités qui se sont établies les unes contre les autres, formant ce que l’on pourrait appeler une épistémè hybride ou un diagramme abstrait composite(11). Le temps réel n’est vrai que dans ce régime particulier, hybride donc, d’énon- cés et de pratiques qui le performent.

2.   le Temps réel distendu

 

En informatique, le temps réel désigne un système dont les résultats doivent être non seulement exacts, mais délivrés aussi sous une contrainte temporelle forte : plusieurs heures ou nanosecondes, cela dépend du contexte et des effets souhaités. Ce déterminisme donne à la temporalité sa réalité mesurable et exige du système de s’y conformer : le temps est alors « réel » car il est objectivé comme tel, découpé, séquencé, mesuré, permettant donc le contrôle des actions. Il permet de déléguer aux machines tout ou partie d’un ensemble d’actions dont les effets escomptés sont prévisibles et exigibles temporellement. Cette « réalité » est prouvée par les faits, renforcée symboliquement par la fiabilité des procédures, parfois a contrario avec leurs dysfonc-

tionnements, rares mais catas- trophiques, dont dépendent souvent des vies humaines, en aéronautique ou en médecine par exemple.

 

Cette définition techniciste du temps réel informatique ou ingénierial (Ti) semble claire et ne devrait pas porter à équi- voque, en ce sens où un laps de temps est nécessaire pour opérer un traitement et une action. Le temps réel ne peut alors être confondu avec l’ins- tantanéité, illusion que procure pourtant la plupart de ces systèmes. La mission Rosetta(12) est à ce titre éloquente pour mettre à jour cette illusion. La sonde a par- couru 7 milliards de kilomètres pendant dix années pour atteindre sa cible située à plusieurs centaines de millions de kilomètres de notre planète. Une fois posée sur l’astéroïde « 67P/ Churyumov- Guerasimenko », l’atterrisseur Philae a été piloté en temps réel par les ingénieurs pour effectuer un certain nombre d’opérations in situ (ou ex situ, selon le point-de-vue).

Cette longue distance imposait un délai d’une vingtaine de minutes pour émettre ou recevoir des signaux et donc agir en différé. Ce temps réel procure un sentiment ambivalent, partagé par beau- coup de commentateurs : il rapproche et éloigne. Il nous rapproche d’une banlieue que nous n’imaginions jamais pouvoir investir, celle de notre système solaire. C’est une formidable accélération. Mais il nous en éloigne aussi car ce temps réel, habituellement vécu comme immédiat, s’étire ici sur de très longues minutes. C’est une décélération relative de notre culture de l’instantanéité, le retour à une réalité qui nous résiste encore.

Nous sommes alors comme étourdis par une double tension : le temps réel nous permet d’interagir à des distances considérables et, en retour, nous fait tâter, non pas de la rondeur du monde comme l’aurait dit Yourcenar(13), mais d’une étendue résistant à notre culte de l’immédiateté, très éloignée de la conception de Bergson.

 

3.   la double illusion de l’instantanéité

 

Le temps réel est donc perçu, à tort, comme un temps instantané. Ce malentendu pourrait être levé facilement si plusieurs confusions ne venaient le rendre un peu plus inextricable.

L’une d’entre elles est largement répandue : le fait de confondre le temps objectif tel qu’il est, flux immuable auquel nous serions soumis, évoqué déjà plus haut, avec les temporalités relatives, un temps vécu, subjectif et / ou social. La métaphore la plus usitée pour illus- trer cette distinction entre temps (T) et temporalité (Ts) est celle de la montre indiquant une durée objective, mesurée de manière « neutre », qui nous appa- raît souvent plus courte ou plus longue en fonction de nos activités (« le temps passe plus ou moins vite(14) »).

Une autre confusion, assez proche de la précédente mais pourtant distincte, consiste à confondre, 1) ce temps que l’on considère comme une réalité en soi, un temps mystérieux que  l’on  essaie de comprendre, universel car s’appli- quant à tous lieux et à toutes choses, 2) avec le temps mesuré, un temps mis en équation ou en mots, le temps n’étant plus unique mais pluriel en  fonction  des sciences et des philosophies (Tn), voire parfois contradictoire  (on  pen- sera notamment au malentendu entre Einstein et Bergson(15)). Nous croyons ainsi  qu’un  concept  philosophique ou

une fonction scientifique vont nous aider à découvrir la vérité cachée

« du » temps ou à nous en approcher, alors que ces découvertes construisent le temps qu’elles objectivent. Dans ce cas, la montre peut induire en erreur si l’on considère sa mesure comme la seule réalité temporelle objective. Elle a été inventée récemment et com- mence déjà à être déconstruite, à l’image des aiguilles du cadran créé par l’artiste Lyes Hammadouche.

 

Malentendus et confusions sont évoqués ici de manière beaucoup trop simpliste pour s’imaginer que ces quelques lignes n’y contri- buent pas elles aussi(16) ! Elles ne sont recevables que dans un cadre restreint et en fonction d’un objectif précis : montrer que l’expres- sion « temps réel » et ses usages associés recèlent bien des pièges. Parmi beaucoup d’autres, nous pouvons finalement en repérer au moins deux.

 

1) Le premier crée l’illusion d’instantanéité. Le temps réel informa- tique n’est pas la source unique d’une telle illusion. On peut noter que l’ancienne expression « en direct », utilisée pendant longtemps à la radio et à la télévision, a été progressivement abandonnée au profit de l’expression « en temps réel ». Alors qu’elles renvoient toutes deux à des dispositifs techniques différents (électronique pour le premier et informatique pour le second), la plus récente englobe désormais toutes les situations d’immédiateté, sans dis- tinction aucune, bien au-delà de ces seuls dispositifs techniques : c’est une manière de penser et pratiquer notre espace-temps alors que celui-ci ne devrait plus, en théorie, nous permettre de penser le temps réel tel que nous l’éprouvons pourtant…

 

2) Le second piège est beaucoup plus trompeur et difficile à discerner car il semble contredire le premier. Le temps calculé ou algorithmé nous fait croire que ce temps objectivé est réel au sens où il serait considéré comme vrai puisqu’on peut le mesurer et s’en servir pour agir. Dans l’exemple de la mission Rosetta, la durée du temps réel nous est perceptible et contredit donc l’illusion d’immédiateté. Cet étirement dû à la très longue distance, encourage cependant notre esprit à chercher une autre forme d’instantanéité. Sans l’avoir encore reçu sur Terre, nous savons à quel moment la sonde émettra un signal et pouvons alors imaginer sans problème que notre instant terrestre est identique à celui de l’astéroïde, qu’il se produit simultanément, comme si l’espace était dissociable du temps. Nous nous projetons mentalement à l’endroit même où est la sonde. L’obstacle de la dis- tance est en quelque sorte vaincu par l’exercice mental : l’instantanéité est comme sauvée. Dans cette représentation, les montres sont toutes synchrones quelles que soient la vitesse et la distance qui les séparent, comme si nous étions non seulement immergés dans le même temps (T et Tn ne faisant plus qu’un), mais également dans la même temporalité (T et Ts fusionnés). Nous imaginons alors qu’un jour nous pourrons peut-être communiquer instantanément à cette distance. Cette croyance à l’instantanéité est probablement consolidée par l’idée de progrès technique, progrès ayant conduit à l’impensable : ce temps réel qui ne pourrait que s’améliorer ! C’est bien entendu un leurre, car si progrès il y avait en la matière, il s’agi- rait bien plutôt d’une nouvelle bifurcation vers un Temps autre.

 

4.   De retour sur terre

 

Dans un environnement proche (de quelques millimètres à quelques dizaines de milliers de kilomètres tout au plus), l’intervalle temporel pour traiter une information et mettre en œuvre une action quel- conque, est en effet généralement si rapide qu’il se présente à nos sens de manière immédiate, sans que le délai nous soit perceptible. Ce rapprochement de plus en plus infime entre la cause et son effet procure cette impression d’instantanéité. Le temps réel n’est alors pas compris comme une procédure se déroulant dans le temps, mais comme une forme paradoxale d’annihilation de la durée et, dans une certaine mesure, de l’étendue (lorsqu’on converse par exemple en temps réel avec une personne à l’autre bout du globe, le temps et l’espace nous semblent être réduits à rien).

 

Dans ce contexte, la performativité du temps réel dans les dispositifs technologiques répond à deux fonctions essentielles : d’une part pouvoir faire fonctionner des systèmes à distance (ce peut être plus ou moins proche et plus ou moins automatisé), capables de réa- gir suffisamment rapidement et de manière ajustée à un contexte quelconque (Ti relatif à Tn bien entendu), et d’autre part savoir se rendre imperceptible aux sens humains (Ts relatif aussi à plusieurs Tn parfois très anciens). La première fonction est essentielle pour faire fonctionner par exemple tout système dit « intelligent » : le pilotage automatique ou manuel d’un avion avec ses innombrables assistants automatisés, une voiture dite « autonome » pouvant cir- culer sans action humaine directe, un logiciel d’achats et de ventes d’actions, etc. La seconde fonction est essentielle lorsque les usages humains sont intégrés au fonctionnement du système. C’est le cas de l’avion en pilotage manuel, mais de manière plus probante des simulateurs de vols ou des jeux vidéos : le délai de traitement des images modélisées est calculé en fonction des décisions et des gestes de l’interacteur. Le laps de temps (Ti) doit être le plus petit possible pour se rendre imperceptible et donner une impression de réalité aux scènes simulées manipulables dans le flux de l’action (Ts). Le dispositif de visibilité fonctionne ici paradoxalement grâce à la « transparence » d’une interface, l’efficience de cette dernière ne se réalisant qu’en dissimulant son existence même, provoquant ainsi l’illusion d’une instantanéité (Ts). Le dispositif de visibilité est alors généré autant que générateur de formes très variées d’invisi- bilités : opacités des boîtes noires informatiques, transparence des interfaces à la conscience de l’utilisateur, dérivation de l’attention, etc. Les ergonomes parlent ainsi « d’interfaces gestuelles » ou d’in- teractions « naturelles » (bien sûr elles ne le sont pas).

 

Un second pliage s’opère alors, faisant écho à celui évoqué plus haut, rassemblant ce qui était et est encore pour partie divisé : l’ins- trument technique considéré comme un outil localisable et dont le fonctionnement était compréhensible par l’utilisateur (une forme de mécanographie se donnant à voir et à comprendre sans truchement), et le dispositif technologique dont une partie échappe à l’entendement de l’utilisateur, non seulement parce qu’il serait mal éduqué, mais parce que cette méconnaissance participe au bon fonctionnement du système (l’ignorance comme contrat tacite).

On comprend pourquoi le temps réel provoque autant d’ambiva- lences, celle-ci parmi d’autres : en déléguant aux machines des actions interfacielles, essentielles pour que nous agissions immé- diatement, il « augmente » nos possibilités d’action et de contrôle (piloter une sonde, s’enrichir par des achats/ventes ultra-rapides, jouer sur des plateformes massivement multi-joueurs), mais réduit d’autant notre capacité à contrôler ces systèmes de contrôle (les jeunes générations sont très peu formées au langage informatique par exemple). Les très nombreux essais en apparence contradic- toires, les uns contre et les autres pour, les uns paranoïaques et les autres techno-enthousiastes, tissent les discours, tantôt critiques, théoriques ou fictionnels, de ce temps réel de plus en plus efficient dans notre environnement : une nouvelle doxa.

 

Pour critiquer cette doxa et éviter la dialectique qu’elle produit, pour se démettre de l’emprise de la mesure et du calcul mais s’en inspirer aussi, il est utile, nécessaire, de pratiquer les œuvres produites par certains des artistes contemporains qui intègrent le temps réel dans leurs œuvres, le prenant non pas comme un simple dispositif opérationnel destiné à produire un effet, mais comme un dispositif expérimental en soi, susceptible de transformer les spectateurs, interacteurs ou testeurs, en pratiqueurs temporels. Docteur en Sciences de l’Information et de la Communication, auteur de publications scientifiques, Emmanuel Mahé est chargé d’enseigne- ment supérieur dans les universités de Rennes 2, de Paris 8 et de Paris 13 et est associé au LABS (programme Leonardo du MIT à Boston, The International Society for the Arts, Sciences and Technologies). Il inter- vient régulièrement comme conférencier invité dans des colloques et des institutions culturelles en France et à l’étranger. Après huit années passées à la R&D des Orange Labs, il a rejoint en 2009 la direction du Groupe Orange pour piloter les programmes d’innovation en lien avec des musées. En octobre 2012, il rejoint l’École Nationale Supérieure des Arts Décoratifs (ENSAD) comme directeur de la Recherche, dirige EnsadLab et codirige le programme doctoral « Sciences Arts Création et Recherche » de PSL Research University. Il est membre des conseils scientifiques des Labex « Industries Culturelles – Création Artistique »

« Arts H2H ». Il a été par ailleurs à l’initiative, avec Natacha Seignolles, de la fondation de Décalab, agence d’innovation par l’art. Établissements de rattachement : www.ensad.fr ; www.univ-psl.fr Laboratoire : www.ensadlab.fr

Labex : www.univ-paris13.fr/icca ; www.labex-arts-h2h.fr

 

 

 

1. Comme le braconneur de Certeau ou le bricoleur de Lévi-Strauss, le pratiqueur désigne une manière particulière de se débrouiller avec des éléments de réalité en créant un agencement singulier. En ce sens, les trois termes forment une véritable série conceptuelle. (Emmanuel Mahé, « Les pratiqueurs », in: L’Ère post-média, ouvrage collectif, dir. J.-P. Fourmentraux, Editions Hermann, Coll. Cultures Numériques, Paris juin 2012)

2. Site web du laboratoire de l’Ensad : www.ensadlab.fr

3. Un des sites web de l’innovation d’Orange : www.primezone.orange-labs.com

4. Œuvre conçue et réalisée sous la direction de Samuel Bianchini en collaboration avec Dominique Cunin (EnsadLab), Catherine Ramus et Marc Brice (Orange Labs), dans le cadre d’un partenariat de recherche. Responsables du partenariat Orange / EnsadLab : Armelle Pasco, direc- trice des partenariats culturels et institutionnels d’Orange et Emmanuel Mahé, directeur d’En- sadLab. Site web du partenariat : www.surexposition.net

Les recherches et développements pour cette œuvre sont menés en lien avec le projet de recherche Cosima (« Collaborative Situated Media »), soutenu par l’Agence nationale de la recherche (ANR) et participent au développement de Mobilizing.js, environnement de programmation pour les écrans mobiles, élaboré par EnsadLab, à destination des artistes et des designers.

5. Texte de présentation de l’œuvre Surexposition, ibid.

6. Henri Bergson, « La Pensée et le Mouvant », 1934 (la notion de temps réel apparaît dans les deux premiers chapitres).

7. Saint Augustin, Confessions, Livre XI, trad. Péronne et Ecalle remaniée par P. Pellerin, Nathan, 1998.

8. Pierre Musso indique que Saint-Simon, dès le début du xixème siècle, anticipe les idées de pen- seurs contemporains comme Zygmunt Bauman décrivant nos sociétés contemporaines favori- sant les échanges et la mobilité comme fluides, liquides (Musso, Réseaux et société, PUF, 2003). Roy Ascott propose l’expression « moist media », les médias humides, pour décrire la conver- gence, dans les arts, des processus biologiques humides aux systèmes informatiques secs (Ascott, 2004, Planetary Technoetics: Art, Technology and Consciousness, Leonardo, Vol. 37, n° 2, MIT Press). Pour ma part, je propose le terme de « chaos media » (medias dans un sens large, pas au sens restrictif de la Presse) : des dispositifs relationnels chaotiques à comprendre dans un double sens : dans le sens usuel du terme chaos (le désordre, pour partie déterministe), et dans le sens étymologique grec, le gaz physique (Mahé, 2004, Pour une esthétique information- nelle, doctorat Université Rennes 2, 2004). De la liquidité à l’évaporation, du sec à l’humide, tout un processus de transformation est en œuvre et fait émerger des termes et des concepts relatifs à cette nouvelle réalité.

9. « Ta Panta Rhei » (Τα Πάντα ῥεῖ) : « Tout coule ». Cette formulation est attribuée au philosophe

présocratique Héraclite d’Éphèse (vième siècle avant J.-C.). Elle fait écho à la pensée d’un monde en perpétuel mouvement. À noter que la rhéologie (étude du comportement mécanique de certains matériaux mous) provient de ce terme. Cette science est très importante dans la recherche des nouveaux matériaux contemporains.

10.  Pour l’analyse complète de cet exemple, cf. Emmanuel Mahé, « La vitesse des mots. Expérimentation archéologique », in : Vitesses limites, dir. Alain Fleischer, Le Genre humain, n° 49, octobre 2010, Éd. Le Seuil.

11.  La notion de diagramme est ici à comprendre dans le sens attribué par Gilles Deleuze à l’ap- proche archéologique de Michel Foucault (Gilles Deleuze, foucault, Paris, Éditions de Minuit, 1986)

12.  Mission scientifique européenne (CNES). Site officiel dédié à Rosetta : http://smsc.cnes.fr/ ROSETTA/Fr

13.  Marguerite Yourcenar, L’œuvre au noir, Gallimard, Paris, 1968

14.  Le sociologue Norbert Elias prend la montre comme exemple pour décrire la relation entre individus et société à la fin du xixème et au début du xxème siècle (Norbert Elias, Die Gesellschaft der Individuen, Ed. Michael Schröter, Frankfurt am Main: Suhrkamp. Original 1939, published in English as The Society of Individuals).

15.  Cf. le débat entre Einstein et Bergson qui s’est tenu le 6 avril 1922.

16.  J’aurais pu également mentionner d’autres manières de conceptualiser les temporalités par exemple dans le cadre des récentes recherches en neurosciences, mais également en mettant en perspective avec d’autres classifications possibles car la distinction entre temps subjectif et temps objectif n’est évidemment pas si simple. Les philosophes, sociologues, physiciens, biolo- gistes, informaticiens, historiens, anthropologues et tout autre chercheur ont des approches différentes.

 

Emmanuel Mahé est directeur de la recherche de l’École nationale supérieure des Arts Décoratifs, Paris Directeur du laboratoire SACRe « Sciences Arts Création Recherche » (E.A. 7410, PSL Research University)

 

 




Programme Image et temps réel

Programme de l’édition 2014 de l’Obs/IN
Image et temps réel

Pour sa 4ème édition, l’Obs/IN s’est intéressé à l’image et au temps réel, s’articulant en deux volets. Le volet arlésien portait plus particulièrement sur « l’Open Data et la Création Artistique » à travers une journée d’études et un hackathon sur le site d’Arles de l’IUT d’Aix-Marseille Université. Pour le volet marseillais, le colloque et les ateliers ont eu lieu à la Villa Méditerranée à Marseille, autour de 3 grandes thématiques :

–  l’approche archéologique des réseaux

–  cartographie en temps réel

–  le cinéma interactif et le cinéma génératif

 

17 octobre 2014

Journée d’études « Open Data et création artistique »

IUT d’Aix-Marseille, site d’Arles / Rue Raoul Follereau, 13200 Arles

9h30-10h30 : Donnée et numérique : concepts et problématiques par Franck Renucci, chercheur en délégation à l’Institut des Sciences de la Communication du CNRS et Jean-Marc Réol, Directeur de l’École Supérieure d’Art et Design Toulon Provence Méditerranée (ESDATPM). 10h30-11h00 : Les temporalités de la surveillance dans le cinéma et l’art contemporain par Anne Zeitz, docteure en esthétique des nou- veaux médias à l’École Doctorale « Esthétique, Sciences et Technolo- gies des Arts » de l’Université de Paris 8, sous la direction de Jean- Louis Boissier.

11h00-11h45 : Présentation du travail artistique de Tomek Jarolim, en présence de Julien Carbone de Metaxu, laboratoire/atelier et espace d’exposition à Toulon.

11h45-12h15 : échanges avec la salle

14h00-15h00 : Data, création et conservation par Emmanuel Guez, responsable de la recherche à l’École Supérieure d’Art d’Avignon.

15h00-15h45 : Présentation des projets menés à Zinc avec Fabien Perucca, chargé de projet multimédia à ZINC, Friche de la Belle de Mai et Diego Ortiz, artiste.

15h45-16h30 : Présentation des projets menés à l’École Supérieure d’Art et de Design de Marseille (ESADMM) avec Grégoire Lauvin, artiste et intervenant à l’ESADMM.

16h30-17h15 : Présentation du travail artistique de Julien Bayle, artiste numérique, codeur, et professeur d’art numérique.

17h15-17h45 : échanges avec la salle

 

18 et 19 octobre 2014

Hackaton « Open data et création numérique »

IUT d’Aix-Marseille, site d’Arles / Rue Raoul Follereau, 13200 Arles

samedi 18 octobre

10h00 : Accueil 10h15 : Kick off

10h30-11h00 : Proposition de projets, constitution et répartition des groupes dans les espaces de travail

Dimanche 19 octobre

16h00 : Fin du travail des groupes 16h20 : Pitch des projets

17h30 : Délibération du jury et remise des prix 18h00-18h30 : Pot de fin

mentors :

Aymeric Pathier, spécialiste Open data et patrimoine

Grégoire Lauvin, artiste numérique et intervenant à l’ESADMM, Marseille

Yannick Vernet, responsable des projets numériques à l’ENSP d’Arles Marie-Julie Peltier
membres du jury :

Roselyne Aliacar, Département des programmes numériques au ministère de la culture et de la communication

Charles Népote, responsable de programme à la FING

Catherine Fekrane, responsable Prospective Numérique et Intelli- gence Économique à TVT Innovation

Christophe Guion, directeur Projets Innovants Orange Sud-Est Julien Carbone, co-fondateur de Metaxu à Toulon

Frédérique Verlinden, vice-présidente de l’AGCCPF PACA Marc Alcaraz, développeur, stratégie Open data


20 et 21 novembre 2014 – Journées de conférences et ateliers

Villa Méditerranée – Esplanade du J4, 13002 Marseille

Jeudi 20 novembre

09h00 : Accueil & ouverture du colloque

09h45 : Conférence inaugurale / Emmanuel Mahé (ENSAD, Paris) 10h35 : Obs/IN Orama, Focus Recherche Temps-réel et temps de l’histoire. Archivage entre pérennité et ouverture, entre mémoire et art vivant, entre document et évenement par Joanne Lalonde

11h00 : Présentation du travail de Steven Daniel, Gaëtan Trovato et Julien Ferrato, lauréats des Bourses de recherche et de création de l’Obs/IN 2014

11h30 : Table-ronde sur « Les réseaux » animée par  Emmanuel Guez (ESAAvignon) avec Emmanuel Mahé (ENSAD), Joanne Lalonde (UQAM), Christophe Bruno  (ESAAvignon)

14h00 : Démonstration des œuvres d’Albertine Meunier et Julien Le- vesque

15h00 : Obs/IN Orama, Focus Recherche Connexion multiple entre le direct et le différé, le local et le global, l’intérieur et l’extérieur : à propos de quelques œuvres cartographiques en temps-réel de la Nuit Blanche par Sun Jung Yeo

15h30 : Table-ronde Cartographie et géolocalisation animée par Caro- line Bernard (ENSP) avec Karen O’Rourke (Univ. Paris I), Jean Cristofol (ESAAix), Christophe Guion (Projets Innovants Orange Sud-Est), Alber- tine Meunier et Julien Levesque

16h30 : Rapport d’étonnement par Dominique Moulon (ECV / EPSAA) 17h00 : Obs/IN &OUT Café – échanges – rencontres

Soir : Vernissage de l’exposition des lauréats de la Bourse Obs/IN, à  la Compagnie, Marseille (exposition du 20 novembre au 20 décembre 2014)

 

Vendredi 21 novembre

09h30 : Conférence / Jean Dubois (UQAM)

10h15 – 10h35 :Obs/IN Orama, Focus Recherche Gaza Sderot, un web- documentaire aux temporalités multiples par Marianne Charbonnier 10h35 – 10h55 : Obs/IN Orama, Focus Recherche Corps opérateur, su- jet filmé et dispositifs optico-informatiques en connexion temps-réel, entre imaginaire du contrôle et tentative d’élusion par Franck Leblanc 11h00 : Présentation du travail d’Eve Woda, lauréate des Bourses de recherche et de création de l’ Obs/IN 2014 et de Jean Dubois (UQAM) 11h30 : Table-ronde le Cinéma interactif et génératif animée par Caro- line Renard (LESA / AMU) avec Paul-Emmanuel Odin (La Compagnie), Marie-Laure Cazin (Réalisatrice), Sébastien Aubert (Adastra Films / Réseau PRIMI)

12h30 : Rapport d’étonnement par Dominique Moulon

14h-17h : Obs/OFF, les Ateliers de l’Obs/IN

–   Préservation et archéologie de l’art des réseaux, par Lionel Broye, Prune Galeazzi, Emmanuel Guez

–   Médiation des œuvres en temps réel, par Marie-Sylvie Poli

–   Le cinéma interactif et ses publics, Antoine Gonot, Marianne Charbonnier, Rémi Adjiman et Stéphane Natkin,

en partenariat avec PRIMI




Image et temps réel

Image et temps réel
La notion de temps est d’un accès difficile. Il recouvre non seule- ment différents concepts (durée, événement, mesure, etc) mais encore plusieurs définitions : temps physique, temps psychologique, temps biologique, temps cosmogonique, temps géologique, temps de l’atmosphère, etc.

La notion de temps réel, quant à elle, a émergé au sein des domaines informatiques industriels dans les années 1960. D’abord centrée sur l’immédiatetéle temps réel était perçu comme un simple mode de traitement qui permet l’admission des données à un instant quel- conque et l’obtention immédiate des résultats – sa définition n’a cessé ensuite de croître et de se complexifier pour intégrer certains points importants pour l’ingénieur ou l’informaticien : l’extériorité du système en fonctionnement à contrôler ; l’obtention d’informations sur des processus externes ; la séparation entre le traitement de données extérieures collectées et le contrôle effectif physique ; le contrôle d’un environnement grâce à une rapidité suffisante ; le taux d’utilisation élevé et le respect garanti des contraintes temporelles. Dans les arts médiatiques, le temps réel définit une modalité temporelle des systèmes de traitement de l’information dans lesquels il n’y a pas de délai entre la sortie d’informations et l’entrée de don- nées. Ici, le temps réel est caractéristique du mode interactif. Il s’agit ainsi, d’une part, de savoir réagir à un stimuli extérieur au système et, d’autre part, de poser clairement la distinction entre l’idée de deux temporalités en opposition – entre du « direct » et du « différé ».

L’instantanéité perceptive, d’une part, et l’interaction homme- machine, d’autre part, constituent à la fois des différences avec les définitions empruntées à l’ingénierie informatique mais aussi des traits caractéristiques essentiels du temps réel tel qu’il est appréhendé dans le domaine des arts.

Dans les arts néo-médiatiques et numériques qui nous intéressent particulièrement à l’Obs/IN, loin d’être en opposition les unes aux autres, toutes ces définitions peuvent se croiser, s’imbriquer, voire se compléter. C’est là toute la richesse de cet exercice. Bien qu’inscrites dans la sphère médiatique, les œuvres dont il est question ici dépassent le simple rapport entre machine et instantanéité. L’outil informatique apparaît presque systématiquement dans les domaines où l’interaction avec l’environnement constitue une rai- son d’être essentielle au système. Se posent alors, dans un premier temps, les questions du contrôle, de la participation, de l’incorporation de règles et de la structure de l’action engagée, de processus de feedback, de boucle rétroactive, des algorithmes, etc.

Viennent ensuite, toute une série de questions relatives aux nouvelles formes d’expériences esthétiques spécifiques à cette relation multi-temporelle particulière qu’est le temps réel.

L’Obs/IN invite donc cette année à embrasser l’ensemble de ces questions esthétiques posées par le temps réel dans son questionnement à l’image. Outre la nature spécifique de ce temps réel (convergence, extension, enchevêtrement et préhension) seront explorées les nouvelles formes d’esthétique spécifiques à ce type d’expérience en régime numérique. Celles de l’esthétique de l’interactivité et de l’interaction par exemple. Par ailleurs, le temps réel dans le champ de l’art néo-médiatique en général et de l’image numérique en particulier a sans doute favorisé de nouvelles interrogations et posé les bases d’une esthétique de la réponse (et de son inscription dans un contexte précis). À celles- ci nous pourrions ajouter une esthétique du process, de la performance ou de la performativité, du game et du play, etc.

Porté par une équipe transdisciplinaire, l’Obs/IN est dans une démarche d’ouverture qui lui permet une confrontation avec d’autres pratiques de recherche, d’intervention ou de création. Ainsi, l’Obs/IN renouvelle ses approches et se donne les moyens de pouvoir pleine- ment appréhender les enjeux que recouvrent les pratiques de création des images numériques.

 

Trois thèmes sont privilégiés :

1- lapproche archéologique des réseaux

Cette approche archéologique des réseaux pose la question de la relativité époquale (historique) du temps réel. La transmission de l’information « en temps réel » est au cœur de la notion de réseau, des premiers réseaux télégraphiques puis téléphoniques jusqu’à l’Internet et la téléphonie mobile, en passant par le Vidéotex, dont le terminal français est le Minitel. La notion de temps réel s’est alors transformée parallèlement aux possibilités techniques et aux usages du réseau. Des effets médiatiques des réseaux, en évolution continue depuis un siècle et en dialogue avec d’autres média, comme la télévision et la radio, a découlé à chaque fois une certaine idée du temps réel, faite de discours, de représentations, de pratiques et d’usages, contribuant à définir ainsi un écosystème médiatique. L’art des réseaux, caractérisé par des phénomènes d’émergence et d’obsolescence logicielle et matérielle marqués et rapides, témoigne de ces mutations. Comment s’emparer artistiquement et de manière sensible de cette approche archéologique des réseaux ? Comment explorer le temps réel des média nouveaux à l’aune des anciens et vice-versa ? Par ailleurs, comment, à travers l’exploration d’œuvres des  arts des réseaux ou à travers les machines médiatiques elles-mêmes rendre compte des écosystèmes médiatiques dans lesquels elles sont nées ? Enfin, quelle pérennité (notamment matérielle) ont les œuvres d’art des réseaux qui font (ou ont fait à une date donnée) largement appel au temps réel ? Cette dernière question touche à la préservation des arts médiatiques.

 

2- Cartographie en temps réel

Les cartes sont depuis le XVième siècle ce qui détermine à la fois les formes dans lesquelles nous nous représentons l’espace concret et dans lesquelles nous agissons. Elles ont produit un point de vue d’extériorité dominante qui a progressivement incarné un modèle de la connaissance objective. Elles accompagnent et contribuent à forger une notion de l’espace considérée comme une étendue homogène, susceptible d’être rationalisée, maitrisée, sur quoi nous projetons notre identité comme nos projets. En un demi-siècle, la logique territoriale s’est vue déplacée et bouleversée par la logique des flux, flux de marchandises, flux d’argent, flux d’informations, flux humains.

Les technologies de la mobilité et de la géolocalisation ont profondément transformé les pratiques et les représentations de l’espace. À la temporalité continue et linéaire des déplacements terrestres s’est substituée la complexité de temporalités complexes et multiples de sphères de circulation dans lesquelles les ordres du proche et du lointain, du rapide et du lent, ont perdu leur vertu d’organisation stable. Nous sommes passés d’un espace constitué comme un plan de visibilité posé face à soi comme le spectacle du monde, à un champ mouvant d’expérimentation dans lequel nous nous trouvons toujours, d’une façon ou d’une autre, immergés. La notion même de la carte est profondément réinventée en même temps qu’une nouvelle relation au monde vécu et à sa représenta- tion cherche les modalités de son objectivation. Elle ne relève plus de l’image fixe d’un monde stable, projeté comme un plan extérieur, mais de la modélisation mouvante d’interactions temporelles dans lesquelles le point de vue est inclus, relatif, ramené à un « moment » provisoire et partiel.

 

3- le cinéma interactif et le cinéma génératif

Le cinéma interactif est intimement lié à la question du temps réel. Composante de la réception de l’œuvre, il est aussi présent dans la phase de création. Il s’inscrit en effet de façon dynamique dans le processus de figuration des relations tissées entre le réel et les modalités d’enregistrement de celui-ci.

Mais le temps réel est avant tout l’essence de ces œuvres interactives. Inscrit au cœur même des images, il en permet l’apparition et le fonctionnement. Il les anime et influence leurs comportements. L’aléatoire et le génératif s’invitent dans ces processus de fabrication des images et l’enregistrement de ces processus permet non plus de donner à voir la seule trace de ce qui a été regardé dans le viseur, mais de garder et rendre compte de la performance et de l’expérience pour certains (les machinimas par exemple) ou figurer l’aléatoire (ou le pseudo aléatoire) pour d’autres (les films génératifs). On peut également se demander en quels termes poser la question du temps réel à des projets cinématographiques non interactifs.

Yannick Vernet
avec Jean Cristofol, Emmanuel Guez, Caroline Renard