Carte, cartographie et géolocalisation. Une brève histoire de la cartographie

image_pdfimage_print

Christophe Guion et Evelyne Lombardo

 

Depuis au moins 4500 ans, pour mieux penser l’espace et agir, les hommes ont créé des cartes sur lesquelles ils ont positionné des objets, des ressources, des limites, des frontières, des habitations. Ces représentations de l’environnement physique leurs ont en retour permis de se projeter dans le monde réel.

Les premières cartes géographiques connues, gravées sur tablettes d’argile pendant l’époque sumérienne, datent en effet de 2500 ans avant notre ère.

Pour les Grecs du vième siècle avant J.-C., la carte doit représenter le plus exactement possible le monde en tenant compte des coordon- nées géographiques. L’échelle régionale est privilégiée.

Quant aux Romains, ils se concentrent davantage sur la carte pour les voyageurs qui se soucient des routes, des lieux de traversée des cours d’eau, des relais de poste, et des détails utiles aux voyageurs.

Mais qu’est-ce qu’une carte utile ? Au Moyen-Age, de nombreuses cartes montrent l’empreinte des préoccupations religieuses qui imprègnent la société occidentale, et les commanditaires des cartes. La carte dite T en O (Terrarum orbis) est l’exemple classique d’une cartographie qui mélange délibérément géographie et foi. Jérusalem est positionnée au centre, à la jonction des barres du T ; ce T détermine les 3 continents de la Bible (selon les trois fils de Noé), et c’est aussi le T de Trinité et le symbole de la croix de Jésus : les fidèles n’ont plus qu’à se positionner (se géo-localiser ?), par rapport à ce centre spirituel : cette carte, au fond sert de support   à la réflexion philosophique et religieuse : quelle est la place de l’homme sur la Terre et face à Dieu ?

Les cartes évoluent ensuite grâce à la rencontre avec les géographes arabes qui aident à leur rationalisation, puis avec les géographes portugais du temps de la description des côtes de l’Afrique, puis avec ceux des grandes découvertes au-delà du monde classique. A partir du xvème siècle et grâce à l’imprimerie, les cartes peuvent enfin être reproduites sans ajout d’erreurs, jusqu’à une explosion de la demande au xvième siècle, dans le cadre d’une mondialisation marchande.

Vers 1715 en France, Picard et Cassini se lancent dans la mise au point de cartes topographiques, chaque point du territoire français devant être positionné dans des coordonnées géographiques exactes, dans un système de la triangulation. C’est la recherche systématique de l’exactitude.

Ce n’est qu’à la fin du XIXème siècle que l’Europe sera totalement cartographiée. La carte géographique, jusqu’à très récemment, reste la représentation d’un paysage réel. Seuls les éléments structurants, ceux du paysage pérenne, sont cartographiés.

Ce qui n’empêche nullement la diversité de la représentation : l’échelle de la carte et les figures des points remarquables varient en fonction de l’objectif de communication, de la technique, des pré- occupations de l’époque, de la destination de la carte. La représentation varie aussi en fonction de la nature du commanditaire, qu’il soit un roi conquérant, un marchand, ou l’Église.

La qualité des cartes dépend de la précision de l’observation et des outils de l’arpenteur, et des progrès techniques et scientifiques : pas de carte précise sans géométrie. La qualité des cartes s’accroît alors avec les développements des concepts physiques, mathéma- tiques, et des moyens techniques.

 

De nouvelles exigences

Au XXIème siècle, la carte ne se limite plus seulement à la définition géographique traditionnelle décrite ci-dessus. On lui demande aujourd’hui de mettre en évidence la complexité des situations économiques, géopolitiques. Elle doit montrer des flux de population, des quantités de marchandises échangées, des richesses nationales. La carte doit alors être enrichie, et sa représentation repensée : faut-il pour montrer l’aisance matérielle mixer le PIB par habitant, et le revenu net, ou bien s’intéresser au patrimoine et à la consommation ?

Evoquons le simple concept de frontière.

Le tracé de la frontière est une marque traditionnelle sur la carte. Ce trait rassurant est celui de la séparation, et aussi de l’interface, entre administrations, entre nations. Il peut toujours être tracé sur une carte. Mais est-il aujourd’hui aussi opérant que jadis ? La territorialité en effet se transforme, par exemple lors de la mise en place de contrôles de migrants directement sur le territoire du pays d’origine, ou lors de la mise en place de zone d’exception. Pour conserver son pouvoir d’explication, la notion de frontière doit être revisitée, la carte doit refléter ces nouvelles territorialités.

 

Problématique de la géolocalisation des objets mobiles

Sur les cartes anciennes, contrairement aux objets et structures pérennes du paysage que les cartes représentent, les « événements », labiles, n’apparaissent pas.

Géo-localiser consiste à positionner des événements, des objets, des personnes en des lieux précis, sur le globe terrestre, par rapport au cadre de la carte. Si la carte est l’outil premier pour celui qui doit comprendre un paysage, la géolocalisation permet de contextuali- ser son action.

Pour illustrer l’importance de la géolocalisation prenons la problé- matique du marin, qui doit sécuriser sa navigation : sans instrument, le marin des temps anciens (et modernes) cabote, essayant de ne pas quitter la terre des yeux. Muni d’une carte marine décrivant les contours de la côte, il peut tenter de se repérer, en observant les amers (les points terrestres fixes et caractéristiques), et les reportant sur la carte, mais l’appréciation au jugé des angles et des distances est réduite. Muni en plus d’un compas de visée et d’une règle, il parvient à fixer sa position : il note l’angle sous lequel il voit l’amer depuis son bateau. Sur la carte, il trace une droite passant par cet amer, sous l’angle mesuré : le navire se trouve sur cette droite. La visée d’un deuxième amer fixera la position du navire à la croisée des deux droites.

En haute mer, les points fixes disparaissant, le marin se munit d’un astrolabe ou d’un octant (tels ceux trouvés à Anticythère dans une épave du iiième siècle av. J.-C). A partir des années 1730, le sextant est disponible, qui permet au marin de définir sa position. A partir de la mesure de l’angle sous lequel le marin voit l’astre solaire, il détermine la latitude du point de l’observation à l’aide d’une table de déclinaison du soleil. Si le marin dispose d’un chronomètre de marine, il peut alors définir sa longitude.

Les techniques de géolocalisation, associées à une bonne cartogra- phie, sécurisent les expéditions marines.

Aujourd’hui, le marin moderne utilise les systèmes de géolocalisa- tion par satellite.

 

Quelques techniques modernes de géolocalisation

Les techniques à base satellitaire GPS ou le GLONASS russe sont disponibles, en attendant la mise en place du système européen Galiléo. La précision du GPS pour les services commerciaux est de l’ordre du mètre. Pour des applications scientifiques qui utilisent l’onde porteuse du signal GPS, la précision peut atteindre le milli- mètre (utile notamment pour la mesure du mouvement des plaques tectoniques).

Rappelons le fonctionnement général de la géolocalisation satellitaire : il s’agit pour un récepteur (par exemple incorporé dans votre smartphone) de calculer lui-même sa position par triangulation à partir de l’analyse de signaux synchronisés en provenance de satellites en visibilité du récepteur dont la position est connue.

Pour être hégémonique en milieu extérieur, la géolocalisation par GPS n’est pas la seule technique. D’autres systèmes, par exemple celui fondé sur la constellation de satellites Iridium sont promet- teurs notamment dans la géolocalisation intérieure, puisque les ondes des satellites iridium sont davantage pénétrantes.

La localisation en milieu extérieur est résolue depuis longtemps par le GPS. Dans les espaces clos, les signaux GPS sont faibles, et la localisation d’objets mobiles nécessite d’autres technologies, notamment à base d’émetteurs radio intégrés dans des objets communicants. Nous nous limiterons à deux exemples : le beacon, et le système Quuppa.

Le beacon (le « phare », en anglais) est un simple émetteur dont la portée est réglable entre quelques dizaines de centimètres et quelques dizaines de mètres ; ce réglage détermine la précision de géolocalisation autour de la borne. Le beacon peut être fixé dans un lieu géo-référencé (une boutique, un musée…), et communique son identifiant à l’entour, avec la technologie de communication BlueTooth Low Energy qui, économe en énergie permet une émis- sion pendant 24 mois sans changement ni recharge de sa batterie. Le récepteur du signal est classiquement la couche de communi- cation BlueTooth du smartphone. La réception du signal en provenance du beacon génère une notification sur le smartphone, ce dernier étant alors géo-localisé par définition dans le périmètre d’action du beacon géo-référencé par le service applicatif qu’il sert. En fonction de l’application, la position approximative peut être affichée à l’utilisateur lui-même par rapport à une cartographie locale embarquée : l’utilisateur voit alors sa position dans le musée, ou dans l’une des galeries du centre commercial. Souvent, le service applicatif se sert de la localisation pour déclencher une action pertinente de type informative ou publicitaire, à travers une application sur le smartphone. Ainsi, la start-up aixoise Wannago propose aux commerçants la mise en place de bornes beacon à des fins d’attraction des espaces commerciaux pour les personnes entrant dans le périmètre d’action du beacon. Quant au Musée Jacquemart-André, il a installé de façon expérimentale 8 bornes beacon (qui savent rester discrètes dans l’espace muséal) dans deux salles du Musée. Les bornes aident le visiteur équipé d’un smartphone et de l’application du Musée à se repérer lors de sa visite. Elles pourront aussi bien déclencher l’ouverture d’une vidéo ou d’un guide vocal de nature à compléter et enrichir la visite.

Quuppa, une spin-off de Nokia, résout le problème de la géolocalisation in-door en constituant un réseau de contrôleurs maillant un territoire. Les objets devant être géo-localisés envoient eux-mêmes des signaux vers le contrôleur à portée, signaux   qui intègrent leur identifiant, dont l’unicité doit être garantie : un cas d’usage consiste à équiper des caddies de supermarché avec des émetteurs Quuppa. Les signaux sont repérés dans l’enceinte du supermarché par le contrôleur géo-référencé dans telle partie du magasin. Le principe de géolocalisation repose sur la capacité du contrôleur à repérer les angles sous lequel il reçoit le signal, aussi bien en vertical qu’en horizontal ; c’est ainsi qu’un contrôleur unique peut positionner l’émetteur dans l’espace. Il suffit alors de position- ner sur le plan du bâtiment un icône représentant l’objet repéré.

Quuppa propose ainsi aux supermarchés de mesurer le nombre de personnes présentes, de connaître les rayons les plus fréquentés dans l’enceinte de sa surface commerciale. Le supermarché peut disposer en temps réel, des cartes de chaleur, colorisées en fonc- tion de la durée du passage des clients, pour mettre en évidence, par exemple, les rayons à succès. Le supermarché peut croiser ces cartes avec son système d’achalandage et ses campagnes promotionnelles.

Le monde du commerce souhaite que la géolocalisation des objets, désormais banale, soit complétée par une caractérisation du por- teur de l’objet communicant. Le développement des capacités d’analyse et de traitement couplé à l’usage, par exemple de cartes des points d’accès wifi géo-localisés aident à cette caractérisa- tion, au point de porter potentiellement atteinte à la vie privée, et en particulier à la liberté d’aller et venir anonymement. Alexandre Soljenitsyne, dont la conscience d’écrivain a grandi dans les camps soviétiques disait que « notre liberté se bâtit sur ce qu’autrui ignore de nos existences » ; la maîtrise de notre géolocalisation est un élément de notre liberté, ce que rappelle constamment la CNIL (Commission Nationale Informatique et Liberté).

 

Nouvelles cartographies

Les nouvelles cartographies s’appuient entièrement sur le numérique. Elles mettent classiquement en œuvre des logiciels nommés SIG (Systèmes d’Informations géographiques) qui grâce à des bases de données gérant les catégories d’objets permettent à l’utilisateur de composer lui-même « en temps réel », le positionnement sur un fond de carte, les données qu’il veut voir apparaître en fonction de ses centres d’intérêt.

Précisions que nous utilisons ici l’appellation « temps réel » dans deux de ses acceptions : le temps réel issu d’une reconstruction ultérieure de la séquence des événements (voir plus bas l’exemple de flux vision), et le temps réel de l’horloge, ou du tachymètre (voir plus bas les cartographies à base de réalité augmentée).

L’utilisateur adresse donc sa requête ou sa demande d’analyses statistiques au SIG. La réponse du SIG à la requête prend la forme d’une visualisation ou d’une analyse géographique.

Tous les domaines présentant un lien étroit avec la géographie sont concernés par les SIG : développement de nouveaux marchés, l’étude d’impact , organisation du territoire, gestion de réseaux, suivi en temps réel de véhicules, protection civile… : chaque domaine tire profit de la puissance des SIG qui construisent des vues de diffé- rents scénarios d’évolution au niveau d’un quartier, d’une ville…

Nous allons détailler de  nouvelles  approches  cartographiques, qui sont à divers niveaux de maturité, tantôt développées en labo- ratoire, tantôt en phase d’expérimentation, pré-commerciale ou commerciale.

 

La data-visualisation pour intégrer le temps et l’espace

Pour rendre compte d’une grande quantité d’informations géo- localisées, en rapport avec des événements labiles dans le temps, des systèmes cartographiques spécifiques sont créés, appelés data-visualisation.

La data-visualisation commence toujours par une collecte de don- nées et de chiffres bruts. Les données brutes sont sélectionnées, traitées et formatées dans un tableur. L’infographiste ou le desi- gner imaginent alors la meilleure façon de les présenter. Les données sont mises en forme grâce à des logiciels (Illustrator d’Adobe), applications et services web, librairies javascript, etc.

Nous illustrerons ici notre propos avec des data-visualisations dépendantes de la géographie, développées par l’opérateur Orange. Le réseau téléphonique mobile 2G/3G/4G de l’opérateur gère en permanence des flux importants de données techniques. Les téléphones mobiles en position de veille sont pris en charge par l’antenne mobile dont le signal est le plus fort. Même sans action de l’utilisateur, les appareils échangent des données techniques périodiquement avec l’antenne de rattachement. C’est cette veille permanente qui permet lorsqu’un appel est émis vers un abonné, d’assurer le cheminement de l’appel au sein du réseau.

Donnons un exemple de résultat apporté par l’offre    commerciale

« Flux Vision » dans le monde du tourisme : il consiste en la création et la fourniture d’une carte de chaleur. Pour la réaliser, il faut relever régulièrement la quantité de téléphones mobiles en veille dans les parties d’une ville. En fonction de seuils de concentration en mobiles repérés, cela colorise la case correspondante. La data visualisation révèle alors les mouvements pendulaires quotidiens, ou les fortes concentrations en rapport avec les événements d’importance dans la ville (un concert en plein air, un marché, un feu d’artifice…).

Orange travaille en permanence avec la CNIL en France, afin de mettre en place des services « big data » à la fois utiles pour les clients et respectueux de la réglementation.

Donnons un exemple de data-visualisation portant sur l’analyse globale – et anonyme, des mouvements de population dans un quartier d’une ville : les habitants se déplacent dans la ville au cours de la journée ; porteurs d’un téléphone mobile ils sont localisés grossièrement dans le périmètre des antennes auxquelles les téléphone   mobiles  sont

accrochés ; l’empreinte collective est alors calculée d’autant plus haute et visible que, d’une part les personnes demeurent une quantité plus importante de temps au même endroit et, d’autre part, le nombre des personnes présentes à cet endroit est important.

L’empreinte collective renseigne sur les habitudes de mobilité d’une collectivité. Le croisement avec des points géo-référencés tels que les arrêts de bus fournissent une grille de lecture comportementale sur les habitants d’un territoire.

Le document ci-dessus montre les flux de mobilité à un niveau infra-départemental ; il s’agit d’abord de définir le volume de tou- ristes ayant séjournés en Provence Salonaise. Puis de mesurer les flux des touristes pendant ce séjour : on voit ainsi se dessiner l’at- tractivité relative des lieux qui entourent le site de séjour.

Ces cartographies s’appuient sur l’analyse de volumineuses bases de données.La data-visualisation qui intègre la dimension du temps, peut être présentée sous forme d’une vidéo en accéléré. L’utilisateur observe alors la complexité des mouvements d’ensemble. Face à cette complexité exposée, l’humain réagit de façon intuitive, c’est-à- dire en comprenant, ou, mieux, en « ressentant », de façon globale. C’est ainsi que nombre de ces data-visualisations sont utilisées en terme de communication. Mais on peut imaginer un usage pratique de ce type de data-visualisation en tant que déclencheur pour l’intuition : un stratège, un dirigeant d’entreprise pourrait intégrer quotidiennement ce type de visualisations cartographiques comme une aide à la compréhension globale du fonctionnement d’un sys- tème. Il tirerait partie, par le repérage de variations, d’anomalies dans la pulsation du système complexe qu’il a sous les yeux, d’une connaissance nouvelle pour en déduire des actions. Si on veut quit- ter le terrain de l’intuition, ou tout au moins, appuyer logiquement une décision à prendre, le travail est alors effectué classiquement, hors data-visualisation, à partir des extractions de la base de don- nées, afin de définir des corrélations fines entre événements. De simples graphes à deux dimensions bien adaptés à des analyses circonscrites prennent alors le relais.

 

Data-visualisation et croisement des données

La data-visualisation croisant les données géographiques avec d’autres informations concernant notamment les transports publics, les données INSEE, et autres, permet des analyses glo- bales concernant un territoire :

–   adapter les fréquences et horaires de passages de bus (semaine, WE),

–   quantifier les citoyens, touristes, excursionnistes, transi- taires d’un territoire,

–   valoriser les connexions entre territoires crées par les flux touristiques,

–   fréquentation des zones de chalandise par catégorie de population, et horaires des boutiques.

Le jeu de services Flux Vision évite tout risque lié à la diffusion d’une géolocalisation à l’insu des porteurs de téléphones, parce que seules les données retravaillées, agrégées, statistiques, globales, sont mises à disposition des clients du service.

Citons également les travaux de l’entreprise Mapd (http://tweet- map.mapd.com). Son service permet l’exposition en quasi instan- tané, en mode data-visualisation des volumétries des tweets sur un territoire, ainsi que les top-trends, c’est-à-dire les mots clefs les plus souvent contenus dans les tweets. Les tweets sont géo-loca- lisés par GPS. Cet exemple démontre en fait l’intérêt d’une nouvelle technologie de calcul en parallèle par des processeurs graphiques (naguère utilisés uniquement pour l’affichage rapide des images dans les jeux)

Si la data visualisation ne procède pas d’un changement concep- tuel, elle représente un progrès grâce au changement d’échelle qu’elle permet : la quantité d’information délivrée peut bien être centuplée par rapport à une carte classique, la lecture humaine demeure possible, et riche de sens. De plus, la data-visualisation présente le surgissement d’événements labiles.

Ces data-visualisations sont rendues possibles d’une part par l’ali- mentation en temps réel d’informations en provenance d’antennes mobiles, ou de signaux GPS et, d’autre part, par la visualisation en temps réel, qui progresse grâce au calcul en parallèle bon marché rendu possible par l’usage des processeurs des cartes graphiques. Complétons notre analyse avec les nouvelles sources d’information que sont les objets connectés.

 

Cartographie : l’apport de l’internet des objets

Les objets connectés envahissent notre environnement. Munis de capteurs divers, ils récupèrent des mesures. Ces objets sont de plus souvent géo-localisés. L’information en provenance des objets est renvoyée vers des bases de données centrales. A ce jour, chaque service créé par l’entreprise correspondante alimente sa propre base de données. Il en découle un éclatement de la source d’infor- mation et des difficultés à croiser l’information.

Un enjeu fort pour le futur consiste à créer des structures d’accueil massives pour des données en provenance de sources diverses. C’est sans doute à cette condition que pourront être créés des ser- vices vraiment utiles, à partir de l’utilisation croisée des données. De grands acteurs comme Orange, à travers le projet DataVenue, commencent à proposer des plateformes permettant l’entrepôt de données variées, et une utilisation aisée, assorti d’un jeu d’API vers des services tiers, et complété par tous les dispositifs de sécurité, de droits d’accès, de micro-paiement et de confidentialité.

En attendant ce mouvement de fond, chaque acteur construit sa propre base, contenant des jeux de données limités, mais suffisants pour qu’un nouveau type de carte apparaisse, qui se met à jour en « temps réel ».

Prenons le cas de l’entreprise Netatmo qui vend notamment des stations météorologiques individuelles. Le site  Netatmo  expose sa carte évolutive mondiale de la température de surface, nourrie par les remontées de données du terrain. Il s’agit des températures mesurées par des stations météo privées que chaque client Netatmo installe dans son jardin ou sur son balcon. Cette cartographie est de type « crowd-sourcing », puisqu’elle s’appuie sur des actions individuelles et volontaires pour assurer la remontées de mesures.

L’intérêt de cette cartographie réside d’une part dans le nombre des mesures disponibles et envoyées vers le serveur de Netatmo, et d’autre part dans la fraicheur et la disponibilité de la mesure. Au delà d’une certaine quantité de clients Netatmo, la pertinence du relevé crowd-sourcé peut être supérieur à celui fourni par les cap- teurs publics (par exemple, les capteurs de météo France) dont le nombre est limité. Notons de plus que le succès de Netatmo permet des relevés presque partout dans le monde. Ces mesures instanta- nées sont de plus en plus nombreuses, et leur fiabilité statistique s’accroît avec le nombre de points de mesure.

La constitution de bases de températures permet également une analyse sur le long terme : calcul de moyennes, des variations annuelles : le géographe, le climatologue, disposent ainsi d’une base pour l’analyse du climat. On peut alors imaginer que ce type de relevé peut participer à l’alimentation des modèles météorolo- giques et à la précision des prévisions météo.

 

Notons que si les données Netatmo sont stockées dans des espaces privés, il est toujours possible de récupérer certaines informations qui sont mises à disposition via des ponts, les APIs, qui permettent l’accès par un logiciel à des richesses logicielles tierces, ouvertes et déjà développées par ailleurs.

 

D’autres cartographies ?

Nous allons nous écarter davantage de la carte traditionnelle en considérant les cartes sonores diffusées à l’aide d’une interface qui est le casque audio.

Peut-on considérer les sons comme des événements positionnés dans une carte 3D qui serait l’espace de travail ? En tout cas, les aveugles vivent dans un environnement spatial qui privilégie l’audition. Ils ont pris l’habitude de pousser l’analyse des sons, leurs rebonds, et d’en déduire des distances, des volumes, des matières. Dans le fond, ils reconstruisent un paysage, donc une carte, et ce grâce aux événements sonores. Ces derniers sont en même temps des éléments de construction et de découverte de la carte.

Un premier exemple d’usage : l’auditeur, muni d’un casque audio classique, entend un orchestre jouer. Il à l’impression étrange d’être placé au centre de l’orchestre, c’est-à-dire un endroit ou, en fait personne ne prend jamais position. Comment créer cette impres- sion ? Il s’agit de travailler sur le son – avec un logiciel spécifique, de manière à séparer les musiques en provenance de chaque instrument, puis de remixer et de restituer les sons de manière à ce que l’oreille ait la sensation de la distance et de l’angle sous lequel il reçoit la source du son.

Une autre expérience consiste à créer une cartographie auditive à grande échelle : l’utilisateur porte un simple casque, mais bénéficie d’un dispositif de son spatialisé, et du travail logiciel créant la cartographie auditive de sons qui ne sont pas audibles par une oreille ordinaire, car elle s’appuie sur un réseau de capteurs de sons distants de plusieurs kilomètres. Il s’agit donc d’une cartographie auditive augmentée qui renvoie dans le casque des sons reconsti- tués, dont l’intensité et l’origine géographique (distance, angle) sont respectées. L’auditeur est plongé dans un paysage sonore qui four- nit l’intensité de l’usage des smartphones dans un environnement urbain (test Orange à la fête des lumières, Lyon).

Ces dispositifs peuvent être analysés comme un cas de figure de la Réalité Augmentée, sous forme auditive. Venons-en à présent à la réalité augmentée visuelle, et son apport à la cartographie.

 

Cartographie – apport de la réalité augmentée

La Réalité Augmentée permet classiquement de voir, à travers la caméra de son smartphone, d’une part le paysage réel, et d’autre part un sur-ajout d’éléments virtuels. Donnons un exemple : depuis la gare de la Ciotat, à travers votre smartphone, vous visez l’endroit approximatif ou se trouve la salle des frères Lumière au sein de l’application « Eden Théâtre ». Les icônes de tous les lieux cultu- rels alentours apparaissent dans votre écran. En complément, une mention de la distance qu’il vous faut parcourir à vol d’oiseau appa- raît également.

Intéressons nous à présent au cas du guidage du geste technique d’un professionnel. Par exemple, dans le cas de la maintenance sur un objet technique complexe (imaginons un réacteur d’avion). Le technicien est équipé d’une interface pouvant être une lunette, sur laquelle est projetée en sur-impression une carte « métier », qui met en valeur telle ou telle sous-partie, qui est ainsi mise en évi- dence, facilitant la maintenance. La difficulté réside dans la préci- sion de l’affichage sous l’angle pertinent, avec un cadrage précis : les technologies permettant de venir à bout de cette problématique de géolocalisation fine sont la reconnaissance de marques caracté- ristiques ou la reconnaissance de formes.

 

Cartographie dans le monde miroir

Contrairement aux mondes virtuels des jeux vidéo, qui sont une imagerie imaginaire, les mondes miroir ont pour fondement une cartographie du monde réel (imagerie 3D de lieux). Cette imagerie est restituée sur une interface (écran de PC, ou lunette type oculus rift). Ce sont des modèles numériques qui ont leur intérêt pratique notamment lorsqu’on veut visiter des lieux réels à distance.

Un exemple de monde miroir actuel est street view   (Google). Le terme est apparu en 1991 sous la plume de David Gelernter. Un oprateur comme Orange est intéressé par l’étude des mondes miroir dans la mesure où il s’agit d’un nouveau champ de la communication interpersonnelle. Le visiteur se projette sur un site miroir (une place, une rue, ou une localisation au sein d’un bâtiment, …) et y est rendu visible sous la forme de son avatar. Cet avatar est visible par les autres visiteurs du monde miroir. Pendant sa visite virtuelle dans le monde miroir, le visiteur peut rencontrer d’autres visiteurs qui se sont eux-mêmes projetés pendant le même temps au même endroit que lui-même. Dans le projet expérimental Orange, La plateforme technique HybridEarth propose aux personnes dont les avatars sont dans une proximité virtuelle la possibilité d’interagir en mode textuel, ou en mode oral via la voix sur IP.

 

En guise de conclusion

Intégrant les apports du numérique, nourrie en temps réel par les milliards d’informations en provenance des objets connectés, positionnant ces objets à sa surface ou en son volume, la carte évolue en rapport avec la complexité croissante et le besoin de la vitesse qui caractérise la société technique que nous vivons. Les termes de cartographie, de géolocalisation et de temps réel se joignent et se représentent ensemble. Cette représentation, pour être numérique, n’en est pas moins toujours graphique, « designée » avec art, afin de demeurer accessible voire attrayante. Potentiellement plus riche en sens qu’autrefois, la carte d’aujourd’hui traite tous les sujets, montre tous les croisements d’informations disponibles et se lit au travers d’interfaces variées. Aujourd’hui comme hier la carte est cet outil de projection qui permet la réflexion et l’action dans le monde réel. Aujourd’hui, les utilisateurs des cartes voient surgir des événements qui trouvent leur source dans des mondes mixant le réel et le virtuel.

 

 

Christophe Guion

Diplômé de l’IAE, puis de Skema-Ceram (mastère en Technologies  de l’Information) Christophe Guion a mené une carrière d’Analyste (Dassault Aviation), de Consultant en Systèmes d’Information (Gemini Consulting), de Business Manager et d’Account Manager  télécom pour des grands comptes (Orange).

Depuis 2009, en tant que Directeur de Projets Innovants au siège de la Direction Orange Sud-Est. Christophe Guion accompagne le développement du numérique dans les Collectivité Locales.

Au contact des Orange Labs, il propose, adapte des expérimentations Orange sur les territoires du Sud Est dans les domaines du numérique, tels que l’analyse de la présence touristique avec les moyens du big data. Il promeut la capacité d’innovation d’Orange en proposant des briques numériques innovantes contributives de la construction de la smart-city. Il intervien dans différents colloques régionaux et nationaux. Passionné par l’innovation C.Guion contribue à l’open innovation et promeut au sein d’Orange l’offre de start-up régionales spécialisées.

En contact avec le monde universitaire, Il co-organise ou bien est coach lors de hackathons. Enfin, il co-construit et anime des cours orienté créativité et innovation sur les sujets du numérique.

 

Docteur Evelyne Lombardo

Titulaire d’une thèse en Information et en Communication, E. Lombardo est Maître de Conférences depuis 2007, et a intégré en 2012 le Laboratoire LSIS (Laboratoire des Sciences de l’Information et des Systèmes) du CNRS. Elle a été Visiting professor à l’Université d’Ottawa (2014, centre Telfer). Son parcours inclut une maîtrise de Lettres Modernes, un DU d’animatrice en Ateliers d’Ecriture, un D.E.A de Lettres et Arts (Université Aix-Marseille) sur l’image virtuelle. Son expérience s’étend sur le domaine de l’entreprise ou elle a occupé des fonctions de directrice de la communication.

Ses domaines de recherches concernent l’image virtuelle, et plus spécialement les effets d’un cours en 3D immersif et interactif sur la cognition. Elle poursuit ses recherches sur les problématiques du lien entre apprentissage, cognition et images virtuelles. Elle publie de nombreux articles classés dans des revues nationales et internationales et elle a participé à 20 colloques nationaux et internationaux. Passionnée de pédagogie, elle est enseignant-chercheur depuis 2003 dans différents domaines : management, psychosociologie des organisations, personnel, communication, créativité et innovation.