Selim Krichane

Les images photographiques des dispositifs de cartographie numérique, ou la Terre selon Google

Me voilà à présent dans une ville qui m’est étrangère. Je découvre progressivement les secrets de cette mégalopole, en arpentant ses avenues et ses ruelles. Mais, assurément, je ne la connais pas. Une ville si grande que nul habitant n’en connaît toutes les strates.

Je souhaite me rendre dans un restaurant, conseillé par un ami la veille au soir. Il m’a fourni le nom de l’établissement ainsi que des informations succinctes quant à son emplacement. Avant de m’y rendre, comme par réflexe, je consulte un site internet de cartographie numérique. J’entre le nom du restaurant.

A peine quelques centièmes de seconde, et la carte se « rafraichit », centrée sur l’établissement ; les rues, carrefours et places alentours.

La carte est faite de données vectorielles qui dessinent des étendues pastel, des lignes colorées, des points, accompagnés de mentions écrites. Afin de situer le lieu, grâce à un mouvement de doigts sur le périphérique de contrôle tactile de mon clavier, j’effectue un zoom arrière. La carte fait alors mine de s’éloigner, les traits et points sont ponctuellement affublés d’un crénelage plus ou moins marqué, de nouvelles strates apparaissent, d’autres s’évaporent.

Un clic de souris et les graphismes vectoriels laissent place à un collage d’images satellitaires. Zoom avant, puis ces images photographiques, floues, puis nettes, laissent place à un patchwork de photographies aériennes, prises depuis un avion. L’interface de l’application me propose de rendre à cette ville sa verticalité. Une nouvelle couche apparaît alors, et les textures photographiques des bâtiments sont maintenant collées à des squelettes tridimensionnels qui épousent les parois des gratte-ciels.

Je souhaiterais voir la ville de plus près, poursuivre ma plongée vertigineuse vers son sol bitumé. L’image devient à nouveau floue, temps de chargement, puis un panorama de photographies, prises depuis la route, apparaît à l’écran. A la recherche du restaurant, je fais pivoter ce collage sphérique, puis navigue de demi-sphère en demi-sphère, le long des trottoirs…

Quand Google joue cartes sur tablette

Les dispositifs de cartographie assistée par ordinateur sont entrés dans le quotidien de nombreux utilisateurs dans le courant des dix dernières années1. Dans une ville connue ou étrangère, leurs réseaux d’informations topographiques, métriques et logistiques permettent de s’orienter, de planifier un trajet, ou encore de visualiser un lieu avant de s’y rendre. L’application Google Maps, précurseur dans le domaine2, ainsi que son API [interface de programmation] publiée gratuitement par Google en 2005 3, jouissent d’une grande popularité depuis leur lancement. Les images satellitaires, et plus généralement les images photographiques dont la prise est automatisée, occupent une place de choix au sein du régime scopique de tels dispositifs.

Le présent article va tenter –avec l’aide de travaux issus du champ des « nouveaux médias »– de cartographier le régime scopique érigé par les programmes et applications grand public du champ des systèmes d’information géographique, en se concentrant sur la place et le statut des images photographiques. Il sera dès lors question de l’espace que dessine un programme comme Google Earth, de ses rouages algorithmiques, et de la manière dont il nous informe sur notre rapport contemporain au territoire, à l’ère du numérique.

De nombreuses applications web (et smartphone) et de multiples logiciels autonomes de cartographie ont fait florès depuis le succès de Google Maps et de Google Earth4. Ils représentent à présent un marché juteux qui s’est incorporé à la stratégie de nombreux grands groupes, comme Google. Nous avons choisi de nous concentrer ici sur l’application internet (GM) et le logiciel (GE) de la compagnie Google, pour plusieurs raisons.

Premièrement, les deux projets achetés par Google en 2004 à Lars et Jens Rasmussen (GM) et à la société Keyhole (GE) ont, du fait de leur succès, participé à la popularisation des plateformes grand public de cartographie numérique. Ils sont ainsi à la source de nombreuses innovations et de l’architecture globale de plusieurs applications clones qui leur ont succédé. Leur rachat par le géant Google permet par ailleurs d’exemplifier le rôle fondamental de la cartographie satellitaire, de la géolocalisation et du « data-mining » dans le contexte contemporain du « web 2.0 ».

Deuxièmement, le duo GE/GM illustre parfaitement, à notre sens, deux tendances des systèmes d’information géographique, avec, d’une part, un programme qui fait la part belle à l’image satellitaire, à la vue aérienne et à son exploration libre (GE) ; et d’autre part, une application web plus légère et accessible, qui met l’emphase sur le fond de carte reconstitué à partir de données GPS et des images satellitaires « sources », sur le squelette d’informations, étendues et points, qui permettent la navigation et l’orientation de l’utilisateur (GM). L’image photographique devient ici un canevas, un calque à partir duquel la « vérité du terrain » (« Ground Truth », pour reprendre le terme de Google) est dessinée, patiemment tracée par des employés de la compagnie ou des sociétés tierces5. Les interactions et dépendances, entre les couches cartographiques et satellitaires, constituent une des particularités des dispositifs d’information géographique multicouches et incarnés, qui situent sans cesse, par projection lors d’une requête de navigation, ou par triangulation satellitaire à l’aide de la technologie GPS6, l’utilisateur au sein des images qu’ils donnent à voir et à manipuler.

Google Maps et Google Earth : cybertextes, hypermédias, textes algorithmiques…

La navigation au sein de GE ou de GM requiert une intervention active de la part de l’utilisateur. Les données visuelles qui sont affichées à l’écran ne suivent pas de trame linéaire. Je peux, à tout moment, changer d’échelle, changer de lieu, dessiner un itinéraire de mon choix, modifier et superposer des couches d’informations.

Ces applications répondent ainsi à la définition du cybertexte qui fut avancée par Espen Aarseth en 1997 7. Dans son ouvrage, Aarseth propose un modèle d’analyse littéraire à même d’approcher ce qu’il appelle la littérature ergodique, à savoir les textes qui requièrent un agencement topologique de la part du lecteur (ou d’une instance tierce) afin d’être parcourus. La rétroaction dans le cas des systèmes d’information géographique est assurée par les entrées textuelles de l’utilisateur (lieu, adresses, etc.), ou par la manipulation directe de la carte « glissante » (« slippy map »8) et coulissante.

La particularité de tels dispositifs tient notamment au fait qu’ils possèdent deux « strates » matérielles distinctes. D’une part, l’interface qui désigne les données textuelles qui sont visualisées par l’utilisateur, et la database, agencement souterrain des informations, particulièrement apte à qualifier le fonctionnement des machines informatiques9.

En s’arrêtant sur le modèle fonctionnel d’Aarseth, on peut noter que les dispositifs Google sont dynamiques (« dynamisme textonique »), en ce sens que les chaînes d’informations visualisées (« scriptons ») ainsi que les chaînes d’informations souterraines (« textons ») sont variables10. GE et GM sont également des cybertextes « déterminés », puisque les images et informations visualisées sont toujours entourées des mêmes « chaînes de scriptons ». Cette « détermination » des informations est précisément due au caractère topographique des dispositifs, qui explique qu’un fragment de carte ou de territoire visualisé soit toujours entouré des mêmes fragments.

GE et GM sont par ailleurs, aux vues de la variable de « permanence », deux textes statiques. L’attente de l’utilisateur n’entraîne pas une modification automatique des « scriptons »11. Ce caractère statique renvoie aux matériaux premiers des dispositifs, vues aériennes montées en collage et schémas de données topographiques, qui sont eux-mêmes désincarnés et statiques. Le tour de force de Earth Viewer (qui est devenu GE) et de GM réside dans leur capacité à animer de telles données qui ne semblent pas, de prime abord, s’y prêter.

Les dispositifs d’information géographique sont par ailleurs caractérisés par une accessibilité en « random access », c’est-à-dire que toutes les parties du texte sont accessibles à tout moment. Ce caractère qui éloigne GE et GM des jeux vidéo, tout en les rapprochant des livres (eux aussi en « random access ») est fondamental aux possibilités de navigation et de déambulation des dispositifs.

Le rapport entre l’interface et la database est aussi fonction de la variable de « perspective » chez Aarseth, qui détermine le rôle (actif/passif) de l’utilisateur au sein du monde (fictionnel) du cybertexte12. Si l’utilisateur des programmes de cartographie numérique n’endosse pas un rôle particulier au sein du monde des cartes, il y est néanmoins inscrit par l’intermédiaire de la géolocalisation, et peut y être projeté, en vision subjective, avec le mode de visualisation Street View, dont nous parlerons plus tard.

Le statut ambivalent de l’utilisateur au sein de la représentation relève de la stratégie médiatique mise en place par les concepteurs de GM et GE, visant à promouvoir une expérience interactive et incarnée. GM est alors emblématique des hybridations entre les logiques hypermédiatiques et cybermédiatiques que repèrent Etienne Perény et Etienne Armand Amato dans leurs analyses techno-sociologiques des avatars en ligne13. Les hypermédias se distinguent par la mise en réseau navigable de contenus médiatiques (dans le prolongement de la logique des hypertextes, avec internet comme exemple clé), alors que les cybermédias, dont le jeu vidéo constitue le premier avatar historique selon Perény et Amato, sont redevables « d’une composante computationnelle », et impliquent « un mode d’existence bien plus iconique que textuel »14 au bénéfice de « simulations d’univers homogènes »15.

GE et GM sont d’abord des hypermédias topographiques, dont l’organisation du contenu refuse la topographie habituelle des adresses virtuelles du cyberespace. Ils constituent, selon la typologie des « cartes du cyberespace » établie par Dodge Martin et Rob Kitchin, des « domaines explicitement spatiaux avec des référents géographiques immédiats »16, qui sont à la fois interactifs et dynamiques. Les liens –et l’on peut considérer que toute paire de coordonnées constitue un lien à part entière– sont organisés selon une grille bidimensionnelle ; ou encore un collage de cases de taille similaire, en un gigantesque quadrillage orthonormé.

La visualisation tridimensionnelle et continue de la carte-monde, caractéristique de GE, rapproche ce dispositif des logiques cybermédiatiques décrites par Perény et Amato. La navigation continue de l’utilisateur au sein des dispositifs, ainsi que le calcul et l’affichage en temps réel du flux visuel, récusent les sautes et les discontinuités emblématiques de la navigation web.

D’ailleurs, les deux auteurs, qui mettent l’accent sur les procédés d’instanciation et de subjectivation propres aux cybermédias, soulignent que l’option de visualisation Street View, en vue subjective, constitue un exemple d’hybridation entre logiques cyber et hypermédiatiques17. Nous préciserions que l’ensemble du dispositif, par la mise en séquence continue d’images photographiques (ou de schémas topographiques), et la construction d’un espace continu et (globalement) homogène, tend à se rapprocher des logiques cybermédiatiques, et à favoriser un sentiment d’immersion chez l’utilisateur. Nous pourrions ainsi dire que les dispositifs de cartographie Google18 sont des hypermédias qui se déguisent en cybermédias, en offrant un sentiment de continuité et de cohérence à partir de clichés hétérogènes assemblés en patchwork, d’un schéma topographique constamment retouché et mis à jour, ainsi qu’un accès à une multitude de banques d’informations métriques 19.

Algorithmique, « algorismic »… Al Gore

Aussi, les cartes de Google sont-elles « programmées », en ce sens qu’elles engagent, à divers niveaux, des machines et des réseaux informatiques. Le régime scopique qui s’ensuit est ainsi en rupture avec les relations stables sujet-objet de la modernité, incarnée par la peinture perspectiviste, et dessine les contours d’un rapport nouveau à l’image, redevable du « tournant algorithmique » analysé par William Urrichio.

Si la couche algorithmique n’est pas « visible », elle « détermine au final ce qu’on voit, et même comment on le voit » 20. On peut reprendre ici à notre compte les remarques d’Urrichio quant à l’application de visualisation de mosaïques photographiques Photosynth21, pour noter que la logique structurelle de GM et GE ne « dépend pas uniquement d’une perspective unique (comme dans le cas d’un tableau de Canaletto), ni de la perspective de plusieurs personnes […], ni encore des prouesses de navigation de l’utilisateur », mais que tous ces procédés dépendent par contre « d’une intervention algorithmique » 22. Urrichio oppose dans son article l’épistémè moderne du rationalisme représentationnel d’un Descartes, saisi par la notion de Weltbild chez Heidegger, qui présuppose « l’idée que les mathématiques constituent un langage de précision, de calculabilité et de prédictibilité », aux « mécanismes sémiotiques » 23 des médias numériques, caractérisés par l’intervention omniprésente d’algorithmes qui viennent s’interposer, et partiellement guider, le rapport du sujet à la représentation. L’« algorismic » (régime de la modernité, rapport sujet-objet stable et unique, objectivité représentationnelle) laisse place à l’algorithmique.

Bien qu’Urrichio note à plusieurs reprises que les logiques qu’il rattache à l’ère « algorismic » ne soient pas anéanties par l’algorithme, mais se réinscrivent plutôt dans le nouveau régime visuel (et expérientiel) qu’il inaugure, il nous semble que ses études de cas tendent à accentuer le prétendument nouveau au détriment de l’ancien régime, qu’il incorpore néanmoins.

Plus encore, les dispositifs visuels d’information géographique semblent illustrer de manière unique les interactions potentielles entre l’image stable et « mathématisable » de la modernité, et son contrepoint algorithmique. En effet, quelle meilleure illustration à la notion de Weltbild, qui scelle chez Heidegger le rapport sujet-objet de la modernité, que le globe imagé de GE ? Aboutissement d’un effort encyclopédique et rationnel, la Terre selon Google est toute image. Ce qui connote un rapport nouveau au savoir, à la connaissance chez Heidegger, trouve avec le globe3D de GE une incarnation littérale.

Et cette Terre n’est pas uniquement un collage d’images, mais plus encore un collage orthonormé, où chaque image bénéficie d’une identité chiffrée ; un assemblage d’informations qui répondent au prédicat de la calculabilité et de la prédictibilité du langage mathématique. Que ces images soient appréhendées par l’utilisateur par un filtre hautement algorithmique ne substitue en rien le caractère moderne, ou « algorismic », selon les termes d’Urrichio, du dispositif.

GE à la lisière de l’algorithmique et de l’algorismic, a d’ailleurs d’abord été envisagé comme un projet politique visionnaire, présenté en 1998 –ironie du sort oblige– par Al Gore, alors Vice-Président des Etats-Unis. Le projet de « Terre Digitale » qu’Al Gore exposait déjà partiellement dans son ouvrage de 1992, Earth in the Balance24, constitue selon son auteur un modèle pour organiser de manière lisible et utilisable les informations dont nous disposons au xxiesiècle, à une époque où « une grande quantité de data reste inutilisée » 25, alors que « ‹la métaphore du bureau› employée par les systèmes d’exploitation de Macintosh et Windows [n’est] pas adaptée à ce nouveau défi » 26. La Terre Digitale d’Al Gore était conçue comme un médium, cousin distant du World Wide Web, qui permettrait de naviguer librement au sein d’une couverture d’images satellitaires mondiales, de s’élancer, « dans l’équivalent d’un ‹tour en tapis volant› au sein d’une modélisation 3D du territoire », d’accéder à des couches d’informations correspondant aux images visualisées, de visiter des musées, de voyager dans le temps en accédant à des informations et documents historiques qui sont liés aux endroits visités, ou encore de planifier des voyages. Le travail de Kate Harvey montre que GE a partiellement atteint les objectifs de la Terre Digitale d’Al Gore, sans être un effort collaboratif et inter-gouvernemental comme celui-ci l’envisageait27. GE, malgré un succès considérable, n’est pas devenu l’équivalent visuel et topographique d’internet, mais le projet initial d’Al Gore témoigne cependant d’une volonté d’en faire une plateforme encyclopédique d’accès à l’information. En partant d’un constat objectif quant à la quantité considérable d’informations métriques, quantifiables, récoltées à l’orée de l’an2000 par divers satellites, Al Gore rêvait d’une plateforme de savoir universelle, véritable encyclopédie en monde virtuel.

« Comment Google Earth fonctionne vraiment »

De nombreux modèles théoriques, qui se constituent aux alentours de l’an2000 afin d’appréhender les « nouveaux médias » numériques, mettent l’accent sur la dissociation entre l’interface utilisateur et l’organisation souterraine des informations28. Al Gore ne manque pas de repérer cette distinction dans sa description de sa Terre Virtuelle. Cette distinction, fondamentale dans la « poétique » du Langage des nouveaux médias de Lev Manovich, nous a permis de décrire certaines spécificités des dispositifs GE et GM, en passant par les travaux de Aarseth, Amato et Perény, et Urrichio. Une difficulté demeure. Si l’on peut relever la composante « algorithmique » de ces dispositifs, ainsi que certaines particularités structurales, il reste difficile de comprendre comment les informations visuelles conservées sur des supports de stockage arrivent à la « surface » de l’interface, au moment de l’utilisation. Difficile, en effet, de décrire les mécanismes sous-jacents à « l’impression de mouvement continu » que nous offrent les plongées vertigineuses de GE.

En réponse à un article paru sur le site « HowStuffWorks.com », qui prétendait expliquer les protocoles techniques employés par Google Earth dans le traitement et l’affichage d’images numérisées, Avi Baar-Zev, cofondateur de la société Keyhole, a publié sur son blog en 2007 une entrée visant à offrir un aperçu plus cohérent et précis des procédés et algorithmes employés par le programme29.

Comme l’indique Baar-Zev, les difficultés dans le traitement des images de GE tient d’abord au fait que l’assemblage d’images satellitaires terrestres, et de données cartographiques, représente une quantité astronomique de données, qui ne sont pas appréhendables, en l’état brut, par le programme ni par les réseaux de télécommunication. La deuxième difficulté relevée par Baar-Zev renvoie aux méthodes de traitement en temps réel et d’affichage des images, dont la taille et la position sont constamment amenées à varier. Ces opérations sont souvent à la source d’un crénelage des images numériques (« aliasing »), ou d’autres déformations. Les techniques de « filtrage de textures » permettent de pallier à ces altérations visuelles30.

GE et GM emploient ainsi une méthode de filtrage tri-linéaire « combinée à une technique appelée mipmapping » qui procède au calcul et au stockage d’une pyramide d’images, reproductions à moindre résolution de l’image source, chacune deux fois plus petite que l’image précédente, pour aboutir à une image d’1x1 pixel, « dont la couleur correspond à la moyenne de tous les pixels de l’image source » 31 (fig.1).

Dans le cadre d’une visualisation3D d’une image satellitaire dans GE, l’image qui apparaît à l’écran correspond en réalité à plusieurs versions de l’image source, affichée à des résolutions variées. Le programme convoque, à partir des informations stockées dans la database, des versions de l’image source « de résolutions décroissantes plus on s’éloigne du point de vue virtuel » 32, selon une disposition en cercles concentriques (fig.2). L’innovation amenée par les applications Google consiste à étendre cette logique à l’organisation globale des images de la database, ainsi qu’au processus de transmission et d’affichage de celles-ci.

On parle alors de clipmapping. Le clipmap correspond à « une représentation actualisable d’un mipmap partiel, dans lequel chaque niveau a été coupé [clipped] à hauteur d’une taille maximale limite » 33. Lors de la navigation de l’utilisateur, le programme ou l’application fait uniquement appel à la section de l’énorme pyramide qui sera nécessaire à la visualisation, combine les différentes versions de chaque image de sorte à limiter les distorsions visuelles, et charge les images qui seront convoquées par la suite de manière asynchrone. Les images floutées lors de la navigation sur GE ou GM correspondent ainsi aux moments où le programme affiche une version plus « profonde » d’une image, alors même que la version de plus grande résolution est en train d’être chargée.

Les images visualisées dans GE et GM sont ainsi des images « plurielles » et leur mise en série peut être redevable de trois logiques distinctes. Le premier type de succession combine plusieurs versions d’une même image numérisée, à des résolutions variables (c’est le procédé inhérent au mipmapping et clipmapping). Le deuxième type de succession apparaît lorsque l’utilisateur modifie la distance entre le point de vue virtuel et la surface de la Terre : par palier, une image satellitaire laissera place, subitement, à une photographie prise depuis un avion, par exemple. Ici, on assiste à un changement brusque et irrégulier d’échelle et d’angle de prise de vue.

Le troisième type de succession, plus discret, correspond au « collage » des différentes vues satellitaires et aériennes, disposées sur la grille orthonormée représentant la surface de la Terre. Ce collage est déjà effectué par les sociétés tierces qui fournissent Google en vues aériennes, puis intégré à leur banque de données.

La dissociation entre l’affichage des images, leur calcul et leur transmission, permet d’actualiser le flux visuel sans interrompre la navigation de l’utilisateur. Au-delà de la perte d’une perspective unique, de la dissolution d’une instance auctoriale certifiée, et des distorsions spatiales et temporelles qu’Urrichio attache au « tournant algorithmique », on voit ici comment certains procédés de calcul spécifiques aux systèmes d’informations et au filtrage des textures engendrent une combinatoire relativement inédite de mise en séquence d’images. Plus encore, chaque image qui apparaît à l’écran est déjà une combinaison de plusieurs versions d’une image source.

Il en résulte, pour l’utilisateur, une impression de continuité, aussi bien lorsqu’il fait « glisser » les « cases » d’images satellitaires dans GM que dans les déplacements de la « caméra virtuelle » de GE.

De l’œil à la caméra

La particularité de GE, comparativement aux applications web de cartographie, consiste à proposer une vue tridimensionnelle du collage de ses vues aériennes, reconduisant ainsi une perspective monoculaire, à l’aide des capacités de calcul de la machine informatique. L’interface utilisateur du programme indique notamment, parmi de multiples données métriques, la distance théorique entre la surface de la Terre et « l’œil » du dispositif [eye altitude]34.

Les instructions fournies par Google quant à l’utilisation de l’interface de programmation GE qualifient la manipulation du point de vue de « contrôle de la caméra », en précisant que « la caméra correspond à l’emplacement de l’utilisateur dans l’espace »35. Le terme « caméra » constitue par ailleurs une entrée dans le « vocabulaire » du langage propriétaire de Google, KML (« Keyhole Markup Language »36), qui permet de coder et « d’afficher des informations géographiques dans un navigateur terrestre comme Google Earth, Google Maps, ou Google Maps pour téléphone mobile »37.

L’élément « caméra » apparaît en 2009 dans la syntaxe du langage de balisage Google38, venant ainsi amener une alternative à l’élément « LookAt »39 dans le contrôle et le codage des points de vue. L’élément « caméra » se distingue par une plus grande flexibilité, permettant « de positionner la caméra dans l’espace puis de la faire pivoter autour des axesx, y, z » 40 (fig.3).

Œil, caméra : on retrouve ici les deux métaphores les plus courantes pour qualifier le « point de vue » généré par ordinateur lorsqu’il calcule un rendu visuel en reproduisant une perspective monoculaire. Le modèle de l’œil, et celui de la caméra, sont en effet convoqués dès les années1970, dans le champ de la « modélisation assistée par ordinateur » [Computer Assisted Design], pour évoquer le point de vue mobile et variable des logiciels de design3D41.

Dans le champ des jeux vidéo, qui participeront largement à l’essor de la modélisation3D, avec sa généralisation progressive dans le courant des années1990, c’est assurément le terme de « caméra » qui est le plus fréquemment employé pour désigner le point de vue généré par l’ordinateur. Outre la généalogie des systèmes d’information géographique, et celle des images interactives, les dispositifs Google s’inscrivent également dans la lignée vidéoludique, en réactualisant dans un contexte nouveau un mode de visualisation qui rappelle les « vues subjectives » du cinéma.

Cette affinité avec les jeux vidéo en vue subjective est d’ailleurs exploitée dans le mode « simulateur d’avion »42 qui permet à l’utilisateur de GM de piloter un avion de son choix, en vue subjective, à l’intérieur du cockpit, au sein de l’espace terrestre du logiciel. Les déplacements dans l’espace de la carte tridimensionnelle ne sont alors plus libres (« random access »), mais contraints par la vitesse de l’avion et les modalités de navigation qui entendent reproduire les conditions « réelles » de pilotage.

Comme l’indique Lev Manovich dans Le Langage des nouveaux médias, le cinéma joue un rôle fondamental de « médium cadre » dans le développement visuel des interfaces hommes-machines43. La construction du point de vue dans GE, associée à la mise en séquence d’images fixes, en constitue un exemple frappant.

Le point de vue généré en temps réel par GE, comme l’équivalent2D de GM, conservent un caractère paradoxal. Ils sont certes pensés comme des tenants-lieu du regard de l’utilisateur, au sein de l’espace simulé, mais ils sont d’abord le produit d’une machine informatique, un rendu visuel calculé à partir de données sources passées au crible de diverses opérations algorithmiques. En suivant les hypothèses d’Alexander Galloway, on peut ainsi affirmer que le point de vue mobile des univers modélisés en 3D est d’abord le reflet du point de vue de la machine informatique44, et nous renseigne ainsi sur ses limites, et ses capacités d’affichage.

Les vues « subjectives » de GM, à l’image de celles des jeux vidéo sont ainsi nécessairement désincarnées, donnant à l’utilisateur « le sentiment artificiel de flotter sans corps au-dessus du sol »45. Plusieurs théoriciens des jeux vidéo ont souligné que la place prépondérante de la vue subjective dans les objets vidéoludiques tient au fait qu’elle n’est pas le produit d’un enregistrement, mais le site d’un contrôle. Elle constitue alors un mode de visualisation singulier et auto-suffisant qui permet de combiner le point de vue au « point d’action »46. La vue subjective des jeux vidéo « n’est pas destinée à être regardée, mais à être actionnée, à être jouée »47. La remédiation d’une perspective monoculaire sous la forme d’une vue subjective, dans les jeux de tir en vue subjective, offre ainsi pour Mathieu Triclot « une forme d’immersion, clés en main, dans les espaces du jeu, mais une immersion paradoxale, sans corps propre »48.

Dans le cas de GM, à moins que le dispositif ne « diégétise » le point de vue (simulateur de vol), nul personnage n’est à situer dans l’atmosphère terrestre lorsque je plonge de quelque cent mille kilomètres au-dessus de la surface du globe, en direction de Rio de Janeiro, ou des sommets de l’Atlas. Et pourtant, je plonge. Puisque cette trajectoire, les commandes transmises au programme, découle de mon action sur le dispositif. Immersion paradoxale.

Google Street View

L’architecture scopique globale qui fonctionne par remédiation d’une perspective monoculaire dans GM est transposée, sous la forme de panorama d’images, dans le mode de visualisation Street View. Ici, la photographie automatisée est assistée par un nouvel agent de la modernité (après le satellite et l’avion), à savoir l’auto-mobile. Dans le champ des systèmes d’information géographique, les voitures étaient d’abord utilisées afin d’affiner, grâce à la géolocalisation, les tracés routiers de cartes préexistantes, notamment destinées aux services de navigation automobile. En 2009, la voiture de cartographie de Tele Atlas, un temps le principal fournisseur de données cartographiques de Google, établissait ainsi des « fonds de plan » [base map] à l’aide de « six caméras, deux lasers balayeurs latéraux et un GPS »49. Les images capturées par les caméras étaient ensuite utilisées pour obtenir des informations supplémentaires quant à la signalisation, aux limites de vitesse, aux dimensions des routes, etc.50.

Google Street View constitue un détournement de cet usage premier, en faisant des panoramas d’images routières une attraction en soi. Les logiques de l’incarnation et de la mise en série d’images fixes se rejouent alors au niveau de la route. L’utilisateur a la possibilité de faire « coulisser » les images, organisées en panoramas demi-sphériques, à intervalles réguliers, le long du parcours de la voiture. Le passage d’un panorama au suivant est adouci par un filtre de transition qui accompagne le déplacement vers la nouvelle demi-sphère.

L’organisation spatiale des demi-sphères suit la logique mise en place dès les années1970 par les jeux textuels d’aventure et les jeux de rôle sur ordinateur, où le joueur arpente l’espace du jeu en circulant de « case en case »51. Dans Ultima : First Age of Darkness (1981), la déambulation au sein des donjons s’effectue par des déplacements directionnels successifs, qui actualisent le rendu visuel sommaire des couloirs, portes et ennemis (fig.4). Selon la même logique hypertextuelle qui opère dans Street View, chaque étape dans les déplacements de l’avatar est liée à des espaces adjacents, offrant ainsi une impression de continuité.

Dans Street View, chaque « case » ne donne pas à voir une image unique, mais offre plutôt accès à un ensemble d’images photographiques suturées, adjointes à une couche d’informations topographiques. A la surface de la Terre convexe observée de l’extérieur dans GM, Street View substitue une surface concave d’images agencées en panorama. Les mêmes techniques de filtrage, d’affichage et de transmission des données visent à susciter un effet de volume et de continuité.

On retrouve ici les trois logiques de mise en séquence observées « plus haut » (dans le texte, et depuis le ciel) : Street View donne à voir des images « plurielles » (l’affichage procède par combinaison de plusieurs versions d’une image source), qui sont combinées en panorama par des algorithmes de « mosaïquage vidéo »52, puis offertes à la navigation selon une logique hypertextuelle qui opère par « bond », de demi-sphère panoramique en demi-sphère.

La vision subjective et routière proposée par Google s’inscrit donc dans la continuité du régime scopique érigé par GM et GE, tout en substituant aux vues désincarnées et planantes des mosaïques d’images automatisées à hauteur du sol. Ces images, à la différence de leurs cousines aériennes, ne peuvent ainsi échapper aux détails et aléas des paysages qu’elles capturent, et donnent à voir une multitude d’individus aux visages floutés, dans leurs activités routinières. Pour Jon Rafman, le caractère aléatoire et automatique des prises de vue orchestrées par les neuf caméras des « voitures Google » est, en retour, à même de nous rendre attentifs à « la manière dont nous structurons habituellement notre perception ». Son travail propose ainsi de sélectionner, de cadrer et d’extraire de la database du mode Street View une série d’images dans lesquelles « les sujets résistent à devenir entièrement l’objet du regard robotique d’une caméra automatisée »53 (fig.5).

Street View projette ainsi l’utilisateur au sein de la représentation en usant des artifices de la vue subjective, au service d’un vagabondage dans un espace non seulement quadrillé, mais également panoramique. Le surplus d’incarnation qu’offre ce mode de visualisation et de navigation semble jouer au détriment des personnes photographiées, foules d’anonymes aux visages masqués. La permanence des informations topographiques contraste par ailleurs avec l’aléatoire et l’anodin des individus et des voitures qui peuplent les images de Street View.

Une autre confrontation entre le corps propre –cette fois-ci celui de l’utilisateur– et les images des dispositifs s’articulent à travers la technique de géolocalisation, qui constitue un autre biais par lequel les applications de cartographie incorporent l’utilisateur54. Lorsque cette option est active, l’utilisateur (et spectateur) des images satellitaires se retrouve à égalité avec elles. Tout comme les vues aériennes qu’il observe, et ce par l’intermédiaire d’un téléphone mobile ou d’un ordinateur, il devient, au sein de la représentation, un ensemble de coordonnées chiffrées. Bien étrange avatar que ce point coloré à l’écran, qui bouge en même temps que mon corps dans l’espace, sujet de mes déplacements et victime des caprices d’une connexion parfois fragile.

La géolocalisation participe grandement, comme l’a montré Boris Beaude, au rapprochement contemporain entre les espaces de la carte et de la ville, qu’engendre la multiplication d’offres et services internet qui manipulent et génèrent des données géoréférencées55. Les cartes sont mises à jour selon un rythme journalier, rectifiant ainsi les divergences entre l’espace et la carte, repérées par des utilisateurs, mais aussi ceux-ci sont immédiatement projetés dans la carte, par géolocalisation. Les compétences d’orientation spatiale et de repérage peuvent, au bon vouloir de l’utilisateur, être soumises au calcul d’une machine informatique.

L’option photographique

Si les images photographiques constituent la principale attraction de GE, elles ne représentent qu’une option de visualisation dans GM. Elles peuvent ainsi être remplacées à tout moment par la « carte numérique », vaste assemblage de points, de lignes et de surfaces pondérés de nombreux attributs, affichés en graphismes vectoriels. Plus encore, aux vues des capacités de calcul d’une machine informatique, l’image photographique dérange, elle est intraitable. Les diverses fonctionnalités du dispositif, de la navigation à la publicité, en passant par l’affichage de données métriques, ne requièrent pas d’images photographiques.

Elles sont cependant, comme nous l’avons mentionné plus haut, utilisées comme calque, comme modèle à partir duquel la couche cartographique est dessinée. L’opération de transcodage centrale à la machine informatique (database/interface) est ici reconduite, « à la surface », en marche arrière. D’une représentation « analogique », on construit un modèle numérique et vectoriel. L’image automatisée joue alors le rôle de « témoin », d’habillage, de merveille, pour être ensuite reléguée à l’arrière-plan lors de l’utilisation fonctionnelle du dispositif.

L’espace ainsi construit dans les cartes, n’est pas neutre, mais procède d’un assemblage complexe dont nous avons tenté de cartographier certains contours. Il faudrait, pour mieux le comprendre, le confronter à l’espace institutionnel, socio-historique, l’espace « du dehors »56 qui a autorisé son apparition, qui a réuni ses conditions de possibilité : inscrire cet espace dans la généalogie des systèmes d’information géographique, qui génèrent un nouvel usage de la machine informatique par des agences gouvernementales dès les années196057 ; ou encore dans la lignée des technologies militaires, ce qui permettrait d’interroger le financement de la société Keyhole par la CIA au tournant des années2000. Mais aussi confronter cet espace aux stratégies marketing déployées par Google, ou encore aux dynamiques du « web participatif », nécessaires au fonctionnement de ces plateformes.

Google poursuit, avec GM et GE, son projet mégalomaniaque d’organisation de la totalité des informations et du savoir planétaires. Sous l’égide d’une sentence bon enfant, « Don’t be Evil », la « firme de Mountain View » nous offre une image de la Terre, faite d’une multitude de photographies automatisées. Depuis 2004, la portée politique d’un tel projet n’a cessé d’apparaître, à travers les nombreuses protestations visant Google. Polémiques autour de régions contestées, comme l’Arunachal Pradesh58, discordes taxinomiques (« golfe persique » pour les uns, « golfe arabique » pour les autres59), ou enjeux de concurrence et de vie privée n’en sont que quelques exemples60.

Mais la Terre selon Google, avec ses lacs, ses autoroutes –et les commerces qui ont accepté de payer leur service de publicité– nous renseigne aussi sur notre rapport contemporain à l’image et au territoire. GE et GM construisent ainsi des espaces quantifiables, des espaces métriques, où la représentation numérique des données est mise au service de leur organisation spatiale, où les tracés, les « points d’intérêt », peuvent être combinés à l’infini, puis incorporés à un calcul plus vaste qui fournira un itinéraire, affichera un segment de carte, ou superposera plusieurs « couches » d’informations. En suivant Urrichio et Galloway, nous pourrions parler de rapport algorithmique à ces images variables et modulaires, qui inaugurent de nouveaux régimes de mise en séquence, et réactualisent d’anciens modes de positionnement du spectateur.

1 Boris Beaude, « Espace de la carte, espace de la ville : de l’analogie à la coexistence », Hyperurbain2, K.Zreik (éd.), Paris, 2010, p.3 [version en ligne], https://infoscience.epfl.ch/record/161841/files/Beaude%20-%20Des%20analogies%20%C3%A0%20la%20coexistance.pdf?ln=fr. Beaude note en 2010 qu’« [e]n l’espace de cinq ans, les acteurs qui ont contribué au renouveau de la cartographie ont associé étroitement le potentiel de l’automatisation de la représentation (SIG), de l’automatisation de la localisation (GPS) et de la télécommunication des données (internet). En cela, il n’est pas surprenant de constater que le téléphone mobile, objet ultime de cette convergence, est devenu en moins de cinq ans l’interface privilégiée d’accès à l’information géographique. » (p.3).

2 L’application et le programme achetés par Google en 2004, qui sont devenus Google Maps et Google Earth, ne sont pas les premiers à avoir atteint le marché grand public, mais ils ont néanmoins popularisé ces dispositifs grâce à leur succès. En 2009, Google Earth a été installé sur 500 millions d’ordinateurs à travers le monde. Voir Kate Harvey, « Google Earth: Has the ‹Digital Earth› been achieved? », Cartography Research Project, 2009, http://lazarus.elte.hu/cet/academic/harvey.pdf, p.5.

3 L’interface de programmation Google Maps permet à d’autres sites ou services d’intégrer les fonctionnalités de cartographie sur leur plateforme. Gabriel Svennerberg remarque qu’en 2010, 43 % de tous les mashups recensés sur le site www.programmableweb.com utilisent l’API Google Maps. La seconde application de cartographie obtient un score de 3 % (DigitalEarth, de Bing). Le terme mashup désigne toutes les « applications ou sites internet qui combinent des informations ou des fonctionnalités de deux ou plus de sources ». Gabriel Svennerberg, Beginning Google Maps API3, New York, Springer, 2010, p.1.

4 GM pour Google Maps et GE pour Google Earth, dans la suite du texte. Notons également que si les deux programmes ont chacun leur histoire propre, ils n’ont cessé de converger en termes de fonctionnalités et d’architecture technique depuis leur acquisition par Google.

5 Il semblerait que ce travail fastidieux ait largement été délocalisé par Google dans leur succursale de Bangalore, en Inde. Alexis C. Madrigal, « How Google Builds Its Maps – and What It Means for the Future of Everything », The Atlantic, 6septembre 2012, version en ligne, www.theatlantic.com/technology/archive/2012/09/how-google-builds-its-maps-and-what-it-means-for-the-future-of-everything/261913/.

6 Boris Beaude indique que plusieurs technologies sont employées de concert afin de localiser les individus dans les milieux urbains (« essentiellement le Cell-ID et le Wi-Fi ») ; Boris Beaude, « Espace de la carte, espace de la ville : de l’analogie à la coexistence », op.cit., p.4.

7 Espen Aarseth, Cybertext : Perspective on Ergodic Literature, Baltimore, Johns Hopkins University Press, 1997, pp. 2-13.

8 John Frank en donne la définition suivante en 2005 : « Une ‹slippy-map› est un type de logiciel client de cartographie pour navigateur web, qui permet de déplacer la carte en glissant celle-ci dans n’importe quelle direction. Les navigateurs récents permettent de charger de manière dynamique des portions de carte en réaction à l’action de l’utilisateur, sans qu’il soit nécessaire de recharger la page. Cet effet de visualisation dynamique permet une navigation plus intuitive ». Disponible sur le site http://fantomplanet.wordpress.com/2005/06/23/definition-slippy-map/. Traduction de l’auteur.

9 Espen Aarseth, Cybertext : Perspective on Ergodic Literature, op.cit., pp. 103-105. Les termes « interface » et « database » sont également discutés par Lev Manovich dans The Language of New Media, Cambridge/Londres, MIT Press, 2001.

10 Espen Aarseth, Cybertext : Perspective on Ergodic Literature, op.cit., p.63. La variabilité des « textons » est redevable des mises à jour des cartes et images en tout genre, mais aussi des mises à jour à des fréquences variables des différentes informations métriques. Si l’on considère les dispositifs à un moment fixe donné, on peut alors considérer que les informations sous-jacentes (banques de données qui sont constamment convoquées par l’utilisateur) sont fixes.

11 A la différence, par exemple, d’une partie de Grand Theft Auto V, où l’attente du joueur ne mettra pas fin à l’ensemble des scripts d’animation, de déplacement, de dialogue, etc.

12 Espen Aarseth, Cybertext : Perspective on Ergodic Literature, op.cit., p.63.

13 Etienne Perény, Etienne Armand Amato, « L’avatar en ligne : une passerelle heuristique entre hypermédias et cybermédias », Imad Saleh, Sylvie Leleu-Merviel, Yves Jeanneret et al. (éd.), H2PTM’09 (Actes). Rétrospective et perspective : 1989-2009, Paris, Hermès, 2009. Nous n’avons malheureusement pas pu avoir accès à l’article originel des deux auteurs, et nous référerons donc à la discussion qu’en fait Perény dans son ouvrage (voir note suivante).

14 Etienne Perény, Images interactives et jeux vidéo, Paris, Questions théoriques, 2013, pp. 181-182.

15 Etienne Perény, Etienne Armand Amato, extrait de l’abstract de l’article « L’avatar en ligne : une passerelle heuristique entre hypermédias et cybermédias », op.cit., disponible en ligne : http://ticri.inpl-nancy.fr/ticri-h2ptm.fr/index.php/H2PTM_(2009)_Pereny.

16 Typologie citée et discutée par Marie-Laure Ryan, « Cyberspace, Cybertext, Cybermaps », dichtung-digital.org/2004/1-Ryan.htm.

17 Etienne Pereny, Images interactives et jeux vidéo, op. cit., p. 187.

18 C’est particulièrement le cas de GE qui, comme nous l’avons dit, met l’accent sur les images satellitaires, et simule une représentation terrestre tridimensionnelle.

19 On peut penser ici GM ou GE comme un réseau de réseaux d’informations, modifiées à des fréquences variables (en minutes pour des données météorologiques, en années pour des données photographiques), rattachées à des coordonnées géographiques, disposées en couches successives et agencées sur une grille de coordonnées (principalement) bidimensionnelles.

20 William Urrichio, « The algorithmic turn: photosynth, augmented reality, and the changing implications of the image », Visual Studies, vol. 26, no1, mars2011, p.33.

21 Le programme Photosynth permet de créer des agrégats de photographies, en trois dimensions, à partir des images d’un utilisateur. Celui-ci peut ensuite naviguer au sein de la représentation, en passant d’une image à une autre. Selon les termes d’Uricchio : « Photosynth […] analyse des images numériques afin de repérer des emplacements singuliers, en génère un espace tridimensionnel à partir d’un nuage de points et assemble les images pour recréer des composites quasi-parfait. », id., p.28. Traduction de l’auteur.

22Id., p. 30.

23Id., p. 26.

24 Al Gore, Earth in the Balance : Ecology and the Human Spirit, Boston, Houghton Mifflin, 1992. Voir Kate Harvey, « Google Earth: Has the ‹Digital Earth› been achieved? », Cartography Research Project, 2009, http://lazarus.elte.hu/cet/academic/harvey.pdf.

25 Al Gore, « The Digital Earth : Understanding our planet in the 21stcentury », discours au California Science Center, Los Angeles, Californie, 31janvier 1998.

26Ibid.

27 Kate Harvey, « Google Earth: Has the ‹Digital Earth› been achieved ? », op.cit., pp. 14-15.

28 Voir par exemple Lev Manovich, The Language of New Media, op.cit., pp. 45-46; Espen Aarseth, Cybertext : Perspective on Ergodic Literature, op.cit., pp. 10-11.

29 Avi Baar-Zev, « How Google Earth [Really] Works », Blog RealityPrime, 2007 www.realityprime.com/blog/2007/07/how-google-earth-really-works.

30Ibid.

31Ibid.

32Ibid.

33 Christopher C. Tanner, Christopher J. Migdal, et Michael T. Jones, « The Clipmap: A Virtual Mipmap », Silicon Graphics Computer Systems, Association for Computing Machinery, 1998, p. 2, www.cs.virginia.edu/~gfx/Courses/2002/BigData/papers/Texturing/Clipmap.pdf.

34 L’icône permettant de varier l’angle de vue par rapport à la surface de la Terre est également composé d’un œil en son centre.

35 Ces instructions sont disponibles sur le site « Google Developers » qui met à disposition de la communauté de développeurs un ensemble de ressources visant à faciliter et promouvoir l’utilisation des produits Google. https://developers.google.com/earth/documentation/camera_control.

36 Le langage de balisage Google permet à tout un chacun d’ajouter et de proposer du contenu topographique sur la plateforme Google Earth, ce qui a facilité la constitution d’une communauté d’utilisateurs et participé au succès de la plateforme. Kate Harvey, « Google Earth: Has the ‹Digital Earth› been achieved? », op.cit., p. 4.

37 https://developers.google.com/kml/documentation/kml_tut.

38 Avec la version KML 2.2.

39 L’élément « LookAt », dans la syntaxe KML, gère le rendu visuel en fonction d’un lieu regardé (longitude, latitude et altitude), d’une distance relative à ce lieu et d’un angle par rapport à la surface de la Terre. https://developers.google.com/kml/documentation/cameras.

40Ibid., le didacticiel précise ainsi : « la différence est que LookAt spécifie la vue à travers ce qui est regardé. Camera, par contre, définit la vue par rapport à la position et à l’orientation du regardeur ». Traduction de l’auteur.

41 En 1975, Larry Elin décrit le logiciel Synthavision de la compagnie Computer Visual Inc. en ces termes : « Le logiciel pourrait intégrer une commande, qui reflèterait la lumière réfléchie vers un point unique, qui pourrait servir d’‹œil› ou de caméra. La lumière réfléchie depuis un objet vers la caméra permettrait de créer une image de cet objet. Des années de recherche, dont le résultat fut Synthavision, permirent finalement d’intégrer des objets, une caméra et une source de lumière, définis mathématiquement –tous les éléments nécessaires à une situation de studio de cinéma dans la mémoire de l’ordinateur. » Larry Elin, « Synthavision : Serendipity from the Nuclear Age », Ruth Leavitt (éd.), Artists and Computers, New York, Harmony Books, 1976. Traduction de l’auteur.

42 Le mode simulateur d’avion constituait une fonctionnalité cachée [easter egg] des premières versions de GM. Il a ensuite été pleinement intégré au programme.

43 Lev Manovich, The Language of New Media, op. cit., p. 86.

44 Alexander R. Galloway, Gaming : Essays on Algorithmic Culture, Minneapolis, University of Minnesota Press, 2006, p. 63. Galloway écrit : « ce que les jeux vidéos enseignent au cinéma, est que la caméra peut, du point de vue d’un personnage spécifique, être subjective –comme je l’ai déjà mentionné–, mais aussi que la caméra peut être subjective du point de vue de l’espace modélisé par ordinateur. ». Traduction de l’auteur.

45 Mathieu Triclot, Philosophie des jeux vidéo, Paris, La Découverte, 2011, p. 82.

46 Britta Neitzel, « Point of View and Point of Action. Eine Perspektive auf die Perspective in Computerspielen », in Klaus Bartels et Jan-Noël Thon (éd.), Computer/Spiel/Raüme. Materialien zur Einführung in die Computer Game Studies, Hamburger Hefte zur Medienkultur, p. 24. Cité par Benjamin Bell dans First Person Perspectives. Point of View und Figurenzentrierte Erzählformen im Film und im Computerspiel, Münster, Lit Verlag Münster, 2010, p.64.

47 Mathieu Triclot, Philosophie des jeux vidéo, op. cit., p. 86.

48Ibid.

49 Jeremy Bradley, « Mapping the word, one street at a time », 12 août 2009, site de CNN. www.cnn.com/2009/TECH/08/12/digital.mapping.

50Ibid. L’article de Bradley indique que certains algorithmes de reconnaissance automatique sont utilisés pour repérer les panneaux autoroutiers qui se prêtent naturellement à cet exercice, du fait de leur caractère symbolique.

51 Dans Zork ou Colossus Cave Adventure, le déplacement du joueur est entériné par une commande « type » dans le tabulateur (« Go West », « Go North »), et le nouveau lieu arpenté, adjacent au précédent, est alors décrit par une nouvelle entrée textuelle apparaissant à l’écran.

52 Le « mosaïquage vidéo » est une technique de « suture d’images sélectionnées dans une vidéo, en se basant sur une estimation du déplacement de la caméra entre les images, afin de créer une mosaïque à partir d’images successives d’une même prise ». P. Saravanan, C. K. Narayanan, P. V. S. S. Prakash et G. V. Prabhakara Rao, « Techniques for Video Mosaicing », World Academy of Science, Engineering and Technology, No 11, 2007, p. 614.

53 Jon Rafman, « Sixteen Google Street Views », Golden Age, 2009, extrait de l’introduction [sans pagination].

54 Concernant les enjeux de la géolocalisation, voir l’ouvrage de Nicolas Novas, Les Médias géolocalisés, Limoges, Editions Fyp, 2009.

55 Boris Beaude, « Espace de la carte, espace de la ville : de l’analogie à la coexistence », op.cit., pp. 3-4.

56 C’est Mathieu Triclot qui propose de confronter l’espace construit dans les jeux vidéo, aux espaces institutionnels qui les ont vus naître. Voir Mathieu Triclot, « Dedans, dehors et au milieu : les espaces du jeu vidéo », dans Hovig Ter Minassian, Samuel Rufat et Samuel Coavoux (éd.), Espaces et temps des jeux vidéo, Paris, Questions théoriques, 2012, pp. 224-225.

57 Concernant l’histoire des « systèmes d’information géographique », voir J.Terry Coppock et David W. Rhind, « The history of GIS », Geographical information systems : Principles and applications, vol. 1, no 1, 1991, pp. 21-43 et Tim Foresman, The History of Geographic Information Systems : Perspectives from the Pioneers, Upper Saddle River, Prentice Hall PTR, 1997.

58 Province que se disputent l’Inde et la République populaire de Chine.

59 John Gravois, « The Agnostic Cartographer. How Google’s open-ended maps are embroiling the company in some of the world’s touchiest geopolitical disputes », Washington Monthly, juillet/août 2010, www.washingtonmonthly.com/features/2010/1007.gravois.html.

60 Je fais ici référence au litige opposant Bottin Cartographes à Google pour concurrence déloyale. Selon la compagnie française, le service Google Maps lui ferait injustement concurrence en proposant un service de cartographie gratuit. L’option Google Street View a donné lieu à de nombreuses actions en justice, notamment en France et en Allemagne.