mardi 3 août 2010

Baguenauder dans la Visualisation de la Complexité...

A l'écoute : Days of Wine and Roses de Michel Petrucciani 

L'été dernier (2009), en baguenaudant sur la toile numérique, j'ai découvert le projet visual complexity de Manuel Lima.

Manuel Lima a créé "blogviz" au cours de ses études à la Parsons School of Design de New York (The New School for Design) où il a passé son Master of Fine Arts en design et technologies. Blogviz permet de visualiser en quelque sorte le flux dynamique d'informations dans la "blogosphère" et a été créé au départ pour analyser pendant 64 jours consécutifs de 2005, les flux des adresses URL les plus citées parmi les entrées quotidiennes des blogs.

Visual Complexity (VC) a débuté la même année avec le but déclaré de permettre une compréhension critique de méthodes de visualisation différentes des réseaux au travers de "disciplines" diverses (biologie, réseaux sociaux, web, sciences..). Chaque projet retenu dans VC (il en existe 730 au moment où j'écris) l'est pour diverses raisons : il offre une réelle avancée en terme de méthodes ou techniques de description visuelle ou il illustre une singularité réelle dans le choix du sujet ou alors il montre un réel réseau complexe au sens "chaotique" du terme ou tout au moins un certain degré de connectivité irrégulière mais systématique. Manuel Lima propose comme illustration du "chaos" les travaux sur les cellular automata (CA) ou automates cellulaires en français. Le trait commun et réducteur à tous ces projets est qu'ils illustrent tous que "le tout est plus que la somme des parties".



La complexité est partout et en chacun. Rien n'est absolument isolé. La complexité telle qu'elle est montrée dans VC doit donner à chacun la possibilité de comprendre les différentes échelles de vue du monde et comment ce dernier échappe à la fois à cette prise avec soi. Il s'agit d'un "voyage" infini, il s'agit d'un flux sans début ni fin ou plutôt contenant à la fois le début et sa fin.

Le projet le plus regardé dans VC est "The remotest place on earth" où les auteurs ont associé une série de cartes pour en créer une nouvelle montrant les endroits les plus reliés et les plus isolés dans le monde. Les cartes sont basées sur un modèle qui calcule pour chaque endroit du monde combien de temps il faut à un humain par voie de terre ou par voie d'eau pour aller à une ville de 50.000 habitants ou plus. Ce modèle tient compte des routes terrestres, fluviales et maritimes, des vois de chemin de fer, du relief, de la couverture végétale et est basé sur un tableau qui répond à la question suivante : Combien de temps faut il pour voyager pendant un kilomètre en fonction de l'endroit que l'on traverse ? Des hypothèses moyennes sont ainsi faites pour lisser les saisons, les conditions météorologiques et les stabilités sociales et politiques des divers pays qui influent inévitablement sur le déplacement des populations.



La carte obtenue est magnifique de densité : plus un point est de couleur clair, plus il est "connecté" et plus il est sombre, plus il est isolé. La première surprise : moins de 10% du territoire terrestre est à plus de 48h par voie terrestre ou maritime de la ville la plus proche (+50000 hbts). L'endroit le plus isolé sur Terre est le plateau Tibétain où il faut à une personne 21 jours pour rejoindre Lhasa ou Korla.

Cette carte m'a fait penser à une variante : au lieu de combiner l'ensemble des cartes sur la finale à échelle constante et de ne visualiser le "temps" que par des couleurs dans cet "espace" cartographique, il pourrait être instructif et amusant de visualiser la même information par une déformation relative au temps de parcours dans l'espace considéré. Il suffit d'implémenter un facteur échelle/temps au tableau déjà cité, par exemple tout parcours inférieur à une heure est représenté par un millimètre carré d'espace, tout parcours inférieur à deux heures, par deux millimètres carrés et le reste suit en proportion. Le résultat obtenu serait une carte du monde déformé, soit dans le sens de la "connexion" (avec une échelle inverse de l'exemple donné), soit dans le sens de l'isolement : notre représentation visuelle et donc mentale en serait beaucoup plus affecté ! Il s'agit du travail analogue à celui qui consiste à représenter le corps humain en fonction de la sensibilité sensorielle de son épiderme (grosses lèvres, grandes mains etc..en proportion du buste)... Toute déformation spatiale en fonction d'un critère que l'on souhaite étudier est de cette manière beaucoup plus pertinente visuellement pour l'impact de ce critère sur la pensée de celui qui regarde et pour la modification éventuelle de son paradigme. Cette variante permettrait en outre de visualiser ce qu'est l'espace-temps, c'est à dire l'espace irrémédiablement lié au temps comme l'a démontré Einstein. Cette visualisation de l'espace-temps est à rapprocher de ma proposition de spatialisation du temps, concept décrit dans Paysage et Spatialisation du Temps.

Le deuxième projet qui a résonné en moi c'est Eigenfactor ou la visualisation des flux d'informations en science (plus exactement les citations bibliographiques des revues à référés). Eigenfactor classe et hiérarchise les revues et journaux scientifiques comme Google classe les pages sur internet. Ce projet  "clos" a analysé environ 60.000.000 de citations scientifiques contenues dans 7.000 journaux et revues de 1997 à 2005. L'ensemble donne l'image dynamique des liens existant entre les disciplines scientifiques, leurs revues et leur notoriété mondiale (notoriété ou dominance de la discipline sur les autres et des revues entre elles également). L'ensemble fournit de magnifiques motifs qu'il est possible basiquement de rapprocher d'autre motifs issus d'autres modèles dans d'autres disciplines voire de motifs existant dans la nature.
De nombreux modèles "visualisateurs" ont été créés par Eigenfactor et permettent des motifs différents et donc des informations émergentes différentes de sources identiques : illustration paradigmatique des modèles/lunettes que l'homme possède pour "voir" le monde, la réalité qui le contient. (voir ces modèles là ou ceux-ci ainsi que les méthodes pour ceux qui veulent tout comprendre...)


C'est d'ailleurs tout l'intérêt de VC : permettre visuellement des rapports, des analogies entre complexités ainsi dévoilées. Bien sûr, de telles analogies sont parfois limitées ensuite dans leurs apports théoriques mais n'est ce point le début de la démarche scientifique que d'observer ? Par exemple, regarder le motif obtenu plus haut en interrogeant l'ensemble des liens/citations d'une revue précise me fait penser à un motif biologique tissulaire. Or, le point commun entre ces deux entités est uniquement l'information et la manière dont elle circule et est relié in fine aux structures. Nous pouvons interpréter ce motif issu d'Eigenfactor comme une structure engendrée par de l'information (ce motif est issu ensuite d'une certain réduction/projection de cette information dans un certain espace ad hoc). Lorsque nous observons dans la nature un motif analogue, il est tentant en premier d'y comprendre quelle information y circule et y est reliée, c'est la démarche scientifique classique. Mais lors de cette phase, le scientifique peut aussi utiliser une démarche heuristique et se servir de l'analogie comme outil de sélection de modèle ad hoc qu'il va devoir ensuite valider par une exploration hypothético-déductive. Faisant ce travail, il est aisé également de réaliser un lien entre l'information et la structure étudiée et il est possible enfin de postuler que c'est non la structure qui véhicule l'information mais bien l'information qui engendre la structure. En fait, selon la logique de S. Lupasco, il nous faut comprendre que les deux vues sont complémentaires car elles reposent toutes les deux sur des flux d'information donc des flux d'énergie néguentropiques qui, rappelons le, sont liés contradictoirement à des flux d'énergie entropiques.
Tout ceci illustre que l'image contient un plus grand nombre d'informations que les textes séquentiels qui peuvent être écrit pour la commenter, nous avons déjà vu cela avec la carte heuristique (un outil/modèle générique de complexité)(voir Consubstantialité et Carte Heuristique). Egalement, l'image est plus propice à la démarche heuristique pour relier des "objets" n'ayant a priori aucun lien entre eux.
Nous retiendrons Eigenfactor comme un paradigme de la vue multi-référentielle sur le monde.

Le troisième projet (car il faut bien se limiter !) qui a retenu mon attention sur le moment est reMap. reMap est un "navigateur" sémantique et a été créé par Santiago Ortiz de bestario.org pour visualiser la complexité de Visual Complexity ! Aussi, je vous recommande pour vous balader dans VC, cet outil très efficace car très visuel et synthétique. C'est selon les mots même de Manuel Lima : "a visualization of visualizations" , une méta-visualisation, donc, hautement corrélée avec VC, conçu comme : "a map of maps" ! Le traitement sémantique des +700 projets de VC a été réalisé par bestario et permet donc de trouver des liens transversaux entre les différents projets qui eux-mêmes, rappelons-le sont le plus souvent des méta-analyses de données. Cette méta-méta-vue (méta^2 vue) est d'ailleurs bien souvent une méta^n vue puisque les projets présentés ne sont pas "normalisés" en fonction de la vue qu'ils présentent de la complexité ( modélisée ici comme le graphe d'une fonction itérative de n sur N) : reMap étant un projet parmi les projets de VC tout en étant un méta-projet en quelque sorte...




reMap pourrait être utilisé dans un proche avenir d'ailleurs (et regardez comment évolue l'ensemble des moteurs et méta-moteurs de recherche sur le web par exemple) comme un modèle de méta-moteur visuel et sémantique des connaissances numérisées sur le web : un grand projet à la portée de Google ?
J'ai personnellement et plus modestement (!) transmis ce lien à N. Lygéros pour l'organisation visuelle, sémantique et spatiale de son opus numérique afin qu'il puisse (et ses lecteurs aussi) en obtenir une méta-vue. (à suivre...)


Essayons reMap pour un exemple de recherche : je cherche des projets ayant lien avec le temps (time) et l'arbre (tree). Il m'arrive une douzaine de projets qui me permettent ensuite de voir comment ces mots-clés sont utilisés, dans quels domaines (généalogie, science cognitive, médecine, ingéniérie des réseaux internet), à quels mots clés ils m'adressent en plus et soit je continue l'exploration en augmentant les mots clés soit je me spécialise sur un ou quelques projets cités qui sont autant de nœuds sémantiques et visuels de ma recherche et donc de ma connaissance du moment sur ce sujet précis : trouver dans VC les projets qui traitent peu ou prou de "temps" et "d'arbre". reMap est donc bien un méta-moteur de recherches qui va relier à des méta-complexités (celles en l'espèce contenues dans VC).
Nous retiendrons reMap comme un paradigme d'une méta^n-vue (une vue sur une vue...n fois) multi-référentielle sur le monde.




J'aime ce genre de "baguenaudage", et vous ?

Aucun commentaire: