La dataviz semble désormais être partout dans notre monde de l’information professionnelle, dans les demandes des clients et… dans les plateformes de veille.
Cette irruption du quantitatif, de l’analytique et du visuel dans des masses d’information documentaire longtemps sous-exploitées est à notre sens extrêmement positive, tant l’extraction et l’interprétation des données, rendue possible par la dataviz, donnent du sens à celles-ci et valorisent le travail de collecte et capitalisation des professionnels de l’information et de la veille.
Mais attention, utiliser la cartographie dans le but d’embellir une présentation ou, pire, en faire un argument de vente à une direction d’entreprise en promettant de générer «automatiquement» du sens via des graphes et représentations diverses, est en soi une aberration trop souvent observée… La dataviz comme pensée «automatisée», voire magique, est un facteur de risque, de contresens et confusion.
L’une des confusions que l’on voit souvent est due à l’absence de réflexion suffisante en amont, sur la nature des données que l’on doit traiter et sur le mode de datavisualisation à choisir. L’enjeu ici est important : l’analyse visuelle des données ne peut se faire sans outil, ni développement de compétences adéquates, et le coût n’est finalement pas neutre.
Pour illustrer cette affirmation, nous partageons l’exemple d’une demande récemment formulée par une lectrice, qui porte sur l’utilisation du fameux logiciel de datavisualisation Gephi pour identifier à partir de Twitter de nouvelles sources d’information sur la santé numérique. L’idée était que les comptes les plus prolixes étaient ceux qui véhiculaient le plus de liens vers des références, potentiellement récupérables via l’extraction des noms de domaine.
Déjà abonné ? Connectez-vous...