La datavisualisation, comme toutes les technologies, transforme les outils, les processus et l’organisation des entreprises. Elle amène à repenser les méthodes et les modes de communication, et le domaine de la veille n’y échappe pas.
Dans la première partie de notre dossier consacré à la dataviz, nous avons exploré comment la représentation visuelle des données pouvait trouver sa place à chaque étape de la veille. Elle apporte une aide puissante à l’expression initiale des besoins, à la construction des différentes briques du dispositif, et à la conception des livrables de veille.
Elle offre ainsi des possibilités de représentation, d’analyse et de synthèse des informations où le veilleur peut exercer sa créativité, et développer de nouvelles interactions avec ses clients et le top management.
Enfin, en permettant une meilleure compréhension des données et une identification des tendances et modèles sous-jacents qui auraient été peut-être plus difficiles à voir à l’œil nu, la datavisualisation contribue à une prise de décision plus éclairée pour l’entreprise.
De la théorie à la pratique, n’est-ce qu’un simple pas à franchir ?
Lorsqu’il s’agit d’analyse des informations textuelles, non structurées, la réalité se révèle souvent complexe. C’est pourquoi nous avons souhaité accompagner le veilleur tout au long de son parcours opérationnel.
La définition des objectifs de la démarche d’analyse des données, la mise en place du process global, la réflexion sur les sources et les données, ainsi que le choix des outils adaptés aux différentes opérations, sans oublier la nécessaire formation - intense ! - pour la maîtrise de ces outils, montrent le défi à la fois stratégique, humain et technique qui nous attend.
Parmi les points critiques, citons la récupération de sources fiables et la préparation de corpus textuels et métadonnées représentatifs de l’objet d’étude, avec la difficulté de récupérer de larges volumes de données due aux restrictions d’accès. De plus, la qualité variable des données et l’hétérogénéité des formats exigent des traitements souvent laborieux pour une exploitation future.
S’il existe de nombreux outils de datavisualisation automatisée pouvant aider à produire rapidement des cartographies, graphes ou tableaux, la création d’une visualisation de données efficace et personnalisée en fonction de l’audience nécessite une compréhension humaine des enjeux, des outils et des techniques de communication.
On le voit donc, la dataviz reste une démarche humaine car elle implique un processus de réflexion, de conceptualisation et de création qui ne peut être entièrement automatisé.
La datavisualisation a un rôle à jouer à toutes les étapes de la veille comme nous avons pu le voir dans le précédent numéro de NETSOURCES. Cela commence dès les premières étapes de la veille avec la définition précise d’un sujet ainsi que le choix des mots-clés et du champ lexical à utiliser pour créer de futures alertes.
Dans cet article résolument pratique, nous avons voulu montrer comment la représentation de données pouvait apporter une aide précieuse dès cette première étape de formalisation du besoin et surtout comment s’y prendre concrètement, avec quelles méthodes et quels outils.
Pour nous aider à déterminer les angles de la veille, les thèmes à surveiller et les termes à mettre sous surveillance, nous avons choisi d’analyser un gros volume d’articles de presse sur le sujet, car même si ChatGPT est apparu récemment dans les médias, le volume d’articles consacré à cette IA est considérable et donc peu assimilable humainement.
Nous partirons donc d’un corpus d’articles de presse conséquent que nous analyserons grâce à plusieurs outils de datavisualisation spécialisés dans l’analyse textuelle et letext mining. Ces outils devraient nous permettre de voir rapidement quels sont les thèmes et les termes clés à prendre en compte. Nous analyserons ensuite la valeur ajoutée de cette démarche par rapport à une démarche classique manuelle, mais aussi ses limites.
Il faut d’abord s’entendre sur ce que signifie « récupérer un corpus de presse ». Il peut s’agir de récupérer un corpus d’articles en texte intégral ou bien un corpus de références d’articles avec les titres d’articles et les premières lignes.
Récupérer des articles en texte intégral permet une analyse plus poussée, mais c’est aussi la méthode la plus complexe et onéreuse.
D’autant plus que si on constitue son corpus sur le Web, il est de plus en plus rare de trouver des articles de presse gratuits et si on utilise des agrégateurs de presse payants, il est fréquent d’avoir une limite dans le nombre d’articles que l’on peut consommer chaque mois. Pour des raisons budgétaires, il est donc peu envisageable d’extraire un corpus constitué de milliers d’articles de presse en texte intégral, corpus qui, dans ce cas précis, ne sert que pour la mise en place de la veille.
Déjà abonné ? Je me connecte ici...
La dataviz a un rôle important à jouer dans la réalisation des livrables en permettant notamment de représenter visuellement des informations et des analyses qui auraient pu avoir beaucoup moins d’impact si elles avaient été uniquement restituées sous forme de texte.
Mais utiliser la dataviz dans ses livrables, ce n’est pas appuyer sur un bouton pour récupérer en un clic toute une série de représentations graphiques adaptées à ses problématiques. Ce serait trop beau. C’est en réalité beaucoup plus complexe et fastidieux et nous en avons fait l’expérience à partir d’un exemple concret.
Nous avons récupéré un corpus issu d’une veille concurrentielle réalisée sur le thème des bactéries probiotiques. La veille était réalisée à l’échelle internationale dans des sources diverses et dans différentes langues : presse, blogs, réseaux sociaux, contenus multimédias, etc. Les informations pertinentes étaient ensuite intégrées dans une plateforme de diffusion.
Chaque « pièce d’information » présentait la forme suivante : Titre, descriptif ou résumé, source et date de publication et différents tags pour qualifier l’information et la rendre plus facilement « retrouvable » dans le futur. Parmi les tags, on retrouvait le ou les acteurs concernés, la zone géographique ou encore le type d’information dont il s’agissait, etc.
Imaginons maintenant que nous souhaitons ajouter une dimension plus visuelle et un niveau d’analyse supplémentaire au livrable de veille en y intégrant des dataviz.
Déjà abonné ? Je me connecte ici...
La dataviz semble désormais être partout dans notre monde de l’information professionnelle, dans les demandes des clients et… dans les plateformes de veille.
Cette irruption du quantitatif, de l’analytique et du visuel dans des masses d’information documentaire longtemps sous-exploitées est à notre sens extrêmement positive, tant l’extraction et l’interprétation des données, rendue possible par la dataviz, donnent du sens à celles-ci et valorisent le travail de collecte et capitalisation des professionnels de l’information et de la veille.
Mais attention, utiliser la cartographie dans le but d’embellir une présentation ou, pire, en faire un argument de vente à une direction d’entreprise en promettant de générer «automatiquement» du sens via des graphes et représentations diverses, est en soi une aberration trop souvent observée… La dataviz comme pensée «automatisée», voire magique, est un facteur de risque, de contresens et confusion.
L’une des confusions que l’on voit souvent est due à l’absence de réflexion suffisante en amont, sur la nature des données que l’on doit traiter et sur le mode de datavisualisation à choisir. L’enjeu ici est important : l’analyse visuelle des données ne peut se faire sans outil, ni développement de compétences adéquates, et le coût n’est finalement pas neutre.
Pour illustrer cette affirmation, nous partageons l’exemple d’une demande récemment formulée par une lectrice, qui porte sur l’utilisation du fameux logiciel de datavisualisation Gephi pour identifier à partir de Twitter de nouvelles sources d’information sur la santé numérique. L’idée était que les comptes les plus prolixes étaient ceux qui véhiculaient le plus de liens vers des références, potentiellement récupérables via l’extraction des noms de domaine.
Déjà abonné ? Je me connecte ici...
Cette nouvelle rubrique « En résumé » se propose d’aider à comprendre en un clin d’œil les informations clés de chaque numéro de NETSOURCES. La datavisualisation faisant l’objet d’un numéro double, vous trouverez ici un rappel du précédent numéro. Cette rubrique sera également déclinée en version pédagogique « pas à pas » et commentée dans nos fiches pédagogiques « Les essentiels de la veille». Bonne lecture !
Déjà abonné ? Je me connecte ici...
Les métiers des professionnels de l’information, - documentation, veille, KM et autres fonctions liées à la gestion de l’information, - ont toujours été en prise directe avec les évolutions du numérique.
Il nous semble que ces évolutions impactent nos métiers de deux façons différentes.
La première est une déstabilisation forte, sous l’effet par exemple de l’arrivée d’Internet hier ou de l’IA aujourd’hui qui « concurrencent » et remettent en cause l’existence même du professionnel.
La seconde agit plutôt comme un moteur de transformation. Elle a pour effet d’élargir les compétences du spécialiste car elle le pousse à intégrer les nouveautés technologiques dans son offre de service et à monter en compétence. On l’a vu par exemple avec les systèmes de GED, et cela nous paraît être aussi le cas de la data.
Depuis une dizaine d’années la data « interroge » les différents profils de spécialistes. Elle pose la question de leur ouverture au monde des données quantitatives, et non plus seulement qualitatives.
L’irruption d’un monde de chiffres bouscule le savoir-faire établi du spécialiste de l’information textuelle, formé aux traitements de nature documentaire sur de gros corpus de textes. En cela elle brouille la représentation des métiers du document et des compétences qui leur sont rattachées. Et il n’est pas si simple d’identifier les techniques d’exploitation et d’analyse de ce nouveau champ numérique.
Si les référentiels de compétences sont nombreux pour les data scientists et autres data managers, nous n’en avons pas vu de convaincants pour les nouvelles compétences des professionnels de l’information. Étrangement, on voit des référentiels ou offres d’emploi de profils « purement data » intégrer des compétences de veille mais l’inverse est loin d’être vrai.
Déjà abonné ? Je me connecte ici...
Dans le monde de la veille, on peut aisément s’imaginer que la dataviz a surtout un rôle à jouer au niveau de l’analyse et des livrables.
Elle a en réalité un rôle à jouer à tous les niveaux.
Dans cet article, nous analysons précisément la place de la représentation visuelle à toutes les étapes de la veille (de la définition des besoins jusqu’à la diffusion), d’abord sous l’angle du type de représentation puis avec le prisme des outils des dataviz.
Quand on souhaite mettre en place une veille, il faut commencer par définir précisément les besoins en allant interroger les personnes concernées par la veille comme les futurs destinataires notamment : pour qui, pourquoi, que veut-on apprendre et découvrir, que sait-on déjà, etc.
Lire aussi :
Enrichir ses livrables de veille grâce à la datavisualisation
À ce stade, la datavisualisation peut tout à fait trouver sa place comme représentation mentale de la pensée.
On est ici dans le cas d’une datavisualisation qui :
Déjà abonné ? Je me connecte ici...
La datavisualisation (souvent appelée dataviz) est une représentation graphique permettant de synthétiser des données quantitatives surtout mais aussi qualitatives.
Dans son ouvrage « Rechercher l’information stratégique sur le Web », Véronique Mesguich propose une vision intéressante de ce que la datavisualisation apporte aux professionnels de l’information.
À travers notamment la retranscription d’un échange avec Serge Courrier, l’ouvrage met en avant que dans le monde de la veille et de la recherche d’information, la datavisualisation distingue deux grands usages :
Véronique Mesguich indique que la datavisualisation au sens strict du terme correspond en réalité uniquement à ce deuxième usage, mais que dans le langage courant, le mot est souvent utilisé pour désigner toute forme de représentation de données.
Lire aussi :
Enrichir ses livrables de veille grâce à la datavisualisation
Dans cet article, nous avons donc choisi de parler de datavisualisation au sens large, car ce sont bien toutes les formes de représentations de données qui ont leur place dans les processus de veille.
Nous nous intéresserons aux données, quelles qu’elles soient, qu’il s’agisse de représenter des données que l’on connaît déjà ou de faire émerger des données que l’on ne connaît pas, de traiter de gros volumes de données ou des volumes moindres gérables manuellement, de travailler sur des représentations de données textuelles ou chiffrées - souvent appelées informations qualitatives et quantitatives.
Déjà abonné ? Je me connecte ici...
Depuis quelques années, les plateformes de veille intègrent de plus en plus de fonctionnalités de dataviz.
Dans la grande majorité des cas, les outils de veille intègrent la représentation visuelle au niveau de l’analyse des résultats de veille. Ils aident l’internaute à se repérer dans un vaste volume d’informations, à détecter plus rapidement et facilement des informations importantes qu’il ne connaît pas encore et à exporter ces visualisations pour les intégrer à des livrables.
Mais si tous les outils de veille parlent de dataviz ou de fonctionnalités analytiques, ce qui se cache derrière ce terme « vendeur » varie en réalité d’un outil à l’autre.
Tous proposent aujourd’hui des dashboards personnalisables avec différentes représentations visuelles. Certains ont choisi de continuer à développer leurs propres solutions de datavisualisation en interne là où d’autres ont préféré choisir des connecteurs avec des outils dédiés à la datavisualisation comme les outils de BI (Business Intelligence) dès qu’il s’agit d’aller plus loin. Ce qui va varier également, c’est le degré de personnalisation de ces datavisualisations, les corpus qui servent à la réalisation de ces visualisations ou encore l’existence ou non de graphes relationnels permettant de voir des liens entre les données.
Lire aussi :
Outils de veille freemiums : se repérer dans le paysage des lecteurs de flux RSS
Les outils de surveillance de pages gratuits et freemiums au banc d’essai
Les nouvelles fonctionnalités des plateformes de veille en 2021
Le marché des plateformes de veille se consolide
Le marché des outils et plateformes de veille en France en 2020
Quand on dispose déjà d’un outil de veille, il est intéressant de regarder en profondeur ce qu’il propose en matière de datavisualisation, car ce n’est pas toujours si intuitif, ni toujours très bien mis en valeur.
Si on est à la recherche d’une plateforme de veille, il va falloir déterminer en amont quelle place donner à la datavisualisation dans son processus de veille et ensuite examiner ce que chaque outil propose en la matière. Les sites Web des différents acteurs ou les brochures mettent finalement plutôt mal en valeur cette dimension dataviz et on ne peut comprendre les différentes fonctionnalités qu’en discutant avec les différents acteurs.
Attention à regarder précisément sur quel corpus il est possible de réaliser les visualisations : le Graal, s’il existe, étant de pouvoir y inclure des données de sources diverses (presse, réseaux sociaux, sites Web, brevets, informations scientifiques, informations issues de bases de données professionnelles, etc.). Si les données entrantes sont biaisées ou très incomplètes, l’analyse qui sera faite derrière sera nécessairement biaisée et incomplète (la fameuse théorie du Garbage in Garbage out).
Dans cet article, nous faisons donc un tour d’horizon de ce que proposent les outils classiques du veilleur en matière de représentation visuelle des données. Comment cela vient-il s’interfacer dans le processus de veille, quels sont les avantages de ses fonctionnalités, leurs limites et dans quels cas faut-il plutôt se tourner vers des outils dédiés à la datavisualisation.
Déjà abonné ? Je me connecte ici...
Quand la datavisualisation n’est pas incluse ou pas suffisamment aboutie dans les outils de recherche ou de veille que l’on utilise au quotidien, il n’y a pas d’autre choix que de se tourner vers des outils dédiés à la représentation visuelle de données.
Et le moins que l’on puisse dire, c’est qu’on se retrouve vite confronté à un marché extrêmement vaste et surtout très disparate dans lequel il est très difficile de se repérer et de trouver l’outil adapté à ses besoins particuliers.
Il est en effet impossible de mettre sur le même plan un outil qui permet de réaliser des infographies manuellement, des graphes relationnels, un outil de data storytelling, un tableur qui permet de réaliser des graphes ou un outil de Business Intelligence.
Lire aussi :
Enrichir ses livrables de veille grâce à la datavisualisation
Ces outils n’ont tout simplement rien en commun si ce n’est leur côté visuel. Ils ne répondent pas aux mêmes besoins ni aux mêmes problématiques. Et pourtant, nombreux sont les articles sur le Web du type « les X meilleurs outils de dataviz » qui mêlent sans distinction et sans réflexion tous ces outils.
Le but de cet article n’est donc pas de tester tout ou partie des outils de représentation des données, pas plus que de juger la valeur sur ces outils. Le but est ici de donner les clés pour se repérer dans cet univers très vaste et réussir à se diriger vers le ou les types d’outils correspondant à ses besoins en matière de veille.
Déjà abonné ? Je me connecte ici...