L’infobésité des sources est un défi de plus en plus difficile à gérer, pour un veilleur comme pour tout un chacun. L’une des pistes possibles pour en sortir passe par une méthode de « mise en veilleuse » basée sur l’intelligence des sources que nous développons dans cet article.
Les veilleurs, même s’ils s’appuient toujours sur une sélection de sources et qu’ils s’évertuent à extraire des signaux et du sens au milieu du brouhaha ambiant, n’échappent pas à l’infobésité actuelle.
Il y a toujours plus de sources potentiellement pertinentes, toujours plus de contenus pertinents et d’outils pour repérer ces sources et ces contenus. Sans compter que nombre de ces sources et outils rajoutent sans cesse de nouvelles contraintes techniques à prendre en compte, ce qui se révèle souvent chronophage.
Ainsi, malgré nos efforts pour revoir les processus et les sources régulièrement, une veille, quelle qu’elle soit, a vite fait de demander de plus en plus de temps, mois après mois et année après année sauf si le sujet qu’elle traite tombe en désuétude.
Et il y a toujours cette angoisse de passer à côté d’une information vraiment importante qui viendrait jeter le discrédit sur la qualité de la prestation de veille dans son ensemble et les compétences du veilleur. On a alors vite tendance à tomber dans une quête d’exhaustivité que l’on sait pourtant vaine.
Pourtant, on ne le sait que trop : « trop d’info tue l’information » et on prend le risque de ne même plus voir une information clé qui est pourtant sous nos yeux.
Il faut réussir à refaire place nette et se recentrer sur l’essentiel en séparant les sources clés de celles de second plan.
Les sources clés, ce sont celles qui sont les premières ou les seules à publier les informations qui nous intéressent ou encore celles qui sont hyper-spécialisées sur les thématiques qui nous intéressent. Ce n’est pas pour rien que l’on parle tant de la réussite de certains médias professionnels ces dernières semaines (voir l’article des Échos « Les “pure players” de l’information professionnelle tirent leur épingle du jeu »). Ces médias s’adressent à un public restreint dont ils connaissent les besoins informationnels et proposent des contenus à haute valeur ajoutée que l’on ne retrouve nulle part ailleurs.
Les sources de second plan sont celles dont on ne sait pas toujours quoi faire. Ce sont les sources qui ne méritent pas qu’on les efface complètement de son dispositif de veille, mais qui, pour de multiples raisons, ne méritent pas non plus de figurer au cœur du dispositif et de bénéficier d’une surveillance constante.
C’est à ces sources, qu’il faut savoir mettre « en veilleuse », que nous avons choisi de nous intéresser aujourd’hui. Comment sélectionner ces sources de veille de second plan ? Où les met-on ? Et comment leur donner quand même une place dans son processus de veille ?
Avant de nous intéresser à ces sources de second rang, il est important de les repositionner dans le contexte ambiant d’infobésité. En effet, si nous avions un volume raisonnable de sources et de contenus et du temps à leur consacrer (comme cela a pu être le cas par le passé), cela ne poserait que peu de problèmes de mettre sous surveillance toutes les sources que l’on a pu repérer lors de son sourcing. Mais le contexte est aujourd’hui tout autre.
Dans le monde de la Tech et plus généralement sur le Web, on lit de plus en plus que l’infobésité ambiante oblige les internautes à revoir leurs pratiques informationnelles quels que soient leur métier et leur secteur d’activité et qu’il vaut mieux sélectionner l’information en amont.
On citera par exemple cet article académique en open access « Critical Ignoring as a Core Competence for Digital Citizens » paru dans la revue Current Directions in psychological science, ou cet article de The Conversation « When critical thinking isn’t enough: to beat information overload, we need to learn “critical ignoring” » , qui nous expliquent que, pour naviguer dans le monde de l’information digitale, l’esprit critique par rapport aux contenus qui nous arrivent n’est plus une condition suffisante. Il faut apprendre à ignorer, filtrer l’information avant même qu’elle ne nous arrive.
« L’ignorance critique est la capacité à choisir ce qu’il faut ignorer et/ou investir ses capacités attentionnelles limitées. Ignorer de manière critique, c’est plus que ne pas prêter attention, c’est pratiquer des habitudes saines et attentives face à la surabondance d’informations. » The Conversation
On citera également l’excellente newsletter de Marie Dollé, In Bed with Tech, qui proposait récemment une édition « Filtrer le bruit ou l’art de l’omission stratégique » , où elle évoquait cette question :
« “La curation ne réside pas dans l’accumulation, mais dans l’art du non-choix. Ce qui compte vraiment, c’est la cohérence globale de ce qui est retenu”. Ce passage du FOMO (fear of missing out) au NOMO (necessity of missing out) est peut-être la clé d’une gestion de l’information plus saine et plus consciente à l’ère de l’infobésité. Le NOMO, dans son essence, n’est pas une privation, mais une délivrance. Choisir, c’est accumuler. Omettre, c’est se libérer. »
En tant que veilleur, on pratique, sans le nommer ainsi, l’« ignorance critique » ou l’« omission stratégique » depuis toujours. Faire du sourcing, n’est-ce pas tout simplement une forme d’« omission stratégique » ?
Mais il est possible que l’évolution des pratiques et des outils nous en éloigne avec les années, et que la peur de passer à côté d’une information importante nous pousse à accumuler plus de sources que nécessaire.
Cette évolution n’est d’ailleurs pas le propre des humains veilleurs, c’est aussi une tendance qui s’observe dans les outils utilisés.
Pendant longtemps, le plus dur pour les professionnels de l’information n’était pas de faire le tri parmi les sources et les informations. C’était tout simplement d’en trouver. L’information était rare, les sources aussi, et ces dernières n’étaient pas toujours simples à identifier.
Déjà abonné ? Connectez-vous...
Microsoft vient de mettre à disposition du marché européen son offre IA adaptée à sa suite Office et son tarif, 30 €/mois/personne, n’est pas négligeable pour un service de veille.
Voici donc trois alternatives freemium, soit pour modifier des présentations existantes grâce à l’IA, soit pour générer des présentations entières en un prompt. Le tout sans alourdir son budget.
Bien sûr, si une présentation peut désormais être générée en un prompt, l’IA ne fait pas tout le travail à sa place, mais elle donne une base visuellement attractive, structurée et quelques idées pour enrichir son propre travail.
Ceci, afin de réaliser une présentation commerciale valorisante de son offre en interne ou à l’externe, ou bien de présenter son produit final, qu’il s’agisse de chiffres de marché, de suivi de tendances, d’analyse comparative ou tout simplement d’un résumé des résultats de sa veille.
Plus AI est un add-on (une extension) qui s’installe dans Google Slides. On l’installe via la Google Workspace Marketplace (https://workspace.google.com/marketplace/). Ensuite, on y accède depuis un nouveau document sur Google Slides, en cliquant sur « Extension », ce qui ouvre une nouvelle fenêtre de création de slides (ou diapositives).
Pour commencer une présentation, il existe premièrement plusieurs options : générer une présentation complète à partir d’un prompt, insérer un texte préalablement rédigé ou procéder à la création de slides individuelles. Deuxièmement, on choisit le style : commercial, webinaire, cours en ligne, etc.
Un exemple de prompt s’affiche en anglais. Toutefois l’outil comprend parfaitement les prompts en français, ce qui constitue l’une de ses valeurs ajoutées. En lui demandant par exemple de créer un atelier d’éducation aux médias, Plus AI génère treize slides, ce qui est un autre atout car souvent les outils de ce type génèrent six slides au maximum en version gratuite, ce qui est difficilement exploitable. Avant de générer les slides, il propose un plan à valider, avec les titres modifiables de chaque slide et en (bon) français. On choisit ensuite une gamme de couleurs, puis des visuels sont automatiquement proposés. Une prévisualisation à personnaliser/corriger est alors proposée, ce qui est rare dans une version gratuite ! Nec plus ultra, des conseils d’animation pour interagir avec les élèves figurent aussi sur les slides ! Quand le résultat est satisfaisant, on clique sur « Generate ».
Les seuls problèmes relevés lors de l’expérience : les accents des mots français non pris en compte et la non-intégration d’un éditeur d’image dans le logiciel.
Déjà abonné ? Connectez-vous...
Les podcasts ont une place particulière dans le monde de la veille. C’est un type de sources qui a, sur certains sujets, une valeur inestimable. Ils peuvent en effet proposer des informations que l’on ne retrouve pas ailleurs, offrir de l’analyse et de la profondeur difficile à obtenir dans des contenus plus courts comme des articles par exemple, etc. De plus, les podcasts sont souvent gratuits, ce qui ne nécessite pas une souscription à un abonnement supplémentaire.
Mais choisir d’intégrer des podcasts à sa démarche, c’est aussi beaucoup d’embûches en perspective et à tous les niveaux : ils sont difficiles à identifier et à mettre en veille de manière automatisée, ils sont longs à écouter et à analyser, mais ils sont aussi compliqués à intégrer aux livrables (voir notre article Comment intégrer les podcasts à ses livrables de veille ?).
Dans cet article, nous avons choisi de nous focaliser exclusivement sur la phase d’identification de podcasts : comment identifier des podcasts pertinents à intégrer à son sourcing ? Quels outils et méthodes utiliser pour y parvenir ?
Nous nous intéressons ici aux podcasts au sens large : podcasts journalistiques et podcasts de marques ou amateurs, à l’exception des replays d’émissions qui existent déjà sous un autre format. La méthode proposée permet d’identifier des podcasts français mais elle fonctionne aussi pour des podcasts réalisés dans d’autres pays et dans d’autres langues.
Un bon moyen de repérer des podcasts est de tirer parti du travail de recensement déjà réalisé par des journalistes, chercheurs, etc. Il existe en effet en France, mais aussi ailleurs des cartographies du paysage et du marché des podcasts, des datasets de recensements, etc.
Les recensements évoqués ici viennent d’un article passionnant paru dans la revue Les Enjeux de la communication en septembre 2023 : « Les podcasts natifs d’information en France : méthodologie pour un recensement de l’offre ».
Les auteurs de cet article proposent « un retour descriptif et analytique sur la méthodologie employée pour réaliser une base de données des podcasts natifs ». Si la base de données de podcasts n’est malheureusement pas accessible au commun des mortels, les éléments de méthode et les sources égrenées tout au long de l’article sont quant à elles extrêmement précieuses.
Parmi les recensements de podcasts évoqués dans l’article, on citera :
● La cartographie des acteurs du podcasts en France. La version 2023 est disponible à l’adresse suivante : https://www.cosavostra.com/guides/la-cartographie-des-acteurs-du-podcasts-en-france-edition-2023/. On peut visualiser l’écosystème des médias audiovisuels qui produisent des podcasts, ainsi que celui de la presse écrite et les studios de podcasts. Il ne reste plus qu’à aller explorer les sites de ces différents acteurs à la recherche de podcasts.
● Podcast city (https://map.audiomeans.fr/), une carte avec une sélection des principaux podcasts français. La carte date de 2021, les données ne sont donc pas toutes à jour, mais la carte reste très intéressante.
● Un dataset des podcasts français archivés à l’INA au titre du dépôt légal sur data.gouv (https://www.data.gouv.fr/fr/datasets/podcasts-francais-archives-a-lina/). Le fichier n’a malheureusement pas été remis à jour depuis novembre 2020. Et sur le site de l’INA, il n’est pas possible d’accéder au recensement des podcasts français.
● Un dataset proposé par Spotify (https://podcastsdataset.byspotify.com/) qui contient plus de 100 000 épisodes de podcasts hébergés sur Spotify en anglais et portugais seulement. Le dataset n’est pas librement accessible mais on peut en faire la demande auprès de Spotify.
● PodcastRE (https://podcastre.org/), une base de données réalisée par le département des arts de la communication et les bibliothèques de l’Université du Wisconsin-Madison qui recense des podcasts en langue anglaise.
Déjà abonné ? Connectez-vous...
Avec leurs résultats mesurables, les médias sociaux sont devenus incontournables pour les annonceurs et les professionnels du marketing qui touchent un public de masse ou ciblé. Dans ce contexte, les bibliothèques de publicités LinkedIn et TikTok, qui viennent d’être mises à jour pour rendre publiques plusieurs données publicitaires diffusées sur leurs plateformes, peuvent apporter des informations précieuses dans le cadre d’une veille stratégique.
Mais pour structurer sa recherche, encore faut-il savoir ce que l’on peut y trouver. Voici donc en détail ce que ces deux bibliothèques ont à offrir au professionnel de la veille et comment les exploiter pour renforcer sa veille stratégique et/ou commerciale.
Pour y accéder, le plus simple est encore… de cliquer sur les liens fournis par une recherche Google ou par les articles qui en parlent. Car si ces bibliothèques existent par souci de se conformer au niveau de transparence exigée dans l’Union européenne par la Digital Act (DSA), il n’en reste pas moins qu’elles ne sont pas accessibles ni en page d’accueil des réseaux sociaux, ni sur son compte, ni même sur les pages dédiées aux publicités. Qu’il s’agisse de LinkedIn ou de TikTok, il « suffit » donc de se rendre sur cette page LinkedIn (https://www.linkedin.com/ad-library), ou celle-ci pour TikTok (https://library.tiktok.com/ads). En revanche, nul besoin d’ouvrir un compte sur ces réseaux pour disposer des informations publicitaires.
La bibliothèque de publicités de LinkedIn offre une variété de filtres pour affiner votre recherche :
On peut ainsi rechercher certaines activités seulement au sein d’un grand groupe, comme « Orange » (nom de l’entreprise) + « Cybersécurité » (mot-clé), qui nous présentera les annonces publicitaires de « Orange Cyberdéfense » (voir Figure 1).
Figure 1 : Les résultats d’une recherche « Orange+Cybersécurité » sur la bibliothèque de Publicités LinkedIn.
Chaque aperçu de l’annonce, appelé « vignette » est assorti d’un lien « View details » qui permet d’accéder à une série d’informations : date, nom de l’agence publicitaire et, conformément au digital, le nombre d’impressions par pays et le ciblage.
Déjà abonné ? Connectez-vous...
Depuis quelques années, le mouvement no-code / low-code s’inscrit dans l’actualité des outils de veille. Ces outils permettent incontestablement d’imaginer et de réaliser des tâches qu’il était impossible de réaliser soi-même auparavant sans savoir coder (ou juste un peu, pour le low-code). Or, comme la datavisualisation , le no-code constitue un véritable moteur de transformation non seulement des usages, mais du métier dans son ensemble, tant il est vrai que le professionnel de l’information agit de concert avec les avancées informatiques comme nous l’avions déjà illustré avec l’utilisation de Github.
Les outils no-code, 100 % en ligne (hébergés dans le cloud, donc sans élément à installer), permettent de réaliser des sites web et des applications, mais aussi de créer des automatisations, notamment avec des bases de données. Les veilleurs étant habitués à s’adapter à l’environnement numérique de leur client, c’est surtout l’automatisation et la manipulation des bases de données qui les concernent.
Et ces outils interviennent aussi bien au niveau de l’interface client, que des automatisations et connexions aux APIs ou même de la structuration de la donnée.
Ils envahissent le quotidien des professionnels de la veille depuis quelques années, dans les entreprises de toute taille. Pour le veilleur, les outils no-code sont devenus essentiels à chaque étape de la veille.
Lire aussi :
« Le veilleur face au défi de la représentation des données », NETSOURCES n°161 - novembre/décembre 2022
« Github : le self-service du veilleur fauché, mais très motivé », BASES n°396 - octobre 2021
Cela concerne notamment :
● L’extraction automatisée d’informations à partir de différentes sources (ou scraping des données) ;
● La collecte d’informations, automatisée ou non, à partir des réseaux sociaux, des sites web, des bases de données, etc., via la création de flux RSS par exemple ;
● La classification et l’analyse des informations afin de mieux comprendre les évolutions d’un marché ;
● La création de tableaux de bord et de rapports visuels pour présenter les résultats de l’analyse des données ;
● La diffusion des informations rapide via des e-mails, des notifications push, etc.
Pour ne citer que deux exemples parmi des milliers, il est ainsi possible de faire du scraping de données d’un site web avec Simple Scraper et de les importer pour une mise à jour automatique dans Airtable sous forme de CSV pour les visualiser et les partager, avant de les enrichir avec Make (voir le tuto : https://www.youtube.com/watch?v=yViu5wISJ-4). Ou même de lire ses flux RSS dans Airtable, grâce à au module « Watch RSS feed items » de l’outil d’automatisation Make (ex-Integromat), et ce en cinq minutes (voir le tuto : https://www.youtube.com/watch?v=JCzmlZ0qgxQ).
Mais ce n’est que le reflet d’une réalité bien plus large : selon une étude Gartner de novembre 2021, le no-code participera à 70 % des nouvelles applications en 2025. Après avoir connu une forte expansion pendant le confinement (télétravail oblige), des levées de fonds à plusieurs millions et des startups créées uniquement sur la base d’outils no-code, les acteurs du no-code se structurent en France et forment un écosystème, notamment autour de l’Association No Code France, du Syndicat des professionnels du No-code ou du No-code Summit. Il faut dire qu’ils ont tout pour plaire :
● La diversité des milliers de fonctionnalités à explorer ;
● La facilité d’utilisation pour des professionnels souvent autonomes et en recherche d’optimisation du circuit de l’information… ce que permet l’automatisation ;
● Les prix adaptés au niveau d’utilisation et souvent peu onéreux.
Avec leur effet souvent « waouh », on se laisse vite impressionner par les vidéos marketing et les divers tutos qui promettent un maximum d’effet pour un minimum d’investissement. Pourtant, si les avantages sont bien souvent connus, les limites sont trop souvent ignorées. Et s’il n’est pas question de s’en priver, il est néanmoins nécessaire de garder en tête les limites afin d’encadrer leur utilisation dans un cadre professionnel.
Déjà abonné ? Connectez-vous...
Sur Twitter, le nombre de fonctionnalités essentielles à la veille se réduisant drastiquement, nombreux sont les professionnels qui se questionnent sur les alternatives. Twitter a perdu encore 10 % d’abonnés en quelques mois, et les institutions, comme l’ENSSIB par exemple, commencent également à déserter cet espace.
Parmi ces alternatives, on distingue Bluesky, qui semble plus légitime que les autres, car créée par l’ancien fondateur de Twitter lui-même, Jack Dorsey. Cette plateforme de microblogging a été lancée en février dernier. Elle est actuellement disponible sur invitation uniquement et a dépassé le million d’utilisateurs (à titre de comparaison, Twitter compte environ 200 millions et Discord 300 millions d’utilisateurs réguliers). Outre sa ressemblance avec le Twitter des débuts, sans pubs, sans algorithmes intrusifs et de vraies fonctionnalités de recherche, son atout pour les veilleurs réside dans son ambition de rendre le contrôle des algorithmes, et donc des feeds, à ses utilisateurs.
Et si Bluesky réussit son challenge, le veilleur pourrait y retrouver sa communauté - et son sourcing - qu’il perd petit à petit sur Twitter. Parmi la communauté francophone, les journalistes, suivis par les chercheurs et les experts, s’y retrouvent déjà dans une ambiance calfeutrée et intimiste. Autre avantage, Bluesky remet les fils d’actualités - appelés Feeds - à l’honneur, un peu comme si Twitter avait mis en avant la fonctionnalité des Listes, essentielle aux veilleurs, mais toujours méconnue et de ce fait sous-exploitée.
Lire aussi :
« La veille sur les réseaux sociaux s’annonce de plus en plus fragmentée », BASES n° 417 - septembre 2023
C’est LA condition, l’étape la plus difficile à franchir : obtenir le précieux sésame. Le délai de la liste d’attente s’allonge de mois en mois, mais ce n’est que temporaire. En attendant, pour l’obtenir, nous avons demandé sur Twitter - comme conseillé dans la presse - en suivant le hashtag #bluesky, mais personne ne nous a répondu. Finalement, on a fini par la demander ouvertement sur une communauté Discord, avant de l’obtenir à la suite d’un live sur LinkedIn consacré à BlueSky. Premier arrivé… premier servi. Sachez tout de même que les heureux élus peuvent à leur tour donner des invitations régulièrement. Il est aussi régulièrement proposé des invitations à la fin des articles ou des vidéos sur Bluesky.
Et pour maintenir la coutume, une invitation est réservée au premier lecteur qui en fera la demande à la rédaction !
Un réseau décentralisé… si on le souhaite. C’est la première question posée à l’inscription : souhaite-t-on utiliser le serveur de Bluesky ou celui de son choix ? Car il s’agit, comme Mastodon, d’un réseau décentralisé. Ce n’est cependant pas obligatoire sur Bluesky, ce qui lève un frein important à son utilisation.
Le serveur se révèle toutefois fort utile dans un contexte professionnel : il sert à stocker ses données personnelles, ce qui est un gage de confidentialité. La nouveauté est qu’il s’agit aussi d’un moyen pour obtenir un identifiant numérique unique qui permettra, à l’avenir, la portabilité de ses données et de ses choix algorithmiques. Un peu comme une valise que l’on garderait avec soi de réseau social en réseau social. Enfin, définir son domaine en tant qu’identifiant fiabilise l’authentification des comptes. Plus besoin de petit badge bleu !
Figure 1 : Lors de sa première connexion, il est demandé si l’on veut héberger ses données sur le serveur Bluesky ou à une autre adresse spécifique.
Concrètement, le nom du serveur apparaît comme un nom de domaine dans une adresse @votrenom.nomduserveur.extension. L’adresse sur le serveur de Bluesky est donc @utilisateur.bsky.social mais il est possible de la remplacer par le nom de son entreprise, comme @prenom.bases-netsources.com.
On considérera donc cette option avec soin, d’autant que « Bsky » nous propose de le mettre en place pour une dizaine d’euros par an, ce qui est son seul service payant (adopté par 10 % environ des 100 000 premiers utilisateurs).
Après avoir choisi son serveur, configurer son profil est rapide : la bio, la photo de profil et une bannière. À noter, le format de cette dernière n’est pas simple à trouver (nous avons tâtonné) et elle n’est pas encore intégrée dans les outils marketing puisque l’usage de Bluesky est encore confidentiel.
Déjà abonné ? Connectez-vous...
Les générateurs de vidéos, ou Text to Video, sont-ils l’occasion de tester le format vidéo, trop cher jusqu’à présent, pour certains professionnels de la veille ?
La vidéo peut servir non seulement à favoriser la transformation d’une information en connaissance pour un livrable, mais elle peut aussi contribuer à animer, voire moderniser, un support pédagogique, ou encore à vendre son service de façon plus commerciale. Voici donc - parmi la centaine existants - 4 outils faciles à utiliser pour s’autoriser à passer le pas, technique et financier, de la vidéo. Au-delà du résultat, leur prouesse réside surtout dans leur facilité d’utilisation (les outils de notre sélection n’ont pas de table de montage) et dans leur rapidité d’exécution (une quinzaine de minutes suffit).
Fliki, des vidéos à partir de vos documents, dix fois plus vite ? Telle est la promesse de cet outil freemium. Mais que l’on ne s’y trompe pas, il faudra tout de même plus que « quelques minutes » pour créer son premier projet. Néanmoins, comme c’est le cas de la plupart de ces outils, la procédure est simplifiée à l’extrême pour permettre de créer une analyse sous format audio ou vidéo.
Comme la plupart des générateurs de vidéo, on s’inscrit avant d’accéder à un studio de montage ultra simplifié, puis on choisit :
● si l’on veut créer une vidéo ou un audio,
● sa langue,
● si l’on veut créer une vidéo à partir d’un billet de blog, d’une présentation PPTX, d’une simple idée… ou même d’un tweet !
Nous avons testé l’outil avec une présentation d’une trentaine de slides qui s’est alors transformée en un diaporama de plus d’une minute.
Déjà abonné ? Connectez-vous...
Voilà des dizaines d’années qu’on lit cette expression dans de multiples documents de toutes natures ou qu’on l’entend prononcée lors de conférences. Pour illustrer la « popularité » de cette expression, une recherche dans Google avec l’expression « 80% of technical information is found only in patents » génère entre 8 et 10 millions de réponses. Si l’on cherche avec l’expression traduite en français, le nombre de documents annoncés est proche de 200 000 ! On sait que l’on ne pourra les visualiser tous, mais le chiffre est impressionnant.
Il faut noter que, si le plus souvent on parle de 80 %, on trouve également la fourchette « 70 % - 90 % ».
Dans cet article, nous nous sommes demandé s’il s’agissait d’une « légende urbaine persistante » ou bien si cela était vrai.
Nous avons donc regardé quelques documents citant cette expression. Ils sont, à l’évidence, loin d’être issus de revues prédatrices ou de blogs farfelus puisque l’on trouve cette assertion aussi bien dans des conférences que par exemple dans les publications des organismes suivants :
On trouve aussi des citations plus récentes, par exemple dans un communiqué de presse de LexisNexis daté du 23 juillet de cette année ou encore, actuellement, sur le site de l’URFIST Paris.
Mais quelle peut bien être la source de cette information ?
Déjà abonné ? Connectez-vous...
Le réseau social par excellence pour faire de la veille a longtemps été Twitter (désormais X), en raison des fonctionnalités qu’il proposait et de la gratuité de son API qui permettait l’existence d’un écosystème d’outils de qualité pour analyser, rechercher et faire de la veille sur le réseau social.
Et cerise sur le gâteau, on y trouvait de nombreux contenus pertinents pour la veille professionnelle. X (ex-Twitter) était à la fois une plateforme de communication des entreprises, des marques, des associations et des collectivités, le lieu d’expression de la communauté scientifique ou encore des journalistes, une place de choix pour la veille métier des veilleurs, un outil de recherche fiable sans algorithme de sélection avec des archives remontant à 2006, etc.
La fin de la gratuité de l’API et les évolutions des fonctionnalités ont brutalement mis un terme à la veille et à l’analyse automatisée telle qu’on pouvait les connaître. X (ex-Twitter) est devenu un réseau social fermé, comme beaucoup d’autres.
Et cela a des conséquences directes pour le pro de l’information : il faut envisager la veille sur les réseaux sociaux d’une autre manière, où X (ex-Twitter) est devenu un réseau social parmi d’autres dans la liste toujours plus longue des réseaux.
Dans cet article, nous vous expliquons comment faire de la veille sur les réseaux sociaux dans un contexte où, a priori, tous les réseaux sociaux peuvent avoir un intérêt pour la veille. Quels réseaux envisager, quels éléments mettre sous surveillance et quelle méthodologie appliquer et quels outils utiliser ?
Si on intègre les réseaux sociaux dans sa veille, c’est parce qu’on y trouve des informations que l’on ne trouve pas ailleurs ou alors difficilement.
● Les marques, les entreprises ou toute organisation (collectivités, associations, etc.) utilisent les réseaux sociaux comme moyen de communication ou de publicité.
● Les professionnels d’un secteur et les communautés peuvent y partager des contenus pertinents, de bonnes pratiques, des astuces ou encore des conseils, échanger avec leurs pairs.
● Enfin, certains les utilisent comme des plateformes de publication où ils peuvent créer des contenus originaux.
Et aujourd’hui, tout ce petit monde se retrouve dispatché sur différents réseaux sociaux. Il n’y a pas UN réseau social où la majorité des internautes ont une présence et y publient régulièrement tous leurs contenus. En revanche on observe qu’il existe des regroupements thématiques sur certains réseaux sociaux.
Une récente étude du blog du Modérateur auprès des Community managers, qui sont généralement la voix des marques et des entreprises, montre que les réseaux les plus privilégiés par ces derniers en 2023 sont Instagram (79 % estiment qu’Instagram est important pour leur travail), LinkedIn (77 %), Facebook (70 %). X (ex-Twitter) n’arrive qu’en 6e position après YouTube et TikTok avec 27 % seulement des Community managers qui estiment qu’il est important pour leur travail.
Du côté d’autres communautés de professionnels ou d’experts, ce n’est pas nécessairement le même constat.
Du côté de la communauté scientifique, la revue Nature a récemment mené une enquête auprès de 170 000 scientifiques dont 9 200 ont accepté de répondre aux questions pour savoir comment avait évolué leur usage de Twitter.
Il ressort de cette enquête qu’un peu plus de 50 % avaient diminué le temps qu’ils passaient sur X (ex-Twitter) ; qu’un peu moins de 7 % avaient définitivement quitté le réseau social et que 46 % avaient également rejoint d’autres réseaux sociaux (Mastodon, LinkedIn, Instagram, Threads ou encore Facebook en tête de liste).
Et même si globalement, les répondants ne sont pas en accord avec les évolutions de X (ex-Twitter), beaucoup restent, par peur de perdre le réseau qu’ils ont mis tant de temps à construire. Et ceux qui sont partis privilégient avant tout Mastodon, loin devant les autres réseaux sociaux.
Du côté de la communauté des journalistes, c’est encore un peu flou. Même si l’on voit de nombreux articles qui évoquent la volonté de quitter X (ex-Twitter), aucun chiffre ne permet de matérialiser une fuite réelle. Certains médias sont actuellement en phase d’expérimentation avant de prendre une décision à l’image de la BBC, qui tente une expérimentation sur Mastodon pendant six mois. On ne négligera pas non plus le fait que de nombreux journalistes proposent désormais des newsletters depuis des plateformes comme Substack et en profitent pour se distancer des réseaux sociaux.
Concernant les experts de l’OSINT, on constate qu’un nombre non négligeable de professionnels se retrouvent sur Discord
Voir notre article « Comment utiliser Discord pour ses veilles et ses recherches ? » dans ce même numéro
Enfin, pour les professionnels de l’information, si l’on prend l’exemple des nombreux comptes que nous suivons pour notre veille sur la veille, l’heure semble pour le moment à la réflexion. Il y avait une très forte communauté sur X (ex-Twitter) depuis très longtemps, puis une deuxième qui s’était progressivement créée sur LinkedIn. Aujourd’hui, ceux qui sont encore sur X (ex-Twitter) se posent très régulièrement la question de leur place sur la plateforme. Parmi les comptes que nous suivons, nous constatons que quelques comptes-clés ont quitté la plateforme mais ces derniers restent peu nombreux. Les autres comptes intéressants publient toujours, mais certains ont quand même réduit la voilure : ils publient moins de contenus et moins souvent. Enfin, on note une baisse de l’engagement (moins de likes, retweets, etc.), mais cette tendance avait déjà commencé avant le rachat de Twitter.
La veille sur les réseaux sociaux est donc aujourd’hui multiple. Mais quels sont les réseaux à envisager pour sa veille ?
Déjà abonné ? Connectez-vous...
Alors que l’utilité des cartes mentales est relancée par le renouveau actuel du Personal Knowledge Management, une nouvelle génération, issue des IA génératives, arrive sur le marché.
Ces cartes mentales générées par IA, ou Text to Mindmap, créent instantanément une carte mentale à partir d’un simple titre. Elles constituent un bon exemple de l’apport possible des IA génératives dans les pratiques de veille, quand celles-ci sont utilisées à bon escient.
Utilisés en phase de mise en place et de définition du périmètre d’une recherche ou d’une veille, les outils Text to Mindmap se révèlent ainsi un atout non négligeable. Bien sûr, ils ne sont pas parfaits et ne font pas (tout) le travail, mais ils constituent une première étape intéressante et sans doute un gain de temps et d’attention réels.
À noter : la plupart proposent une option avec ou sans IA, et se présentent avant tout comme des outils de gestion des connaissances.
Emberly combine la cartographie mentale et la gestion des notes : ici, les nœuds de la carte servent à stocker des ressources (notes ou liens) (voir figure 1). L’objectif final n’est donc pas de créer une carte mentale, mais bien d’organiser ses pensées et les ressources qui l’alimente. L’utilisation est très simple : après s’être connecté (via son compte Google ou son email), on choisit entre deux options :
Dans le premier cas, une fenêtre s’ouvre pour indiquer son sujet, et génère instantanément une carte. Un seul niveau est généré, car il ne s’agit pas d’ajouter un niveau comme dans une carte mentale classique, mais de stocker ici ses ressources, pour les visualiser dans une autre fenêtre qui s’ouvre à droite de la carte. Après la création de chaque branche par l’IA, il est donc possible de les modifier et de stocker chaque ressource dans cette fenêtre de droite. La version gratuite ne permet pas l’upload de fichier.
Une autre fonctionnalité permise par l’introduction de l’IA : l’assistant d’écriture, un chatbot nommé Advisor. Accessible en version gratuite, il peut générer des listes à coller ensuite manuellement dans sa carte mentale. Attention toutefois aux hallucinations de l’IA, on pensera donc à revérifier et à modifier si nécessaire !
Dans le second cas, notre avatar apparaît par défaut au centre de la carte mentale. Le fait que l’avatar soit mis au centre de la carte par défaut rappelle l’objectif initial de l’outil : organiser NOS pensées. Mais si l’on préfère le remplacer par un sujet thématique, on coche le bouton « Use text as center mode » dans les paramètres de la carte.
Nota bene : il n’y a pas d’export de la mindmap en format image dans la version gratuite. Chaque carte, avec ou sans IA, est exportée sous forme de dossier zippé, où chaque branche est un fichier texte. C’est donc ici la fonctionnalité de stockage qui prime sur l’apparence de la mindmap.
Déjà abonné ? Connectez-vous...