Avec leurs résultats mesurables, les médias sociaux sont devenus incontournables pour les annonceurs et les professionnels du marketing qui touchent un public de masse ou ciblé. Dans ce contexte, les bibliothèques de publicités LinkedIn et TikTok, qui viennent d’être mises à jour pour rendre publiques plusieurs données publicitaires diffusées sur leurs plateformes, peuvent apporter des informations précieuses dans le cadre d’une veille stratégique.
Mais pour structurer sa recherche, encore faut-il savoir ce que l’on peut y trouver. Voici donc en détail ce que ces deux bibliothèques ont à offrir au professionnel de la veille et comment les exploiter pour renforcer sa veille stratégique et/ou commerciale.
Pour y accéder, le plus simple est encore… de cliquer sur les liens fournis par une recherche Google ou par les articles qui en parlent. Car si ces bibliothèques existent par souci de se conformer au niveau de transparence exigée dans l’Union européenne par la Digital Act (DSA), il n’en reste pas moins qu’elles ne sont pas accessibles ni en page d’accueil des réseaux sociaux, ni sur son compte, ni même sur les pages dédiées aux publicités. Qu’il s’agisse de LinkedIn ou de TikTok, il « suffit » donc de se rendre sur cette page LinkedIn (https://www.linkedin.com/ad-library), ou celle-ci pour TikTok (https://library.tiktok.com/ads). En revanche, nul besoin d’ouvrir un compte sur ces réseaux pour disposer des informations publicitaires.
La bibliothèque de publicités de LinkedIn offre une variété de filtres pour affiner votre recherche :
On peut ainsi rechercher certaines activités seulement au sein d’un grand groupe, comme « Orange » (nom de l’entreprise) + « Cybersécurité » (mot-clé), qui nous présentera les annonces publicitaires de « Orange Cyberdéfense » (voir Figure 1).
Figure 1 : Les résultats d’une recherche « Orange+Cybersécurité » sur la bibliothèque de Publicités LinkedIn.
Chaque aperçu de l’annonce, appelé « vignette » est assorti d’un lien « View details » qui permet d’accéder à une série d’informations : date, nom de l’agence publicitaire et, conformément au digital, le nombre d’impressions par pays et le ciblage.
Déjà abonné ? Connectez-vous...
Depuis quelques années, le mouvement no-code / low-code s’inscrit dans l’actualité des outils de veille. Ces outils permettent incontestablement d’imaginer et de réaliser des tâches qu’il était impossible de réaliser soi-même auparavant sans savoir coder (ou juste un peu, pour le low-code). Or, comme la datavisualisation , le no-code constitue un véritable moteur de transformation non seulement des usages, mais du métier dans son ensemble, tant il est vrai que le professionnel de l’information agit de concert avec les avancées informatiques comme nous l’avions déjà illustré avec l’utilisation de Github.
Les outils no-code, 100 % en ligne (hébergés dans le cloud, donc sans élément à installer), permettent de réaliser des sites web et des applications, mais aussi de créer des automatisations, notamment avec des bases de données. Les veilleurs étant habitués à s’adapter à l’environnement numérique de leur client, c’est surtout l’automatisation et la manipulation des bases de données qui les concernent.
Et ces outils interviennent aussi bien au niveau de l’interface client, que des automatisations et connexions aux APIs ou même de la structuration de la donnée.
Ils envahissent le quotidien des professionnels de la veille depuis quelques années, dans les entreprises de toute taille. Pour le veilleur, les outils no-code sont devenus essentiels à chaque étape de la veille.
Lire aussi :
« Le veilleur face au défi de la représentation des données », NETSOURCES n°161 - novembre/décembre 2022
« Github : le self-service du veilleur fauché, mais très motivé », BASES n°396 - octobre 2021
Cela concerne notamment :
● L’extraction automatisée d’informations à partir de différentes sources (ou scraping des données) ;
● La collecte d’informations, automatisée ou non, à partir des réseaux sociaux, des sites web, des bases de données, etc., via la création de flux RSS par exemple ;
● La classification et l’analyse des informations afin de mieux comprendre les évolutions d’un marché ;
● La création de tableaux de bord et de rapports visuels pour présenter les résultats de l’analyse des données ;
● La diffusion des informations rapide via des e-mails, des notifications push, etc.
Pour ne citer que deux exemples parmi des milliers, il est ainsi possible de faire du scraping de données d’un site web avec Simple Scraper et de les importer pour une mise à jour automatique dans Airtable sous forme de CSV pour les visualiser et les partager, avant de les enrichir avec Make (voir le tuto : https://www.youtube.com/watch?v=yViu5wISJ-4). Ou même de lire ses flux RSS dans Airtable, grâce à au module « Watch RSS feed items » de l’outil d’automatisation Make (ex-Integromat), et ce en cinq minutes (voir le tuto : https://www.youtube.com/watch?v=JCzmlZ0qgxQ).
Mais ce n’est que le reflet d’une réalité bien plus large : selon une étude Gartner de novembre 2021, le no-code participera à 70 % des nouvelles applications en 2025. Après avoir connu une forte expansion pendant le confinement (télétravail oblige), des levées de fonds à plusieurs millions et des startups créées uniquement sur la base d’outils no-code, les acteurs du no-code se structurent en France et forment un écosystème, notamment autour de l’Association No Code France, du Syndicat des professionnels du No-code ou du No-code Summit. Il faut dire qu’ils ont tout pour plaire :
● La diversité des milliers de fonctionnalités à explorer ;
● La facilité d’utilisation pour des professionnels souvent autonomes et en recherche d’optimisation du circuit de l’information… ce que permet l’automatisation ;
● Les prix adaptés au niveau d’utilisation et souvent peu onéreux.
Avec leur effet souvent « waouh », on se laisse vite impressionner par les vidéos marketing et les divers tutos qui promettent un maximum d’effet pour un minimum d’investissement. Pourtant, si les avantages sont bien souvent connus, les limites sont trop souvent ignorées. Et s’il n’est pas question de s’en priver, il est néanmoins nécessaire de garder en tête les limites afin d’encadrer leur utilisation dans un cadre professionnel.
Déjà abonné ? Connectez-vous...
Sur Twitter, le nombre de fonctionnalités essentielles à la veille se réduisant drastiquement, nombreux sont les professionnels qui se questionnent sur les alternatives. Twitter a perdu encore 10 % d’abonnés en quelques mois, et les institutions, comme l’ENSSIB par exemple, commencent également à déserter cet espace.
Parmi ces alternatives, on distingue Bluesky, qui semble plus légitime que les autres, car créée par l’ancien fondateur de Twitter lui-même, Jack Dorsey. Cette plateforme de microblogging a été lancée en février dernier. Elle est actuellement disponible sur invitation uniquement et a dépassé le million d’utilisateurs (à titre de comparaison, Twitter compte environ 200 millions et Discord 300 millions d’utilisateurs réguliers). Outre sa ressemblance avec le Twitter des débuts, sans pubs, sans algorithmes intrusifs et de vraies fonctionnalités de recherche, son atout pour les veilleurs réside dans son ambition de rendre le contrôle des algorithmes, et donc des feeds, à ses utilisateurs.
Et si Bluesky réussit son challenge, le veilleur pourrait y retrouver sa communauté - et son sourcing - qu’il perd petit à petit sur Twitter. Parmi la communauté francophone, les journalistes, suivis par les chercheurs et les experts, s’y retrouvent déjà dans une ambiance calfeutrée et intimiste. Autre avantage, Bluesky remet les fils d’actualités - appelés Feeds - à l’honneur, un peu comme si Twitter avait mis en avant la fonctionnalité des Listes, essentielle aux veilleurs, mais toujours méconnue et de ce fait sous-exploitée.
Lire aussi :
« La veille sur les réseaux sociaux s’annonce de plus en plus fragmentée », BASES n° 417 - septembre 2023
C’est LA condition, l’étape la plus difficile à franchir : obtenir le précieux sésame. Le délai de la liste d’attente s’allonge de mois en mois, mais ce n’est que temporaire. En attendant, pour l’obtenir, nous avons demandé sur Twitter - comme conseillé dans la presse - en suivant le hashtag #bluesky, mais personne ne nous a répondu. Finalement, on a fini par la demander ouvertement sur une communauté Discord, avant de l’obtenir à la suite d’un live sur LinkedIn consacré à BlueSky. Premier arrivé… premier servi. Sachez tout de même que les heureux élus peuvent à leur tour donner des invitations régulièrement. Il est aussi régulièrement proposé des invitations à la fin des articles ou des vidéos sur Bluesky.
Et pour maintenir la coutume, une invitation est réservée au premier lecteur qui en fera la demande à la rédaction !
Un réseau décentralisé… si on le souhaite. C’est la première question posée à l’inscription : souhaite-t-on utiliser le serveur de Bluesky ou celui de son choix ? Car il s’agit, comme Mastodon, d’un réseau décentralisé. Ce n’est cependant pas obligatoire sur Bluesky, ce qui lève un frein important à son utilisation.
Le serveur se révèle toutefois fort utile dans un contexte professionnel : il sert à stocker ses données personnelles, ce qui est un gage de confidentialité. La nouveauté est qu’il s’agit aussi d’un moyen pour obtenir un identifiant numérique unique qui permettra, à l’avenir, la portabilité de ses données et de ses choix algorithmiques. Un peu comme une valise que l’on garderait avec soi de réseau social en réseau social. Enfin, définir son domaine en tant qu’identifiant fiabilise l’authentification des comptes. Plus besoin de petit badge bleu !
Figure 1 : Lors de sa première connexion, il est demandé si l’on veut héberger ses données sur le serveur Bluesky ou à une autre adresse spécifique.
Concrètement, le nom du serveur apparaît comme un nom de domaine dans une adresse @votrenom.nomduserveur.extension. L’adresse sur le serveur de Bluesky est donc @utilisateur.bsky.social mais il est possible de la remplacer par le nom de son entreprise, comme @prenom.bases-netsources.com.
On considérera donc cette option avec soin, d’autant que « Bsky » nous propose de le mettre en place pour une dizaine d’euros par an, ce qui est son seul service payant (adopté par 10 % environ des 100 000 premiers utilisateurs).
Après avoir choisi son serveur, configurer son profil est rapide : la bio, la photo de profil et une bannière. À noter, le format de cette dernière n’est pas simple à trouver (nous avons tâtonné) et elle n’est pas encore intégrée dans les outils marketing puisque l’usage de Bluesky est encore confidentiel.
Déjà abonné ? Connectez-vous...
Les générateurs de vidéos, ou Text to Video, sont-ils l’occasion de tester le format vidéo, trop cher jusqu’à présent, pour certains professionnels de la veille ?
La vidéo peut servir non seulement à favoriser la transformation d’une information en connaissance pour un livrable, mais elle peut aussi contribuer à animer, voire moderniser, un support pédagogique, ou encore à vendre son service de façon plus commerciale. Voici donc - parmi la centaine existants - 4 outils faciles à utiliser pour s’autoriser à passer le pas, technique et financier, de la vidéo. Au-delà du résultat, leur prouesse réside surtout dans leur facilité d’utilisation (les outils de notre sélection n’ont pas de table de montage) et dans leur rapidité d’exécution (une quinzaine de minutes suffit).
Fliki, des vidéos à partir de vos documents, dix fois plus vite ? Telle est la promesse de cet outil freemium. Mais que l’on ne s’y trompe pas, il faudra tout de même plus que « quelques minutes » pour créer son premier projet. Néanmoins, comme c’est le cas de la plupart de ces outils, la procédure est simplifiée à l’extrême pour permettre de créer une analyse sous format audio ou vidéo.
Comme la plupart des générateurs de vidéo, on s’inscrit avant d’accéder à un studio de montage ultra simplifié, puis on choisit :
● si l’on veut créer une vidéo ou un audio,
● sa langue,
● si l’on veut créer une vidéo à partir d’un billet de blog, d’une présentation PPTX, d’une simple idée… ou même d’un tweet !
Nous avons testé l’outil avec une présentation d’une trentaine de slides qui s’est alors transformée en un diaporama de plus d’une minute.
Déjà abonné ? Connectez-vous...
Voilà des dizaines d’années qu’on lit cette expression dans de multiples documents de toutes natures ou qu’on l’entend prononcée lors de conférences. Pour illustrer la « popularité » de cette expression, une recherche dans Google avec l’expression « 80% of technical information is found only in patents » génère entre 8 et 10 millions de réponses. Si l’on cherche avec l’expression traduite en français, le nombre de documents annoncés est proche de 200 000 ! On sait que l’on ne pourra les visualiser tous, mais le chiffre est impressionnant.
Il faut noter que, si le plus souvent on parle de 80 %, on trouve également la fourchette « 70 % - 90 % ».
Dans cet article, nous nous sommes demandé s’il s’agissait d’une « légende urbaine persistante » ou bien si cela était vrai.
Nous avons donc regardé quelques documents citant cette expression. Ils sont, à l’évidence, loin d’être issus de revues prédatrices ou de blogs farfelus puisque l’on trouve cette assertion aussi bien dans des conférences que par exemple dans les publications des organismes suivants :
On trouve aussi des citations plus récentes, par exemple dans un communiqué de presse de LexisNexis daté du 23 juillet de cette année ou encore, actuellement, sur le site de l’URFIST Paris.
Mais quelle peut bien être la source de cette information ?
Déjà abonné ? Connectez-vous...
Le réseau social par excellence pour faire de la veille a longtemps été Twitter (désormais X), en raison des fonctionnalités qu’il proposait et de la gratuité de son API qui permettait l’existence d’un écosystème d’outils de qualité pour analyser, rechercher et faire de la veille sur le réseau social.
Et cerise sur le gâteau, on y trouvait de nombreux contenus pertinents pour la veille professionnelle. X (ex-Twitter) était à la fois une plateforme de communication des entreprises, des marques, des associations et des collectivités, le lieu d’expression de la communauté scientifique ou encore des journalistes, une place de choix pour la veille métier des veilleurs, un outil de recherche fiable sans algorithme de sélection avec des archives remontant à 2006, etc.
La fin de la gratuité de l’API et les évolutions des fonctionnalités ont brutalement mis un terme à la veille et à l’analyse automatisée telle qu’on pouvait les connaître. X (ex-Twitter) est devenu un réseau social fermé, comme beaucoup d’autres.
Et cela a des conséquences directes pour le pro de l’information : il faut envisager la veille sur les réseaux sociaux d’une autre manière, où X (ex-Twitter) est devenu un réseau social parmi d’autres dans la liste toujours plus longue des réseaux.
Dans cet article, nous vous expliquons comment faire de la veille sur les réseaux sociaux dans un contexte où, a priori, tous les réseaux sociaux peuvent avoir un intérêt pour la veille. Quels réseaux envisager, quels éléments mettre sous surveillance et quelle méthodologie appliquer et quels outils utiliser ?
Si on intègre les réseaux sociaux dans sa veille, c’est parce qu’on y trouve des informations que l’on ne trouve pas ailleurs ou alors difficilement.
● Les marques, les entreprises ou toute organisation (collectivités, associations, etc.) utilisent les réseaux sociaux comme moyen de communication ou de publicité.
● Les professionnels d’un secteur et les communautés peuvent y partager des contenus pertinents, de bonnes pratiques, des astuces ou encore des conseils, échanger avec leurs pairs.
● Enfin, certains les utilisent comme des plateformes de publication où ils peuvent créer des contenus originaux.
Et aujourd’hui, tout ce petit monde se retrouve dispatché sur différents réseaux sociaux. Il n’y a pas UN réseau social où la majorité des internautes ont une présence et y publient régulièrement tous leurs contenus. En revanche on observe qu’il existe des regroupements thématiques sur certains réseaux sociaux.
Une récente étude du blog du Modérateur auprès des Community managers, qui sont généralement la voix des marques et des entreprises, montre que les réseaux les plus privilégiés par ces derniers en 2023 sont Instagram (79 % estiment qu’Instagram est important pour leur travail), LinkedIn (77 %), Facebook (70 %). X (ex-Twitter) n’arrive qu’en 6e position après YouTube et TikTok avec 27 % seulement des Community managers qui estiment qu’il est important pour leur travail.
Du côté d’autres communautés de professionnels ou d’experts, ce n’est pas nécessairement le même constat.
Du côté de la communauté scientifique, la revue Nature a récemment mené une enquête auprès de 170 000 scientifiques dont 9 200 ont accepté de répondre aux questions pour savoir comment avait évolué leur usage de Twitter.
Il ressort de cette enquête qu’un peu plus de 50 % avaient diminué le temps qu’ils passaient sur X (ex-Twitter) ; qu’un peu moins de 7 % avaient définitivement quitté le réseau social et que 46 % avaient également rejoint d’autres réseaux sociaux (Mastodon, LinkedIn, Instagram, Threads ou encore Facebook en tête de liste).
Et même si globalement, les répondants ne sont pas en accord avec les évolutions de X (ex-Twitter), beaucoup restent, par peur de perdre le réseau qu’ils ont mis tant de temps à construire. Et ceux qui sont partis privilégient avant tout Mastodon, loin devant les autres réseaux sociaux.
Du côté de la communauté des journalistes, c’est encore un peu flou. Même si l’on voit de nombreux articles qui évoquent la volonté de quitter X (ex-Twitter), aucun chiffre ne permet de matérialiser une fuite réelle. Certains médias sont actuellement en phase d’expérimentation avant de prendre une décision à l’image de la BBC, qui tente une expérimentation sur Mastodon pendant six mois. On ne négligera pas non plus le fait que de nombreux journalistes proposent désormais des newsletters depuis des plateformes comme Substack et en profitent pour se distancer des réseaux sociaux.
Concernant les experts de l’OSINT, on constate qu’un nombre non négligeable de professionnels se retrouvent sur Discord
Voir notre article « Comment utiliser Discord pour ses veilles et ses recherches ? » dans ce même numéro
Enfin, pour les professionnels de l’information, si l’on prend l’exemple des nombreux comptes que nous suivons pour notre veille sur la veille, l’heure semble pour le moment à la réflexion. Il y avait une très forte communauté sur X (ex-Twitter) depuis très longtemps, puis une deuxième qui s’était progressivement créée sur LinkedIn. Aujourd’hui, ceux qui sont encore sur X (ex-Twitter) se posent très régulièrement la question de leur place sur la plateforme. Parmi les comptes que nous suivons, nous constatons que quelques comptes-clés ont quitté la plateforme mais ces derniers restent peu nombreux. Les autres comptes intéressants publient toujours, mais certains ont quand même réduit la voilure : ils publient moins de contenus et moins souvent. Enfin, on note une baisse de l’engagement (moins de likes, retweets, etc.), mais cette tendance avait déjà commencé avant le rachat de Twitter.
La veille sur les réseaux sociaux est donc aujourd’hui multiple. Mais quels sont les réseaux à envisager pour sa veille ?
Déjà abonné ? Connectez-vous...
Alors que l’utilité des cartes mentales est relancée par le renouveau actuel du Personal Knowledge Management, une nouvelle génération, issue des IA génératives, arrive sur le marché.
Ces cartes mentales générées par IA, ou Text to Mindmap, créent instantanément une carte mentale à partir d’un simple titre. Elles constituent un bon exemple de l’apport possible des IA génératives dans les pratiques de veille, quand celles-ci sont utilisées à bon escient.
Utilisés en phase de mise en place et de définition du périmètre d’une recherche ou d’une veille, les outils Text to Mindmap se révèlent ainsi un atout non négligeable. Bien sûr, ils ne sont pas parfaits et ne font pas (tout) le travail, mais ils constituent une première étape intéressante et sans doute un gain de temps et d’attention réels.
À noter : la plupart proposent une option avec ou sans IA, et se présentent avant tout comme des outils de gestion des connaissances.
Emberly combine la cartographie mentale et la gestion des notes : ici, les nœuds de la carte servent à stocker des ressources (notes ou liens) (voir figure 1). L’objectif final n’est donc pas de créer une carte mentale, mais bien d’organiser ses pensées et les ressources qui l’alimente. L’utilisation est très simple : après s’être connecté (via son compte Google ou son email), on choisit entre deux options :
Dans le premier cas, une fenêtre s’ouvre pour indiquer son sujet, et génère instantanément une carte. Un seul niveau est généré, car il ne s’agit pas d’ajouter un niveau comme dans une carte mentale classique, mais de stocker ici ses ressources, pour les visualiser dans une autre fenêtre qui s’ouvre à droite de la carte. Après la création de chaque branche par l’IA, il est donc possible de les modifier et de stocker chaque ressource dans cette fenêtre de droite. La version gratuite ne permet pas l’upload de fichier.
Une autre fonctionnalité permise par l’introduction de l’IA : l’assistant d’écriture, un chatbot nommé Advisor. Accessible en version gratuite, il peut générer des listes à coller ensuite manuellement dans sa carte mentale. Attention toutefois aux hallucinations de l’IA, on pensera donc à revérifier et à modifier si nécessaire !
Dans le second cas, notre avatar apparaît par défaut au centre de la carte mentale. Le fait que l’avatar soit mis au centre de la carte par défaut rappelle l’objectif initial de l’outil : organiser NOS pensées. Mais si l’on préfère le remplacer par un sujet thématique, on coche le bouton « Use text as center mode » dans les paramètres de la carte.
Nota bene : il n’y a pas d’export de la mindmap en format image dans la version gratuite. Chaque carte, avec ou sans IA, est exportée sous forme de dossier zippé, où chaque branche est un fichier texte. C’est donc ici la fonctionnalité de stockage qui prime sur l’apparence de la mindmap.
Déjà abonné ? Connectez-vous...
Avec la multiplication des médias sociaux et les changements récents au sein de X (ex-Twitter) qui conduisent à se poser sérieusement la question d’une alternative, les professionnels de la veille sont amenés à tester, maintenant plus que jamais, de nouveaux canaux pour surveiller (et diffuser) leurs informations.
L’une des plateformes où trouver de l’information de qualité, souvent de niche, est Discord. L’outil étant réservé au départ aux gamers et peu intuitif au premier abord dans une démarche de veille, beaucoup de professionnels n’ont sans doute pas encore osé franchir le pas. Pourtant, la qualité des communautés, du contenu et des relations entretenues sur cette plateforme, ainsi qu’une expérience plus saine pour notre santé mentale, garantie sans intrusion publicitaire ni surcharge algorithmique, valent la peine de fournir un effort supplémentaire. Mode d’emploi.
Si les communautés se sont diversifiées, l’outil est toutefois resté fidèle à celles de départ. Mais que l’on ne s’y trompe pas, on retrouvera ici, noyées dans les communautés de jeux, celles de ses outils de recherche et de veille, comme Flint Media, Kagi Search, Inoreader, Video Highlight, Midjourney, mais aussi des cercles VIP de marques de luxe comme Prada, des communautés de journalistes avec Écran Mobile, ou les principales communautés OSINT comme Bellingcat, OZINT ou OSINT-Fr.
Faire partie de la communauté d’un outil, c’est accéder en temps réel aux remontées de bugs et solutions. Par exemple, quand X (ex-Twitter) a cessé de donner l’accès à son API à des tiers, c’est là que les utilisateurs d’Inoreader chattaient avec Inoreader pour identifier des solutions possibles. On retrouve la même chose aujourd’hui avec Midjourney, par exemple, dont le serveur est public.
C’est ici que l’on peut suivre les tutoriels de Bellingcat ou l’actualité d’un outil de veille en temps réel, par exemple. Ou encore la curation des professionnels, tous secteurs confondus. Et il est finalement assez simple de s’y repérer quand on a les clefs. Les voici.
Déjà abonné ? Connectez-vous...
Les universités américaines publient de grandes quantités de journaux et disposent également d’« entrepôts de données » bien garnis, mais ces informations ne sont pas facilement accessibles et il est exclu de les rechercher sur chaque site d’université.
Ce ne sont pas, en général, des articles « validés par les pairs » tels que ceux dont on trouve les références dans beaucoup de banques de données classiques. Mais ils ne sont pas, pour autant, sans intérêt, car on peut difficilement croire que ces publications sont des « revues prédatrices ».
Nous avons dans ce cadre identifié une source originale et peu connue, qui offre l’accès à des données produites par 655 universités grâce au Digital Commons Network.
On y trouve plus de 4,5 millions de documents en libre accès : articles, thèses et différents types d’ouvrages.
Il faut savoir que cela ne représente qu’une petite partie des informations publiées par les universités américaines dans leur ensemble, car elles sont plus de 4 000.
● Tous les documents auxquels on a accès sont disponibles gratuitement en texte intégral, le plus souvent en PDF, mais, dans quelques cas, il n’y a pas d’abstract.
● Outre le contenu essentiellement d’origine américaine, on trouve aussi un petit nombre de documents provenant d’universités non américaines situées en Colombie (documents en langue espagnole), en Irlande, en Australie ou à Singapour.
● On remarquera que, pour une fois, le contenu n’est pas quasi uniquement scientifique puisque les sciences humaines et sociales sont très fortement représentées.
Une des originalités de ce site est la possibilité de définir avec beaucoup de précision son domaine de recherche.
En effet, on dispose, à la connexion à partir d’un PC - mais pas à partir d’un téléphone/smartphone - d’une grande roue dans laquelle figure, sur trois niveaux, l’essentiel des thématiques académiques (voir Figure 1).
Figure 1 : La page d’accueil du Digital Commons Network présente les recherches sous forme de grande roue.
Déjà abonné ? Connectez-vous...
La fiabilité des sources est un critère essentiel pour les professionnels de la veille. En effet, ils doivent s’assurer que les informations qu’ils collectent sont exactes et fiables afin de pouvoir les transmettre à leurs clients.
Pour cela, ils vérifient davantage la fiabilité des sources en amont en bâtissant un dispositif solide, plutôt que via un «fact-checking après coup» des sources des informations. Cette opération serait en effet bien trop chronophage, le temps devant être consacré à la validation et l’analyse du contenu de l’information lui-même.
C’est ainsi que pour les zones géographiques que l’on maîtrise, on a son échelle de valeur de qualité des sources. Sur des zones que l’on connaît mal, c’est plus difficile.
Aujourd’hui, devant l’impact des IA génératives sur la chaîne de l’information et par souci d’exhaustivité, le veilleur n’a d’autre choix que d’explorer les solutions alimentées à l’IA. Il s’expose ainsi à une masse de contenu non fiable, en provenance des générateurs de texte comme ChatGPT ou Bard, ainsi que des moteurs de recherche dopés à l’IA comme Bing Chat ou Perplexity.
Pour en évaluer le contenu, ces textes générés par IA, dits « synthétiques », doivent être a minima vérifiables. Pour cela, trois éléments sont à vérifier : la source, les faits et leur interprétation. Or, non seulement l’IA génère de fausses informations, mais elle ne permet pas actuellement de les vérifier. Ce faisant, elle va jusqu’à inverser le rapport au temps du veilleur entre la production d’une analyse (qui devient très rapide) et sa vérification (chronophage).
Tout d’abord, que deviennent les sources à l’heure de l’IA et comment sont-elles traitées par l’IA ?
Traditionnellement, les sources apparaissent sous forme de liens enrichis de snippets - avec des informations complémentaires - dans les moteurs de recherche. Et la recherche entre différentes sources permet de dresser sa propre analyse. Avec l’IA, c’est cette dernière qui fait la recherche à la place de l’utilisateur et lui fournit une réponse. Dans l’absolu, ce n’est donc pas un outil de recherche.
Pour répondre à une question posée, les IA génératives actuelles donnent une réponse sur un ton assertif, mais qui n’est pas vérifiable, là où un moteur de recherche traditionnel ne donne pas de réponse claire, mais plein de sources pour se faire son propre avis.
Lorsque l’on demande une information à ChatGPT, Bard ou aux moteurs de recherche IA, la réponse est instantanée et se suffit à elle-même. Qu’il s’agisse d’une analyse, d’un résumé ou d’une simple requête pratique, les sources s’invisibilisent : les liens sont absents, peu visibles ou même incohérents.
Du côté des générateurs de texte, ChatGPT ne cite pas ses sources (Cf. Figure 1.) et Bard se contente de proposer des recherches complémentaires sur Google, sous forme de boutons. Il y a au moins deux raisons à cette invisibilité :
● Les références sont interprétées comme gênantes pour la fluidité de la lecture ;
● Les IA génératives procèdent à une nouvelle forme de sélection de l’information, probabiliste et non déterministe. Le choix d’une information donnée est fonction d’un critère de probabilité et non comme c’est le cas traditionnellement, déterminés par des événements antérieurs. De plus, ces dernières sont programmées non pas pour dire la vérité (elles n’ont pas cette notion), mais pour être persuasives à notre regard.
Déjà abonné ? Connectez-vous...