La fiabilité des sources est un critère essentiel pour les professionnels de la veille. En effet, ils doivent s’assurer que les informations qu’ils collectent sont exactes et fiables afin de pouvoir les transmettre à leurs clients.
Pour cela, ils vérifient davantage la fiabilité des sources en amont en bâtissant un dispositif solide, plutôt que via un «fact-checking après coup» des sources des informations. Cette opération serait en effet bien trop chronophage, le temps devant être consacré à la validation et l’analyse du contenu de l’information lui-même.
C’est ainsi que pour les zones géographiques que l’on maîtrise, on a son échelle de valeur de qualité des sources. Sur des zones que l’on connaît mal, c’est plus difficile.
Aujourd’hui, devant l’impact des IA génératives sur la chaîne de l’information et par souci d’exhaustivité, le veilleur n’a d’autre choix que d’explorer les solutions alimentées à l’IA. Il s’expose ainsi à une masse de contenu non fiable, en provenance des générateurs de texte comme ChatGPT ou Bard, ainsi que des moteurs de recherche dopés à l’IA comme Bing Chat ou Perplexity.
Pour en évaluer le contenu, ces textes générés par IA, dits « synthétiques », doivent être a minima vérifiables. Pour cela, trois éléments sont à vérifier : la source, les faits et leur interprétation. Or, non seulement l’IA génère de fausses informations, mais elle ne permet pas actuellement de les vérifier. Ce faisant, elle va jusqu’à inverser le rapport au temps du veilleur entre la production d’une analyse (qui devient très rapide) et sa vérification (chronophage).
Tout d’abord, que deviennent les sources à l’heure de l’IA et comment sont-elles traitées par l’IA ?
Traditionnellement, les sources apparaissent sous forme de liens enrichis de snippets - avec des informations complémentaires - dans les moteurs de recherche. Et la recherche entre différentes sources permet de dresser sa propre analyse. Avec l’IA, c’est cette dernière qui fait la recherche à la place de l’utilisateur et lui fournit une réponse. Dans l’absolu, ce n’est donc pas un outil de recherche.
Pour répondre à une question posée, les IA génératives actuelles donnent une réponse sur un ton assertif, mais qui n’est pas vérifiable, là où un moteur de recherche traditionnel ne donne pas de réponse claire, mais plein de sources pour se faire son propre avis.
Lorsque l’on demande une information à ChatGPT, Bard ou aux moteurs de recherche IA, la réponse est instantanée et se suffit à elle-même. Qu’il s’agisse d’une analyse, d’un résumé ou d’une simple requête pratique, les sources s’invisibilisent : les liens sont absents, peu visibles ou même incohérents.
Du côté des générateurs de texte, ChatGPT ne cite pas ses sources (Cf. Figure 1.) et Bard se contente de proposer des recherches complémentaires sur Google, sous forme de boutons. Il y a au moins deux raisons à cette invisibilité :
● Les références sont interprétées comme gênantes pour la fluidité de la lecture ;
● Les IA génératives procèdent à une nouvelle forme de sélection de l’information, probabiliste et non déterministe. Le choix d’une information donnée est fonction d’un critère de probabilité et non comme c’est le cas traditionnellement, déterminés par des événements antérieurs. De plus, ces dernières sont programmées non pas pour dire la vérité (elles n’ont pas cette notion), mais pour être persuasives à notre regard.
Déjà abonné ? Connectez-vous...
Commentaires
AlphaWatch pourrait être une aletrnative prometteuse, à l'instar de Perplexity elle cite ses sources.
S’abonner au flux RSS pour les commentaires de cet article.