Sélectionner le numéro de "Netsources" à afficher

IA générative : l’humain ne doit pas dire son dernier mot

Anne-Marie LIBMANN
Netsources no
176
publié en
2025.06
803
Acheter ce no
Tags
professionnel de l'information | ChatGPT | IA
IA générative : l’humain ne doit pas dire son dernier mot Image 1
IA générative : l’humain ne doit pas dire son dernier mot Image 1

Imaginez un monde où l’intelligence artificielle générative deviendrait un documentaliste chevronné pour orchestrer vos recherches les plus ardues, un allié incontournable dans toutes vos tâches de traitement et de gestion de l’information, un compagnon d’une humanité confondante sur les réseaux sociaux, - un monde où rédiger une lettre de motivation sans IA s’imposerait comme un acte d’authenticité revendiqué…

Ce monde est déjà le nôtre. À la lecture de ce Netsources, on mesure l’ampleur avec laquelle l’IAG s’est infiltrée dans chaque facette de nos activités intellectuelles .

Dans son « Guide pratique du Deep Research », Véronique Mesguich montre comment l’IA est particulièrement intéressante dans le cas de recherches complexes exigeant l’analyse de sources multiples, et de production de synthèses, redéfinissant — ce faisant — le rôle des experts.

Ulysse Rajim (« Quand l’IA réinvente les réseaux sociaux… ») décrypte comment l’IA redéfinit les interactions sur les réseaux sociaux, complexifie la veille en brouillant l’authenticité de la parole et convertit les plateformes en viviers de données pour nourrir leur apprentissage.

Dans « L’impact de l’IAG sur les métiers de l’infodoc… », Christophe Deschamps , interrogé par Christel Ronsin, nous livre son expérience sur la transformation de la veille et de la gestion des connaissances par l’IAG à chaque étape du cycle, tout en rappelant l’importance de l’esprit critique.

Enfin, Christian Vigne dans sa « Chronique amusée : Love your imperfections », illustre comment l’IAG, en facilitant la rédaction instantanée de contenus comme une lettre de motivation, menace une authenticité humaine irremplaçable, essentielle à préserver pour notre développement et parcours personnels.

Ce nouveau monde soulève des questions existentielles, humaines comme professionnelles. Qui maîtrise quoi, ou, pire, qui maîtrise qui ? Comment préserver notre authenticité et nos liens sociaux ? Comment protéger nos données des IA avides de données et de raisonnement d’humains, exploitées à leur seul profit ? Comment rappeler — pourquoi pas à ses managers… — la responsabilité de l’humain face à une IAG ? Comment peut se redéfinir le rôle d’un professionnel de l’information dans le contexte actuel ?

On le comprend, les réponses à ces questions ne sont pas immédiates, mais chacun des articles de ce nouveau Netsources éclaire le fonctionnement de l’IA générative, incite à se former pour en exploiter tout le potentiel, et guide les professionnels de l’information vers des rôles à nouvelle valeur ajoutée, où l’humain garde toujours le dernier mot.

Le guide pratique du Deep Research 

Véronique MESGUICH
Netsources no
176
publié en
2025.06
813
Acheter ce no
Le guide pratique du Deep Research  Image 1
Le guide pratique du Deep Research  Image 1

Dans le précédent numéro de Netsources (« Deep Research : l’âge de raison des IA ? », Netsources N° 175 - mars/avril 2025), nous avons décrit et analysé l’irruption et les nombreux développements des outils de Deep Research proposés par les différentes IA.

Passons dans cette deuxième partie à la pratique en présentant et comparant les résultats obtenus avec les différents outils.

Une recherche approfondie pas à pas

Testons à présent la recherche approfondie des IA sur un exemple, en partant du prompt suivant : « Comporte-toi comme un analyste veilleur et rédige un rapport détaillé sur la stratégie et le positionnement des entreprises françaises dans le contexte des droits de douane annoncés par Trump en 2025. Base-toi sur des exemples concrets d’entreprises françaises dans différents secteurs (luxe, automobile, vins et spiritueux) pour étudier et comparer les différents positionnements et stratégies ».

Commençons par la recherche approfondie de ChatGPT (disponible dans la version payante, et depuis peu, de façon limitée dans la version gratuite). Avant d’élaborer son plan de veille, l’IA demande des précisions :

image272087 opt

Une fois les précisions apportées par l’utilisateur, l’IA récapitule la demande et élabore son plan de recherche.

image272094 opt

Le rapport est élaboré en 13 minutes et se base sur une sélection de 20 sources provenant de médias en ligne (on note une prédominance de BFM.tv !) ou de sites de presse professionnelle, le sourcing étant plutôt pertinent, mais assez peu diversifié. Le rapport lui-même est plutôt conséquent et bien structuré, incluant un tableau comparatif des stratégies par secteur et par entreprise. Un panneau latéral, dans l’interface, permet de retracer les étapes de recherche ainsi que la liste des sources utilisées.

Nous allons tester le même prompt sur la recherche approfondie de Perplexity (disponible dans la version gratuite). L’agent ne demande pas de précisions, mais effectue une recherche en sélectionnant 38 sources, qui se révèlent pertinentes, et présente rapidement une synthèse structurée et sourcée. Les différentes étapes de la recherche peuvent être affichées sous forme de bouton latéral à partir du lien « Tâches » (Tasks).

image272104 opt

Comparé au rapport élaboré par ChatGPT, le résultat de Perplexity est plus court et synthétique : le texte peut également être modifié, partagé ou exporté. L’utilisateur a la possibilité de poursuivre la conversation, toujours en mode approfondi, pour obtenir des précisions sur tel ou tel point.

Le même prompt saisi via la recherche approfondie de Perplexity, cette fois en version payante, génère un rapport globalement équivalent, mais basé sur un nombre de sources plus important (environ 60). Cependant, toutes les sources ne sont pas pertinentes pour le sujet.

Testons à présent la fonctionnalité Deep Research proposée par Gemini en version gratuite, toujours à partir du même prompt.

L’agent soumet dans un premier temps son plan de recherche :

image272113 opt

Ce plan détaillé aboutit à un rapport un peu plus court que celui produit par ChatGPT, mais basé sur un grand nombre de sources (une centaine) dont certaines sont pertinentes et récentes, d’autres plus anciennes et hors sujet. Des notes insérées dans le développement renvoient à la bibliographie finale, mais il semble que toutes les sources mentionnées ne sont pas exploitées dans le rapport. Originalité de Gemini : la possibilité de créer à partir de la réponse une infographie ou une synthèse audio sous forme de podcast à deux voix, en français.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Quand l’IA réinvente les réseaux sociaux : décryptage d’une mutation

Ulysse RAJIM
Netsources no
176
publié en
2025.06
799
Acheter ce no
Tags
veille technologique | médias sociaux | réseaux sociaux
Quand l’IA réinvente les réseaux sociaux : décryptage d’une ... Image 1
Quand l’IA réinvente les réseaux sociaux : décryptage d’une ... Image 1

L’intégration de l’intelligence artificielle dans les réseaux sociaux est une tendance de fond, entamée au début des années 2010 et qui connaît une accélération marquée depuis l’émergence de l’IA générative en fin 2022. Cette évolution redéfinit l’utilité de ces plateformes, leur modèle économique et la nature même des interactions qu’elles hébergent.

Nous explorerons comment l’IA est passée d’un outil d’optimisation fonctionnant en arrière-plan à un rôle de plus en plus central dans nos échanges. Ce changement soulève une question essentielle : à mesure que l’IA prend plus de place, que reste-t-il de « social » dans les médias sociaux et comment cela impacte-t-il nos interactions en ligne ?

I. L’IA en coulisses : l’optimisation comme premier moteur

Pendant plus d’une décennie, l’intelligence artificielle a été le moteur discret, mais essentiel, des réseaux sociaux. Son déploiement à grande échelle répondait à un objectif principal : capter l’attention de l’utilisateur pour maximiser la durée des sessions et, par conséquent, les revenus publicitaires.

La fin du fil d’actualité chronologique

Cette stratégie reposait sur la personnalisation des contenus . Dès 2009, Facebook expérimentait déjà un nouvel algorithme (nommé EdgeRank ) pour remplacer le fil d’actualité chronologique (1). C’est entre 2012 et 2016 que cette tendance se généralise. Durant cette période, la plupart des plateformes de réseaux sociaux abandonnent progressivement le fil chronologique au profit du fil algorithmique . L’objectif n’étant alors plus de montrer ce qui venait d’être publié, mais ce qui était le plus susceptible de provoquer une réaction . Twitter remplace ainsi son fil d’actualité par le flux « Home timeline » en 2016 (2), et TikTok, lancé une année plus tard, érige cette approche en modèle avec sa « For You Page » (3). Aujourd’hui, cette méthode est devenue la norme et les algorithmes n’ont fait que s’améliorer d’année en année. Meta annonçait d’ailleurs en 2023 que ses algorithmes de recommandation étaient responsables d’une hausse de 24 % du temps passé sur Instagram , notamment grâce à la suggestion de contenus issus de comptes non suivis par les utilisateurs (4).

Modération automatisée et prolifération des bots

En parallèle, l’IA servait une autre mission essentielle : la modération des contenus . Face à des millions de publications quotidiennes, l’automatisation s’imposait comme une nécessité opérationnelle pour filtrer les contenus illicites. Des plateformes comme Facebook ont ainsi développé des algorithmes capables de détecter en amont plus de 95 % des contenus haineux (5). Cette tendance se poursuit, Meta prévoyant même, selon un rapport de NPR, de remplacer par l’IA ses modérateurs humains (6).

Alors même que les plateformes intégraient massivement l’IA, elles faisaient déjà face à une prolifération des « bots » . Ces faux comptes pilotés par des intelligences artificielles et conçus pour se faire passer pour des utilisateurs humains étaient de plus en plus utilisés pour de la propagande ou de la manipulation et s’immisçaient dans les conversations pour en influencer le cours.

Que ce soit par l’exposition à ces fils d’actualité façonnés par des algorithmes ou par nos interactions entremêlées avec celles de bots, nous avons été progressivement habitués à une expérience en ligne où l’IA était omniprésente , bien qu’invisible. Cela a, en quelque sorte, préparé le terrain pour l’étape suivante, celle où l’IA ne se contente plus de jouer le second rôle, mais participe ouvertement aux interactions.

II. Quand l’IA brouille les frontières : l’arrivée des interactions hybrides

Début 2023, la démocratisation des grands modèles de langage (LLM) comme GPT-4 ouvre un nouveau chapitre. Après le phénomène ChatGPT, ces modèles d’IA sont très rapidement intégrés directement aux plateformes tout d’abord sous forme d’ assistants IA .

Des assistants aux participants actifs : l’impact sur la veille

Snapchat annonce en février 2023 « My AI », son assistant basé sur ChatGPT (7). En septembre 2023, Meta introduit « Meta AI », accessible dans Messenger, WhatsApp et Instagram (8). A noter qu’en France ce lancement a été retardé à mars 2025 en raison des exigences réglementaires. Ces assistants sont particulièrement utiles, car intégrés directement dans nos applications du quotidien, et alimentés par un contexte spécifique à chaque plateforme. Ce ne sont toutefois guère plus que des équivalents de chabots privés (basés sur le LLM de Meta, Llama) intégrés à votre compte.

Début 2025, une nouvelle étape est franchie avec l’arrivée de l’IA directement dans les espaces de discussion publics . Sur X (ex-Twitter), les utilisateurs peuvent désormais mentionner directement @Grok (l’IA développée par xAI, société sœur du réseau social) pour obtenir une synthèse ou une explication du fil de discussion (9). De même, depuis février 2025, il était possible de mentionner @AskPerplexity (le chatbot de la société Perplexity AI) pour obtenir des réponses contextualisées.

Avec ces nouveautés, l’IA devient un acteur à part entière du débat public. Pour les activités de veille, c’est une rupture : la cohabitation entre humains et IA complexifie la collecte et l’évaluation de l’information sur ces plateformes. Entre les bots se faisant passer pour des utilisateurs humains, les comptes ouvertement IA dont le prompt ( et donc le biais ) n’est pas connu, et même les utilisateurs humains qui utilisent l’IA pour rédiger en partie ou en totalité leurs messages, comment distinguer le signal du bruit ? Comment dénicher les communications authentiques ? Est-ce justement l’un des nouveaux rôles du veilleur ?

Anthropomorphisation de l’IA : des assistants aux compagnons ?

Au-delà de ces initiatives, on peut y voir une ambition plus stratégique : alors que certaines plateformes voient leur base d’utilisateurs stagner ou être délaissée par les nouvelles générations, l’ajout d’IA pourrait être vu comme un moyen de combler ce vide et de dynamiser artificiellement les interactions. Pour favoriser leur acceptation, elles travaillent à les anthropomorphiser. Meta a ainsi annoncé ses AI Characters en septembre 2023, 28 personas IA (incarnés par des célébrités comme Snoop Dogg (10)) conçues pour interagir par messages avec les utilisateurs. En leur donnant une personnalité, Meta encourage ainsi une forme de relation qui brouille les frontières entre humain et IA et remet en question le fondement même de ces plateformes. Ces personas IA ont depuis été retirées de Facebook et Instagram suite à des réactions mitigées du public. L’ambition, clairement affichée par Mark Zuckerberg, est celle d’IA qui deviennent des « amis et compagnons » au quotidien (11), ce qui soulève la question : un réseau peut-il encore être qualifié de « social » si une part croissante des interactions se fait avec des intelligences artificielles ?

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

L’impact de l’intelligence artificielle générative sur les métiers de l’information-documentation : entretien avec Christophe Deschamps Interview de Christophe Deschamps

Christel RONSIN
Netsources no
176
publié en
2025.06
1090
Acheter ce no
Tags
knowledge management | veille métier | intelligence économique
L’impact de l’intelligence artificielle générative sur les ... Image 1
L’impact de l’intelligence artificielle générative sur les ... Image 1

Nous avons souhaité interroger Christophe afin qu’il partage ses observations sur les transformations apportées par l’intelligence artificielle générative. Cet entretien apporte un éclairage sur l’évolution de la veille et du Knowledge Management à l’ère de l’IA.

Christophe Deschamps est depuis 20 ans consultant‐formateur en veille stratégique, intelligence économique et gestion des connaissances. Il enseigne depuis plusieurs années ces matières à l’IAE de Poitiers, à l’ILERI et à OTERIA Cyber School. Il publie régulièrement dans des revues comme Archimag, ou I2D (anciennement Documentaliste - Sciences de l’information). Il est l’auteur de plusieurs ouvrages sur l’intelligence économique et la veille, dont La boîte à outils de l’intelligence économique (Dunod), et l’animateur du blog OUTILS FROIDS .

CHRISTEL RONSIN : Christophe, depuis quand vous intéressez-vous au phénomène de l’intelligence artificielle générative ?

CHRISTOPHE DESCHAMPS : Mon intérêt pour l’intelligence artificielle générative a commencé vers 2017-2018, avec l’émergence des deepfakes . L’une des vidéos les plus marquantes était celle d’Obama, où il était presque impossible de distinguer la vidéo truquée de la réalité. Le mouvement de ses lèvres avait été modifié par l’IA pour lui faire dire des phrases qu’il n’avait jamais prononcées. Cela a naturellement suscité mon intérêt, car ce que redoutent le plus les professionnels de l’information, c'est évidemment de se faire manipuler par de fausses images, vidéos ou textes.

J’ai donc d’abord abordé ces outils sous un angle défensif. J’ai effectué une étude approfondie et dressé un panorama complet de ces technologies, aboutissant à un article intitulé « Les technologies du faux : un état des lieux », publié fin 2021, soit un an avant l’arrivée de ChatGPT. Cet article explorait les diverses techniques de manipulation, incluant la modification d’images, de vidéos, la création de jeux de données fictifs, etc. Un an après la publication de cet article, en novembre 2022, les outils d’Open AI étaient lancés dans le grand public avec ChatGPT et DALL.E.

J’ai commencé à utiliser ChatGPT pour étudier les risques de manipulation et d’influence via la création de faux textes diffusés sur les réseaux sociaux et publié un article de recherche à ce sujet dans la R2IE.

En parallèle de ces usages offensifs, j’ai également exploré les applications potentielles de ces outils dans notre domaine professionnel.

CR : Quels usages positifs de l’intelligence artificielle générative avez-vous identifiés ?

CD : Il y en a plein. À partir de janvier 2023, j’ai commencé à rédiger une série d’articles en suivant les étapes du cycle de la veille : orientation, collecte, exploitation de l’information et diffusion. Pour chacune de ces étapes, j’ai tenté d’expliquer où et comment les modèles de langage (LLM) de type ChatGPT pouvaient être utiles aux documentalistes et aux veilleurs.

Bien que l’orientation ne soit pas l’étape où l’IA apporte le plus, elle peut néanmoins aider à améliorer et valider un plan de veille, en identifiant d’éventuels oublis ou angles d’approche.

En ce qui concerne la phase de collecte, les bénéfices sont nombreux. Les premiers tests que j’ai effectués concernaient l’optimisation des mots-clés.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

« Love your imperfections »

Christian VIGNE
Netsources no
176
publié en
2025.06
792
Acheter ce no
Tags
retour d'expérience | publicité | marques
« Love your imperfections » Image 1
« Love your imperfections » Image 1
Chroniques amusées sur l’intelligence artificielle par Christian Vigne

Christian Vigne, anciennement Product Manager chez Google, s’amuse dans ses chroniques à explorer l’impact de l’IA sur nos vies. Il est amené à conseiller les entreprises sur leurs stratégies IA (cadrage, priorisation, formation, conduite du changement).

Pour ceux qui ne connaissent pas, Meetic est une application/service de rencontre français qui a lancé en 2014 une campagne de marque, brillante selon moi, intitulée « aimez vos imperfections ». Dans la publicité, une série de scènes montre des personnes en rendez-vous amoureux confrontées à leurs propres imperfections : arriver en retard, ne pas être assez fort, faire des mouvements étranges et ridicules en dansant. Chaque comportement est perçu à travers les yeux de l’autre personne, qui interprète ces imperfections comme des choses touchantes : « Tu cours parce que tu es impatient de me voir, pas parce que tu es en retard. Tu ne montres pas ta force pour me laisser gagner. J’adore ta façon de danser, aussi étrange soit-elle… »

J’ai récemment postulé à un emploi dans une des grandes entreprises spécialisées en IA générative. Oui, je sais, c’est comme essayer de séduire la fille (ou le garçon) la plus attirant(e) de la fête quand tout le monde tente sa chance. Mais qui sait, sur un malentendu… Ce qui m’a frappé en postulant, c’est que cette entreprise, qui développe des modèles d’IA générative de pointe mondialement reconnus, précisait explicitement dans son processus de candidature qu’il ne fallait pas utiliser leurs services ni ceux de leurs concurrents pour préparer la candidature, particulièrement la lettre de motivation. La note indiquait : « Nous souhaitons comprendre votre intérêt personnel pour (XX) sans médiation par un système d’IA, et évaluer également vos compétences en communication non assistée par IA. » Ironique, non ? C’est comme s’ils disaient : « Merci de ne pas utiliser la technologie créée par l’entreprise pour laquelle vous postulez. »

Cela, plus encore que la prouesse technologique de cette entreprise, m’a impressionné. Si une entreprise est suffisamment intelligente pour recommander publiquement de ne pas utiliser une caractéristique centrale de sa propre technologie dans un de ses processus clés (le recrutement), n’est-ce pas le signe d’une certaine humilité face à la technologie et ses usages potentiellement imparfaits ? Si c’est un signe de sagesse, qui ne voudrait pas travailler pour une entreprise sage ? Ou alors, c’est un cri de désespoir des RH submergés de candidatures générées automatiquement. Il existe tellement de services qui réalisent à votre place la recherche d’emploi, l’envoi des candidatures, l’adaptation des CV et lettres de motivation, le tout pour un clic et 2,50$. Oui, j’ai vérifié, c’est tentant, mais je suis persuadé que c’est une impasse.

À ce moment-là, deux options s’offraient à moi : générer automatiquement une lettre de motivation et la retoucher en ajoutant des fautes, des maladresses en anglais et certaines de mes erreurs préférées, ou bien la rédiger moi-même à partir de zéro avec une simple relecture. J’ai choisi la seconde option. La tentation était pourtant grande d’aller vite en sachant que mes chances d’obtenir une réponse étaient proches de zéro. Pourquoi perdre mon temps si rien ne doit en ressortir ? J’ai pourtant décidé d’écrire « du fond du cœur » en exprimant mes véritables motivations, maladroites, mais sincères. Cela a été douloureux, dans une certaine mesure.

Cette expérience illustre la tension entre le « fast-food » et un repas en trois services. D’un côté : un impact rapide, des résultats probables, et la possibilité de multiplier par dix les candidatures envoyées à la chaîne. De l’autre, un peu de sueur pour des résultats incertains, mais une avancée sur l’essentiel : votre « pourquoi » personnel et vos motivations (ainsi qu’un peu de pratique d’écriture en anglais). Une satisfaction rapide exprimée à travers des candidatures envoyées en masse, opposée à des bénéfices durables tirés de l’introspection. Sans oublier le pouvoir créatif de l’écriture, dont je profite en rédigeant ces lignes.

Un autre élément des consignes de candidature a retenu mon attention : « Nous voulons comprendre votre intérêt personnel pour (XX) sans médiation par un système d’IA ». La médiation, c’est ce qui s’interpose entre vous et le recruteur, entre vous et votre cible. C’est ce tiers artificiel inutile qui agit comme un masque. C’est comme si dans un processus de candidature, trois personnages distincts intervenaient : vous, votre recruteur cible, et l’intelligence artificielle. Comme si dans une relation, il y avait trois rôles différents : vous, votre cible et vos artifices. Dans tous les cas, c’est une distance supplémentaire entre votre objectif et sa réalisation. Éliminons définitivement ce tiers et favorisons les vraies interactions directes.

Un peu d’effort (sans génération automatique) et beaucoup d’authenticité sont probablement les meilleurs ingrédients pour la combinaison gagnante : faire de son mieux en étant soi-même. Une pratique perfectionnée exprimée avec toute la profondeur de votre personnalité nécessairement imparfaite, car la perfection est introuvable ici-bas. Efforcez-vous, mais lâchez prise. En même temps.

Ai-je eu une réponse de leur part ? Non. Mais quand je l’aurai, je suis presque certain que l’e-mail de refus aura été « généré par une IA ».

IA Générative : état des lieux d’une course effrénée

ULYSSE RAJIM
Netsources no
175
publié en
2025.04
1662
Acheter ce no
Tags
recherche Web | IA
IA Générative : état des lieux d’une course effrénée Image 1
IA Générative : état des lieux d’une course effrénée Image 1

L’intelligence artificielle générative évolue à une vitesse vertigineuse, rendant la prospective à long terme particulièrement ardue. Pourtant, une convergence de signaux faibles récents - avancées techniques, annonces des laboratoires d’IA, avis d’experts - suggère une nouvelle phase d’accélération. Une course mondiale s’est engagée entre les principaux acteurs, chacun cherchant à définir la prochaine frontière de l’IA.

Cet article propose un état des lieux de cette compétition intense, des avancées technologiques attendues dans les prochains mois, et explore leurs implications immédiates pour les professionnels de l’information.

I. La prochaine vague annoncée de l’IA générative

Le rythme des annonces dans le domaine de l’IA générative s’accélère, rendant presque obsolètes des modèles d’IA sortis il y a seulement quelques mois. Après un début d’année 2025 relativement calme, les principaux laboratoires d’IA semblent maintenant prêts à dévoiler leur prochaine génération de modèles.

OpenAI : une annonce imminente du tant attendu GPT-5

Pionnier avec ChatGPT, OpenAI maintient son avance. Sam Altman confirmait début avril 2025 que GPT-5, la prochaine itération majeure, était attendue « d’ici quelques mois ». L’ambition affichée est d’unifier les capacités de raisonnement, de multimodalité (capacité à manipuler différents formats : texte, voix, image) et l’utilisation d’outils externes (recherche web, Deep Research) au sein d’un modèle unique. Récemment, Sam Altman a également annoncé la sortie imminente des modèles o4-mini et o3 (modèle le plus performant au monde selon les tests d’OpenAI), ce qui témoigne de cette accélération et de l’intensité de la concurrence.

Enfin, OpenAI prévoirait de publier un modèle open weight (dont les paramètres du modèle sont rendus publics) ; peut-être une réponse au phénomène Deepseek ?

Google DeepMind : le modèle n° 1 actuellement disponible

Google DeepMind a marqué les esprits avec la sortie le 25 mars de Gemini 2.5. Intégrant des capacités de raisonnement, le modèle Gemini 2.5 Pro s’est alors hissé à la première place du classement Chatbot Arena (plateforme d’évaluation de LLM par tests à l’aveugle). Bien que Gemini 3.0 ne soit pas officiellement annoncé, la trajectoire de Google est claire : consolider l’avance en multimodalité et en raisonnement avancé pour égaler, voire dépasser OpenAI, le pionnier de l’IA générative.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Deep Research : l’âge de raison des IA ?

VÉRONIQUE MESGUICH
Netsources no
175
publié en
2025.04
1649
Acheter ce no
Tags
IA
Deep Research : l’âge de raison des IA ? Image 1
Deep Research : l’âge de raison des IA ? Image 1

Depuis le début de l’année, les géants du numérique ont rivalisé d’annonces autour du Deep Research, ces nouveaux outils d’IA destinés à automatiser des recherches complexes sur le web. OpenAI, Google Gemini, Claude, DeepSeek, Perplexity et d’autres encore proposent désormais, parfois uniquement en version payante, de nouveaux modèles d’IA agentiques capables de mener en plusieurs étapes des recherches approfondies.

Dans le prochain numéro de Netsources, le sujet du Deep Research sera décliné sous un angle pratique.

Ces agents vont en effet composer le processus de recherche en plusieurs tâches automatisées : recherche de documents (pages HTML, images, documents PDF…), extraction et analyse des données pertinentes, puis production d’un rapport synthétique structuré mentionnant les sources utilisées.

Pour autant, ces agents automatisés sont-ils capables de détecter les sources les plus pertinentes, et d’en extraire les éléments utiles ? Quel sera l’impact de ces nouveaux agents sur les pratiques de recherches ? La profondeur d’analyse annoncée est-elle réelle ? Quelles sont leurs limites actuelles ? Commençons par nous pencher sur les modèles de raisonnement développés récemment, et qui sous-tendent ces nouveaux outils.

Qu’est-ce qu’un modèle de raisonnement agentique ?

Ces fonctionnalités de Deep Research sont basées sur des modèles de raisonnement de nouvelle génération. Les premiers modèles de raisonnement, apparus dès les prémices de l’IA dans les années 1950, étaient basés sur la logique formelle. Les architectures récentes comme Open AI O3 et le tout récent 04 mini, Gemini 2.0 Flash Thinking, Claude 3.7 Sonnet ou DeepSeek R1 sont conçues pour simuler des formes de réflexion structurée proches de la démarche humaine. Ils s’appuient sur une architecture technique de modèle de langage capable de planifier des actions cognitives en plusieurs étapes, d’interagir avec des outils externes (par exemple, des navigateurs web ou applications tierces), d’évaluer dynamiquement la qualité des informations disponibles, et de réviser leur propre cheminement intellectuel au fur et à mesure.

Contrairement aux modèles purement réactifs tels que ChatGPT en version « simple », ces systèmes sont dotés d’un moteur de planification intégré, leur permettant de découper une tâche complexe en sous-objectifs successifs, de collecter les informations nécessaires, puis d’en produire une synthèse raisonnée, souvent étayée de sources, d’arguments croisés ou éventuellement contradictoires.

Appliqués à la recherche d’informations, ces modèles ne se limitent ainsi pas à la génération de réponses textuelles à partir d’un simple prompt. Ils utilisent des chaînes de pensée (chain of thought), c’est-à-dire une technique de prompting qui incite le modèle à décomposer un raisonnement complexe en plusieurs étapes explicites, un peu comme le ferait un humain qui pense à voix haute. Plutôt que de répondre directement, le modèle est guidé par des prompts structurés pour décomposer un processus en plusieurs étapes, chaque étape se basant sur la précédente, dans une logique qui n’est pas forcément linéaire : ces modèles peuvent reconfigurer leur plan de recherche, en fonction de nouvelles données.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Google, moteur de transformation ? une évaluation de l’IA dans les produits numériques de Google

RYAN MULHOLAND
Netsources no
175
publié en
2025.04
1424
Acheter ce no
Tags
recherche Web | IA
Google, moteur de transformation ? une évaluation de l’IA ... Image 1
Google, moteur de transformation ? une évaluation de l’IA ... Image 1

Ryan MULHOLAND est Research Librarian à l’Université Wesleyan du Tennessee aux États-Unis. L’article de Ryan a été traduit par notre équipe.Précisons que la fonctionnalité des Overviews décrite dans cet article n'est pas encore présente en France, même si elle l'est déjà dans certains pays d'Europe.

À nouvelle année, nouvelle série d’avancées dans le monde de l’intelligence artificielle. De la nouvelle capacité de génération d’images de ChatGPT avec la folie autour du style « Studio Ghibli », jusqu’à Grok qui déploie enfin sa propre application en version bêta, 2025 suscite déjà beaucoup d’effervescence autour de ces outils émergents.

Parmi les acteurs en lice, Google se démarque en intégrant des fonctionnalités d’assistance par IA à plusieurs de ses services gratuits, notamment Docs, Sheets, Slides, Maps, Search, Chrome et bien d’autres.

L’effervescence ne s’arrête pas là, car Google a déployé sa fonctionnalité Overviews (littéralement : « vue d’ensemble ») - aux États-Unis - le 14 mai de l’année dernière, puis Deep Research (« Recherche approfondie ») avec Gemini pour tous les utilisateurs le 13 mars de cette année. La première traite les requêtes complexes et tente de les résumer de manière facilement assimilable, tandis que la seconde permet aux utilisateurs de la version gratuite de générer trois rapports de recherche gratuits par jour pour une exploration plus poussée des sujets.

Bien sûr, tous les services premium ont un prix. La suite Google One AI Premium coûte 20 $/mois pour l’ensemble de l’offre et pas seulement pour les modèles les plus avancés de Gemini. Entre autres, l’abonnement premium donne droit à 2 To de stockage sur Google Cloud, à un nombre illimité de requêtes dans Deep Research, à Gemini 2.5 Pro pour des capacités de raisonnement plus avancées. Le jeu en vaut-il la chandelle ? La réponse courte : cela dépend de vous et de vos besoins.

Plantons le décor avec Google AI Overviews

La première fonction, désormais familière à beaucoup dans la gamme de produits Google, est la fonctionnalité Overviews. Elle tente, à partir de votre requête dans Chrome ou Search, de créer un résumé concis à partir de plusieurs sources. Selon Google, Overviews ne s’active que pour des sujets « complexes, nuancés ou formulés sous forme de questions. En substance, Overviews ne se déclenche que si les algorithmes de Google décident que votre requête nécessite plus qu’un simple renvoi vers une série de pages web.

Les sources utilisées par les Overviews sont, après analyse, organisées de manière facile à lire et à comprendre, sous la forme de 2 ou 3 courts paragraphes. Les sources utilisées sont citées dans une petite fenêtre avec des liens vers les sites d’origine, ce qui permet de vérifier “rapidement” la qualité de l’information. Ces sources vont de sites universitaires ou centres de recherche jugés plus académiques et fiables, jusqu’à des forums plus grand public tels que Quora.

Les résultats dans Chrome et Search varient légèrement en fonction du sujet de recherche. Les concepts sont généralement présentés sous forme de liste verticale (cf. Figure 1), tandis que les pages dédiées aux personnalités - politiciens, philosophes, etc. - se composent de plusieurs encadrés horizontaux détaillant date de naissance, œuvres majeures, date de décès le cas échéant et autres informations clés (cf. Figure 2).

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Socrate se fait prompter par Glaucon (article en open access)

CHRISTIAN VIGNE
Netsources no
175
publié en
2025.04
1468
Acheter ce no
Socrate se fait prompter par Glaucon (article en open ... Image 1
Socrate se fait prompter par Glaucon (article en open ... Image 1
Chroniques amusées sur l’intelligence artificielle par Christian Vigne

Christian Vigne, anciennement Product Manager chez Google, s’amuse dans ses chroniques à explorer l’impact de l’IA sur nos vies. Il est amené à conseiller les entreprises sur leurs stratégies IA (cadrage, priorisation, formation, conduite du changement).

Qui se souvient de ses cours de philo de terminale ? Moiiiiii. Et en particulier de l’étude de La République de Platon. Vous souvenez-vous de Glaucon and friends, aka « les disciples » qui donnent la réplique à Socrate ? À travers les nombreux échanges qu’ils ont avec Socrate et ainsi le dialogue qui en naît, ils font advenir une réflexion, un cheminement vers une vérité. Attention les philosophes, je tente un truc au risque de vous froisser : les questions de Glaucon pourraient être à Socrate ce que nos requêtes sont à ChatGPT : des prompts. 

Je l’ai toujours trouvé un peu bête et naïf Glaucon. À part acquiescer à tout ce que lui dit Socrate, il ne semble pas occuper le premier rôle dans cette histoire. Le rapport est déséquilibré : à Socrate le savoir et la parole prodigue, à Glaucon les questions d’apprenti, c’est normal, c’en est un. À ChatGPT et consorts la production illimitée de connaissances, à nous les prompts. Même déséquilibré, le rapport est un rapport, et qui dit rapport, dit deux personnes. Il faut nécessairement être deux dans une relation dialectique : Socrate sans Glaucon, ou un LLM sans prompt, ça ne sert pas à grand-chose, sauf à s’auto-prompter, ce dont tous les jeunes mâles ont un jour rêvé. Supposons que votre dialogue avec la machine vous ait dans le passé aidé ou vous aide à l’avenir dans une découverte, ou l’établissement d’une réflexion, - une dialectique d’une nouvelle nature serait possible, car assistée par des Large Language Models avec une base de données bien plus pleine de parameters et de tokens que le cerveau, pourtant solide, de Socrate.  Bien sûr ça pose mille questions : un dialogue entre un humain et une machine peut-il donner lieu à une dialectique à proprement parler ? Ben j’en sais rien. Excellent sujet de bac philo !

Le temps de parole est clairement déséquilibré dans la Rep’ : je dirais 90 % Socrate, 10 % Glaucon and friends. J’ai demandé à ChatGPT s’il avait des stats de temps de parole dans La République, et visiblement personne n’a fait l’exercice, en tout cas pas dans le dataset d’OpenAI. La quantité d’output (Socrate) est ainsi largement supérieure à l’input (Glaucon and friends) et franchement c’est bien ce qui nous fait plaisir avec ChatGPT : quelques mots dans un court prompt même pas articulé dans une phrase en bon français et hop, ça génère de la réponse à toute vitesse. C’est jouissif. Mais on peut être bien embêté car à quoi bon toute cette production de contenus, si notre capacité à l’ingérer est limitée ? Glaucon est solide, il tient des centaines de pages sans se fatiguer. Pas sûr qu’on puisse en dire autant des tchatgépéteurs que nous sommes, d’autant que Socrate et Glaucon ne sont pas sur leur iPhone, ils sont limités par les limites humaines de l’élocution et de l’audition. Je sais pas vous, mais moi, les réponses de ChatGPT, je les parcours plus que je ne les lis, j’y pense puis j’oublie. Quid, mais QUIIIID de l’intégration du savoir à cette vitesse ? Quid de la lenteur nécessaire à l’assimilation des concepts ? Produire du texte à la chaîne c’est bien, et il y a déjà pléthore de modèles qui le font, mais quid de la consommation desdites productions textuelles et visuelles ? Trop de production pour pas assez de consommation, serait-ce une crise de demande qui se profile ? 

Supposons maintenant que Socrate (comme ChatGPT) soit notre ami de dialectique. Si mes souvenirs sont bons (mais encore une fois, pardon les philosophes) un bénéfice de la dialectique menée à son terme, c’est la maïeutique ou l’art de faire « accoucher des idées ». Et si par nos dialogues avec les LLMs nous faisions accoucher des idées ? L’analogie Socrate vs ChatGPT va bientôt s’arrêter j’en ai peur parce que ChatGPT, se garde bien de faire un choix dans ses réponses, en d’autres termes de prendre un parti. Vous aurez noté les paragraphes lénifiants qu’il sort à chaque fin de réponse quand la question est, disons, ouverte.  Si je lui demande, « la vie a-t-elle un sens ? », l’ami GPT me répond : « Finalement, la question du sens de la vie est hautement subjective et peut dépendre de l’individu, de ses croyances, de son expérience et de sa perspective philosophique. Il n’y a pas de réponse universelle ou définitive à cette question, et chacun est libre d’explorer et de définir son propre sens de l’existence » nianiania… Pour parler familièrement, il ne se mouille pas trop, parce qu’OpenAI ne veut froisser personne et ne surtout pas faire fuir les budgets marketing avant même qu’ils n’arrivent. Notons simplement que Socrate à la différence de ChatGPT choisit une réponse parmi un ensemble de possibles. Avec ChatGPT, j’ai toutes les perspectives possibles, dans quelques bullet points, en trois secondes, c’est magnifique, mais c’est tout lisse, sans aspérité, sans parti-pris, sans choix. Avec Socrate, j’ai un POV (point of view pour ceux qui ne parlent pas le GAFAMulary). Si je voulais vraiment une dialectique socratique à l’aide d’un LLM, il me faudrait un ChatGPT socratique, doté d’une capacité de choix, plutôt qu’un perroquet américain, entraîné sur un corpus anglophone, inclusif, à tout prix. Il me faudrait un LLM avec de la personnalité. 

Je pensais que j’étais le Glaucon de ChatGPT, mais à la réflexion, ça ne marche pas : malgré la réalité d’un dialogue, mais l’illusion d’une dialectique (?), ma capacité d’assimilation des connaissances est largement inférieure à celle de la (re)production de connaissances de ChatGPT et consorts et pour faire un pas vers la vérité, je dois prendre un chemin, je dois m’engager résolument dans une direction donnée, ce que ne fait pas un LLM parce qu’il laisse ouverts tous les chemins, sans en choisir un seul, a fortiori quand le degré d’ambiguïté de la conversation est élevé. La dialectique à la sauce Gen AI, c’est pas pour demain, mais bonne nouvelle, on a un bon petit stock de sujets de bac de philo à suggérer à l’Educ Nat.

Quand l’IA invisibilise les sources : vers une ère sans données de référence ?

ANNE-MARIE LIBMANN
Netsources no
174
publié en
2025.02
2505
Acheter ce no
Tags
IA | professionnel de l'information
Quand l’IA invisibilise les sources : vers une ère sans ... Image 1
Quand l’IA invisibilise les sources : vers une ère sans ... Image 1

Deux ans après l’irruption fulgurante de l’IA générative dans nos vies, peut-on craindre une réécriture ou un effacement progressif de nos savoirs fondamentaux ?

Le paysage est contrasté. D’un côté, des avancées technologiques spectaculaires - notamment en santé ou en traduction automatique. De l’autre, une remise en question profonde de nos méthodes traditionnelles d’accès à la connaissance, d’analyse critique et de validation. À la clé, un risque réel : perdre pied dans un écosystème informationnel où la traçabilité devient optionnelle.

Le salon I-Expo/Documation, qui vient de tenir sa session annuelle, offrait un reflet saisissant de cette dualité. L’affluence remarquable aux conférences centrées sur l’IA témoignait d’un intérêt évident et d’une volonté de comprendre le phénomène dans son ensemble. Mais elle allait de pair avec une inquiétude et une prise de conscience : la nécessité d’encadrer ces outils et de préserver nos repères humains ainsi que l’accès à une information sourcée, fiable et compréhensible.

Particulièrement révélateurs à cet égard étaient les discours des éditeurs de logiciels de veille. D’un côté, ils valorisaient l’intégration des fonctionnalités d’IAG dans leurs plateformes, notamment pour la traduction, le résumé, l’analyse, avec même parfois un package de prompt engineering pour faciliter les interactions du veilleur avec le modèle d’IA. Parallèlement, ils réaffirmaient leur engagement à maintenir le rôle primordial des experts et de l’intelligence humaine dans l’analyse stratégique au service de la prise de décision, et mettaient en garde contre la « boîte noire » de l’IAG.

Entre promesses et ruptures : le choix éditorial de Netsources

Ce nouveau numéro de Netsources s’inscrit pleinement dans cette dualité. Nous y explorons concrètement comment s’incarnent d’une part les promesses et innovations spec­taculaires, et, d’autre part, les fractures profondes dont nous commençons à peine à mesurer l’impact.

Dans la catégorie des innovations technologiques re­marquées figure Mistral AI, la startup française vedette du sommet IA de Paris en février dernier, qui, en moins de deux ans, a réussi à se positionner comme un acteur clé de l’intelligence artificielle générative.

Mais quelle est réellement la valeur ajoutée de Mistral AI face aux géants américains ? Nous avons voulu comprendre son positionnement original et évaluer ses chances de succès dans un environnement ultra-compétitif. Mais surtout, présente-t-elle un intérêt pour nos métiers de l’information ?

Nous avons exploré la question sous deux angles culturels distincts :

  • Une perspective française avec Ulysse Rajim (« Pourquoi utiliser Mistral et n’intéresse-t-il que les francophones ? »), qui analyse l’originalité et le potentiel de Mistral,
  • Et un point de vue américain avec Ryan Mulholand (« Sur les épaules des géants : Mistral AI vu par un professionnel de l’information américain »), qui offre une approche très pragmatique des performances de l’outil.

L’orientation de Mistral AI vers un multilinguisme affirmé, ainsi que son partenariat avec l’AFP, démontre son enga­gement envers des sources diversifiées et qualifiées. Cette démarche semble répondre aux critiques concernant la fiabilité des IA génératives. En évoluant vers un modèle d’agrégation d’informations familier aux utilisateurs pro­fessionnels et académiques, Mistral AI semble en mesure de renforcer sa crédibilité auprès de ces publics.

L’invisibilisation des sources : un défi sous-estimé ?

Développements ambitieux dans la sphère de l’IA donc, mais aussi inquiétude avec l’avènement des GSE (Generative Search Engines), ces moteurs de recherche d’un nouveau type, propulsés par l’IA générative. Véronique Mesguich nous y plonge dans « Du SEO au GEO : quelle visibilité pour les contenus Web ? », en y examinant l’impact sur les stratégies de référencement ainsi que l’émergence du GEO (Generative Engine Optimisation). Face à l’essor des IA conversationnelles qui filtrent et hiérarchisent l’information, les créateurs de contenu se voient contraints de repenser fondamentalement leur visibilité.

Cette nouvelle capacité de recherche nous éloigne progressivement des sources primaires. Les chatbots nous retournent désormais des réponses synthétiques construites à partir de multiples références qui, au mieux, ne sont que listées en périphérie de l’interface, sans aucune garantie d’exhaustivité ni certitude quant à leur interprétation par les modèles d’IA. Une ambiguïté que ces mêmes modèles entretiennent en affirmant - contrainte juridique oblige - ne pas pouvoir « accéder » au contenu des sources, tout en l’utilisant manifestement pour générer leurs réponses.

Un tel système, où la présentation et la hiérarchisation des sources sont entièrement contrôlées par les modèles eux-mêmes, n’incite guère l’utilisateur à consulter les réfé­rences originales. C’est le système lui-même qui l’éloigne progressivement de la « référence source », en privilégiant la réponse toute faite au détriment de la consultation des documents primaires. Même la communication de Google en faveur d’une responsabilité vis-à-vis de l’écosystème Web à l’ère de l’IA semble faible face à ce profond changement de paradigme.

On lira avec beaucoup d’intérêt la passionnante étude « AI Search Has A Citation Problem », qui montre que les IA génératives peinent à attribuer correctement les sources. Dans les tests réalisés sur huit outils majeurs, plus de 60 % des citations étaient inexactes, mêlant erreurs, liens fictifs et contournement des protocoles d’exclusion comme robots.txt. Ce n’est pas un simple désagrément technique : ces défauts rendent certaines données invisibles ou mal représentées, privant les créateurs originaux de reconnaissance et faussant l’accès à l’information.

Préserver la donnée de référence : un impératif pour le professionnel de l’information

L’automatisation du savoir par l’IA soulève une question essen­tielle : comment préserver l’authenticité de l’information de référence ? Des initiatives comme celles de Mistral AI, qui placent la qualité des sources au cœur de leur approche, montrent qu’un autre chemin est possible pour le développement des modèles IA.

Mais la question est stratégique pour les professionnels de l’information qui doivent s’en saisir pour garantir l’intégrité documentaire et décisionnelle dans les organisations et les sociétés. Restaurer la traçabilité dans un monde de synthèse, c’est redonner du sens à l’acte de recherche.

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • ›
  • Fin