Sélectionner le numéro de "Netsources" à afficher

IA Générative : état des lieux d’une course effrénée

ULYSSE RAJIM
Netsources no
175
publié en
2025.04
212
Acheter ce no
Tags
recherche Web | IA
IA Générative : état des lieux d’une course effrénée Image 1
IA Générative : état des lieux d’une course effrénée Image 1

L’intelligence artificielle générative évolue à une vitesse vertigineuse, rendant la prospective à long terme particulièrement ardue. Pourtant, une convergence de signaux faibles récents - avancées techniques, annonces des laboratoires d’IA, avis d’experts - suggère une nouvelle phase d’accélération. Une course mondiale s’est engagée entre les principaux acteurs, chacun cherchant à définir la prochaine frontière de l’IA.

Cet article propose un état des lieux de cette compétition intense, des avancées technologiques attendues dans les prochains mois, et explore leurs implications immédiates pour les professionnels de l’information.

I. La prochaine vague annoncée de l’IA générative

Le rythme des annonces dans le domaine de l’IA générative s’accélère, rendant presque obsolètes des modèles d’IA sortis il y a seulement quelques mois. Après un début d’année 2025 relativement calme, les principaux laboratoires d’IA semblent maintenant prêts à dévoiler leur prochaine génération de modèles.

OpenAI : une annonce imminente du tant attendu GPT-5

Pionnier avec ChatGPT, OpenAI maintient son avance. Sam Altman confirmait début avril 2025 que GPT-5, la prochaine itération majeure, était attendue « d’ici quelques mois ». L’ambition affichée est d’unifier les capacités de raisonnement, de multimodalité (capacité à manipuler différents formats : texte, voix, image) et l’utilisation d’outils externes (recherche web, Deep Research) au sein d’un modèle unique. Récemment, Sam Altman a également annoncé la sortie imminente des modèles o4-mini et o3 (modèle le plus performant au monde selon les tests d’OpenAI), ce qui témoigne de cette accélération et de l’intensité de la concurrence.

Enfin, OpenAI prévoirait de publier un modèle open weight (dont les paramètres du modèle sont rendus publics) ; peut-être une réponse au phénomène Deepseek ?

Google DeepMind : le modèle n° 1 actuellement disponible

Google DeepMind a marqué les esprits avec la sortie le 25 mars de Gemini 2.5. Intégrant des capacités de raisonnement, le modèle Gemini 2.5 Pro s’est alors hissé à la première place du classement Chatbot Arena (plateforme d’évaluation de LLM par tests à l’aveugle). Bien que Gemini 3.0 ne soit pas officiellement annoncé, la trajectoire de Google est claire : consolider l’avance en multimodalité et en raisonnement avancé pour égaler, voire dépasser OpenAI, le pionnier de l’IA générative.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Deep Research : l’âge de raison des IA ?

VÉRONIQUE MESGUICH
Netsources no
175
publié en
2025.04
184
Acheter ce no
Tags
IA
Deep Research : l’âge de raison des IA ? Image 1
Deep Research : l’âge de raison des IA ? Image 1

Depuis le début de l’année, les géants du numérique ont rivalisé d’annonces autour du Deep Research, ces nouveaux outils d’IA destinés à automatiser des recherches complexes sur le web. OpenAI, Google Gemini, Claude, DeepSeek, Perplexity et d’autres encore proposent désormais, parfois uniquement en version payante, de nouveaux modèles d’IA agentiques capables de mener en plusieurs étapes des recherches approfondies.

Dans le prochain numéro de Netsources, le sujet du Deep Research sera décliné sous un angle pratique.

Ces agents vont en effet composer le processus de recherche en plusieurs tâches automatisées : recherche de documents (pages HTML, images, documents PDF…), extraction et analyse des données pertinentes, puis production d’un rapport synthétique structuré mentionnant les sources utilisées.

Pour autant, ces agents automatisés sont-ils capables de détecter les sources les plus pertinentes, et d’en extraire les éléments utiles ? Quel sera l’impact de ces nouveaux agents sur les pratiques de recherches ? La profondeur d’analyse annoncée est-elle réelle ? Quelles sont leurs limites actuelles ? Commençons par nous pencher sur les modèles de raisonnement développés récemment, et qui sous-tendent ces nouveaux outils.

Qu’est-ce qu’un modèle de raisonnement agentique ?

Ces fonctionnalités de Deep Research sont basées sur des modèles de raisonnement de nouvelle génération. Les premiers modèles de raisonnement, apparus dès les prémices de l’IA dans les années 1950, étaient basés sur la logique formelle. Les architectures récentes comme Open AI O3 et le tout récent 04 mini, Gemini 2.0 Flash Thinking, Claude 3.7 Sonnet ou DeepSeek R1 sont conçues pour simuler des formes de réflexion structurée proches de la démarche humaine. Ils s’appuient sur une architecture technique de modèle de langage capable de planifier des actions cognitives en plusieurs étapes, d’interagir avec des outils externes (par exemple, des navigateurs web ou applications tierces), d’évaluer dynamiquement la qualité des informations disponibles, et de réviser leur propre cheminement intellectuel au fur et à mesure.

Contrairement aux modèles purement réactifs tels que ChatGPT en version « simple », ces systèmes sont dotés d’un moteur de planification intégré, leur permettant de découper une tâche complexe en sous-objectifs successifs, de collecter les informations nécessaires, puis d’en produire une synthèse raisonnée, souvent étayée de sources, d’arguments croisés ou éventuellement contradictoires.

Appliqués à la recherche d’informations, ces modèles ne se limitent ainsi pas à la génération de réponses textuelles à partir d’un simple prompt. Ils utilisent des chaînes de pensée (chain of thought), c’est-à-dire une technique de prompting qui incite le modèle à décomposer un raisonnement complexe en plusieurs étapes explicites, un peu comme le ferait un humain qui pense à voix haute. Plutôt que de répondre directement, le modèle est guidé par des prompts structurés pour décomposer un processus en plusieurs étapes, chaque étape se basant sur la précédente, dans une logique qui n’est pas forcément linéaire : ces modèles peuvent reconfigurer leur plan de recherche, en fonction de nouvelles données.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Google, moteur de transformation ? une évaluation de l’IA dans les produits numériques de Google

RYAN MULHOLAND
Netsources no
175
publié en
2025.04
138
Acheter ce no
Tags
recherche Web | IA
Google, moteur de transformation ? une évaluation de l’IA ... Image 1
Google, moteur de transformation ? une évaluation de l’IA ... Image 1

Ryan MULHOLAND est Research Librarian à l’Université Wesleyan du Tennessee aux États-Unis. L’article de Ryan a été traduit par notre équipe.Précisons que la fonctionnalité des Overviews décrite dans cet article n'est pas encore présente en France, même si elle l'est déjà dans certains pays d'Europe.

À nouvelle année, nouvelle série d’avancées dans le monde de l’intelligence artificielle. De la nouvelle capacité de génération d’images de ChatGPT avec la folie autour du style « Studio Ghibli », jusqu’à Grok qui déploie enfin sa propre application en version bêta, 2025 suscite déjà beaucoup d’effervescence autour de ces outils émergents.

Parmi les acteurs en lice, Google se démarque en intégrant des fonctionnalités d’assistance par IA à plusieurs de ses services gratuits, notamment Docs, Sheets, Slides, Maps, Search, Chrome et bien d’autres.

L’effervescence ne s’arrête pas là, car Google a déployé sa fonctionnalité Overviews (littéralement : « vue d’ensemble ») - aux États-Unis - le 14 mai de l’année dernière, puis Deep Research (« Recherche approfondie ») avec Gemini pour tous les utilisateurs le 13 mars de cette année. La première traite les requêtes complexes et tente de les résumer de manière facilement assimilable, tandis que la seconde permet aux utilisateurs de la version gratuite de générer trois rapports de recherche gratuits par jour pour une exploration plus poussée des sujets.

Bien sûr, tous les services premium ont un prix. La suite Google One AI Premium coûte 20 $/mois pour l’ensemble de l’offre et pas seulement pour les modèles les plus avancés de Gemini. Entre autres, l’abonnement premium donne droit à 2 To de stockage sur Google Cloud, à un nombre illimité de requêtes dans Deep Research, à Gemini 2.5 Pro pour des capacités de raisonnement plus avancées. Le jeu en vaut-il la chandelle ? La réponse courte : cela dépend de vous et de vos besoins.

Plantons le décor avec Google AI Overviews

La première fonction, désormais familière à beaucoup dans la gamme de produits Google, est la fonctionnalité Overviews. Elle tente, à partir de votre requête dans Chrome ou Search, de créer un résumé concis à partir de plusieurs sources. Selon Google, Overviews ne s’active que pour des sujets « complexes, nuancés ou formulés sous forme de questions. En substance, Overviews ne se déclenche que si les algorithmes de Google décident que votre requête nécessite plus qu’un simple renvoi vers une série de pages web.

Les sources utilisées par les Overviews sont, après analyse, organisées de manière facile à lire et à comprendre, sous la forme de 2 ou 3 courts paragraphes. Les sources utilisées sont citées dans une petite fenêtre avec des liens vers les sites d’origine, ce qui permet de vérifier “rapidement” la qualité de l’information. Ces sources vont de sites universitaires ou centres de recherche jugés plus académiques et fiables, jusqu’à des forums plus grand public tels que Quora.

Les résultats dans Chrome et Search varient légèrement en fonction du sujet de recherche. Les concepts sont généralement présentés sous forme de liste verticale (cf. Figure 1), tandis que les pages dédiées aux personnalités - politiciens, philosophes, etc. - se composent de plusieurs encadrés horizontaux détaillant date de naissance, œuvres majeures, date de décès le cas échéant et autres informations clés (cf. Figure 2).

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Socrate se fait prompter par Glaucon (article en open access)

CHRISTIAN VIGNE
Netsources no
175
publié en
2025.04
134
Acheter ce no
Socrate se fait prompter par Glaucon (article en open ... Image 1
Socrate se fait prompter par Glaucon (article en open ... Image 1
Chroniques amusées sur l’intelligence artificielle par Christian Vigne

Christian Vigne, anciennement Product Manager chez Google, s’amuse dans ses chroniques à explorer l’impact de l’IA sur nos vies. Il est amené à conseiller les entreprises sur leurs stratégies IA (cadrage, priorisation, formation, conduite du changement).

Qui se souvient de ses cours de philo de terminale ? Moiiiiii. Et en particulier de l’étude de La République de Platon. Vous souvenez-vous de Glaucon and friends, aka « les disciples » qui donnent la réplique à Socrate ? À travers les nombreux échanges qu’ils ont avec Socrate et ainsi le dialogue qui en naît, ils font advenir une réflexion, un cheminement vers une vérité. Attention les philosophes, je tente un truc au risque de vous froisser : les questions de Glaucon pourraient être à Socrate ce que nos requêtes sont à ChatGPT : des prompts. 

Je l’ai toujours trouvé un peu bête et naïf Glaucon. À part acquiescer à tout ce que lui dit Socrate, il ne semble pas occuper le premier rôle dans cette histoire. Le rapport est déséquilibré : à Socrate le savoir et la parole prodigue, à Glaucon les questions d’apprenti, c’est normal, c’en est un. À ChatGPT et consorts la production illimitée de connaissances, à nous les prompts. Même déséquilibré, le rapport est un rapport, et qui dit rapport, dit deux personnes. Il faut nécessairement être deux dans une relation dialectique : Socrate sans Glaucon, ou un LLM sans prompt, ça ne sert pas à grand-chose, sauf à s’auto-prompter, ce dont tous les jeunes mâles ont un jour rêvé. Supposons que votre dialogue avec la machine vous ait dans le passé aidé ou vous aide à l’avenir dans une découverte, ou l’établissement d’une réflexion, - une dialectique d’une nouvelle nature serait possible, car assistée par des Large Language Models avec une base de données bien plus pleine de parameters et de tokens que le cerveau, pourtant solide, de Socrate.  Bien sûr ça pose mille questions : un dialogue entre un humain et une machine peut-il donner lieu à une dialectique à proprement parler ? Ben j’en sais rien. Excellent sujet de bac philo !

Le temps de parole est clairement déséquilibré dans la Rep’ : je dirais 90 % Socrate, 10 % Glaucon and friends. J’ai demandé à ChatGPT s’il avait des stats de temps de parole dans La République, et visiblement personne n’a fait l’exercice, en tout cas pas dans le dataset d’OpenAI. La quantité d’output (Socrate) est ainsi largement supérieure à l’input (Glaucon and friends) et franchement c’est bien ce qui nous fait plaisir avec ChatGPT : quelques mots dans un court prompt même pas articulé dans une phrase en bon français et hop, ça génère de la réponse à toute vitesse. C’est jouissif. Mais on peut être bien embêté car à quoi bon toute cette production de contenus, si notre capacité à l’ingérer est limitée ? Glaucon est solide, il tient des centaines de pages sans se fatiguer. Pas sûr qu’on puisse en dire autant des tchatgépéteurs que nous sommes, d’autant que Socrate et Glaucon ne sont pas sur leur iPhone, ils sont limités par les limites humaines de l’élocution et de l’audition. Je sais pas vous, mais moi, les réponses de ChatGPT, je les parcours plus que je ne les lis, j’y pense puis j’oublie. Quid, mais QUIIIID de l’intégration du savoir à cette vitesse ? Quid de la lenteur nécessaire à l’assimilation des concepts ? Produire du texte à la chaîne c’est bien, et il y a déjà pléthore de modèles qui le font, mais quid de la consommation desdites productions textuelles et visuelles ? Trop de production pour pas assez de consommation, serait-ce une crise de demande qui se profile ? 

Supposons maintenant que Socrate (comme ChatGPT) soit notre ami de dialectique. Si mes souvenirs sont bons (mais encore une fois, pardon les philosophes) un bénéfice de la dialectique menée à son terme, c’est la maïeutique ou l’art de faire « accoucher des idées ». Et si par nos dialogues avec les LLMs nous faisions accoucher des idées ? L’analogie Socrate vs ChatGPT va bientôt s’arrêter j’en ai peur parce que ChatGPT, se garde bien de faire un choix dans ses réponses, en d’autres termes de prendre un parti. Vous aurez noté les paragraphes lénifiants qu’il sort à chaque fin de réponse quand la question est, disons, ouverte.  Si je lui demande, « la vie a-t-elle un sens ? », l’ami GPT me répond : « Finalement, la question du sens de la vie est hautement subjective et peut dépendre de l’individu, de ses croyances, de son expérience et de sa perspective philosophique. Il n’y a pas de réponse universelle ou définitive à cette question, et chacun est libre d’explorer et de définir son propre sens de l’existence » nianiania… Pour parler familièrement, il ne se mouille pas trop, parce qu’OpenAI ne veut froisser personne et ne surtout pas faire fuir les budgets marketing avant même qu’ils n’arrivent. Notons simplement que Socrate à la différence de ChatGPT choisit une réponse parmi un ensemble de possibles. Avec ChatGPT, j’ai toutes les perspectives possibles, dans quelques bullet points, en trois secondes, c’est magnifique, mais c’est tout lisse, sans aspérité, sans parti-pris, sans choix. Avec Socrate, j’ai un POV (point of view pour ceux qui ne parlent pas le GAFAMulary). Si je voulais vraiment une dialectique socratique à l’aide d’un LLM, il me faudrait un ChatGPT socratique, doté d’une capacité de choix, plutôt qu’un perroquet américain, entraîné sur un corpus anglophone, inclusif, à tout prix. Il me faudrait un LLM avec de la personnalité. 

Je pensais que j’étais le Glaucon de ChatGPT, mais à la réflexion, ça ne marche pas : malgré la réalité d’un dialogue, mais l’illusion d’une dialectique (?), ma capacité d’assimilation des connaissances est largement inférieure à celle de la (re)production de connaissances de ChatGPT et consorts et pour faire un pas vers la vérité, je dois prendre un chemin, je dois m’engager résolument dans une direction donnée, ce que ne fait pas un LLM parce qu’il laisse ouverts tous les chemins, sans en choisir un seul, a fortiori quand le degré d’ambiguïté de la conversation est élevé. La dialectique à la sauce Gen AI, c’est pas pour demain, mais bonne nouvelle, on a un bon petit stock de sujets de bac de philo à suggérer à l’Educ Nat.

Quand l’IA invisibilise les sources : vers une ère sans données de référence ?

ANNE-MARIE LIBMANN
Netsources no
174
publié en
2025.02
1115
Acheter ce no
Tags
IA | professionnel de l'information
Quand l’IA invisibilise les sources : vers une ère sans ... Image 1
Quand l’IA invisibilise les sources : vers une ère sans ... Image 1

Deux ans après l’irruption fulgurante de l’IA générative dans nos vies, peut-on craindre une réécriture ou un effacement progressif de nos savoirs fondamentaux ?

Le paysage est contrasté. D’un côté, des avancées technologiques spectaculaires - notamment en santé ou en traduction automatique. De l’autre, une remise en question profonde de nos méthodes traditionnelles d’accès à la connaissance, d’analyse critique et de validation. À la clé, un risque réel : perdre pied dans un écosystème informationnel où la traçabilité devient optionnelle.

Le salon I-Expo/Documation, qui vient de tenir sa session annuelle, offrait un reflet saisissant de cette dualité. L’affluence remarquable aux conférences centrées sur l’IA témoignait d’un intérêt évident et d’une volonté de comprendre le phénomène dans son ensemble. Mais elle allait de pair avec une inquiétude et une prise de conscience : la nécessité d’encadrer ces outils et de préserver nos repères humains ainsi que l’accès à une information sourcée, fiable et compréhensible.

Particulièrement révélateurs à cet égard étaient les discours des éditeurs de logiciels de veille. D’un côté, ils valorisaient l’intégration des fonctionnalités d’IAG dans leurs plateformes, notamment pour la traduction, le résumé, l’analyse, avec même parfois un package de prompt engineering pour faciliter les interactions du veilleur avec le modèle d’IA. Parallèlement, ils réaffirmaient leur engagement à maintenir le rôle primordial des experts et de l’intelligence humaine dans l’analyse stratégique au service de la prise de décision, et mettaient en garde contre la « boîte noire » de l’IAG.

Entre promesses et ruptures : le choix éditorial de Netsources

Ce nouveau numéro de Netsources s’inscrit pleinement dans cette dualité. Nous y explorons concrètement comment s’incarnent d’une part les promesses et innovations spec­taculaires, et, d’autre part, les fractures profondes dont nous commençons à peine à mesurer l’impact.

Dans la catégorie des innovations technologiques re­marquées figure Mistral AI, la startup française vedette du sommet IA de Paris en février dernier, qui, en moins de deux ans, a réussi à se positionner comme un acteur clé de l’intelligence artificielle générative.

Mais quelle est réellement la valeur ajoutée de Mistral AI face aux géants américains ? Nous avons voulu comprendre son positionnement original et évaluer ses chances de succès dans un environnement ultra-compétitif. Mais surtout, présente-t-elle un intérêt pour nos métiers de l’information ?

Nous avons exploré la question sous deux angles culturels distincts :

  • Une perspective française avec Ulysse Rajim (« Pourquoi utiliser Mistral et n’intéresse-t-il que les francophones ? »), qui analyse l’originalité et le potentiel de Mistral,
  • Et un point de vue américain avec Ryan Mulholand (« Sur les épaules des géants : Mistral AI vu par un professionnel de l’information américain »), qui offre une approche très pragmatique des performances de l’outil.

L’orientation de Mistral AI vers un multilinguisme affirmé, ainsi que son partenariat avec l’AFP, démontre son enga­gement envers des sources diversifiées et qualifiées. Cette démarche semble répondre aux critiques concernant la fiabilité des IA génératives. En évoluant vers un modèle d’agrégation d’informations familier aux utilisateurs pro­fessionnels et académiques, Mistral AI semble en mesure de renforcer sa crédibilité auprès de ces publics.

L’invisibilisation des sources : un défi sous-estimé ?

Développements ambitieux dans la sphère de l’IA donc, mais aussi inquiétude avec l’avènement des GSE (Generative Search Engines), ces moteurs de recherche d’un nouveau type, propulsés par l’IA générative. Véronique Mesguich nous y plonge dans « Du SEO au GEO : quelle visibilité pour les contenus Web ? », en y examinant l’impact sur les stratégies de référencement ainsi que l’émergence du GEO (Generative Engine Optimisation). Face à l’essor des IA conversationnelles qui filtrent et hiérarchisent l’information, les créateurs de contenu se voient contraints de repenser fondamentalement leur visibilité.

Cette nouvelle capacité de recherche nous éloigne progressivement des sources primaires. Les chatbots nous retournent désormais des réponses synthétiques construites à partir de multiples références qui, au mieux, ne sont que listées en périphérie de l’interface, sans aucune garantie d’exhaustivité ni certitude quant à leur interprétation par les modèles d’IA. Une ambiguïté que ces mêmes modèles entretiennent en affirmant - contrainte juridique oblige - ne pas pouvoir « accéder » au contenu des sources, tout en l’utilisant manifestement pour générer leurs réponses.

Un tel système, où la présentation et la hiérarchisation des sources sont entièrement contrôlées par les modèles eux-mêmes, n’incite guère l’utilisateur à consulter les réfé­rences originales. C’est le système lui-même qui l’éloigne progressivement de la « référence source », en privilégiant la réponse toute faite au détriment de la consultation des documents primaires. Même la communication de Google en faveur d’une responsabilité vis-à-vis de l’écosystème Web à l’ère de l’IA semble faible face à ce profond changement de paradigme.

On lira avec beaucoup d’intérêt la passionnante étude « AI Search Has A Citation Problem », qui montre que les IA génératives peinent à attribuer correctement les sources. Dans les tests réalisés sur huit outils majeurs, plus de 60 % des citations étaient inexactes, mêlant erreurs, liens fictifs et contournement des protocoles d’exclusion comme robots.txt. Ce n’est pas un simple désagrément technique : ces défauts rendent certaines données invisibles ou mal représentées, privant les créateurs originaux de reconnaissance et faussant l’accès à l’information.

Préserver la donnée de référence : un impératif pour le professionnel de l’information

L’automatisation du savoir par l’IA soulève une question essen­tielle : comment préserver l’authenticité de l’information de référence ? Des initiatives comme celles de Mistral AI, qui placent la qualité des sources au cœur de leur approche, montrent qu’un autre chemin est possible pour le développement des modèles IA.

Mais la question est stratégique pour les professionnels de l’information qui doivent s’en saisir pour garantir l’intégrité documentaire et décisionnelle dans les organisations et les sociétés. Restaurer la traçabilité dans un monde de synthèse, c’est redonner du sens à l’acte de recherche.

Du SEO au GEO : quelle visibilité pour les contenus web ?

VÉRONIQUE MESGUICH
Netsources no
174
publié en
2025.02
961
Acheter ce no
Du SEO au GEO : quelle visibilité pour les contenus web ? Image 1
Du SEO au GEO : quelle visibilité pour les contenus web ? Image 1

Le SEO (Search Engine Optimisation) participe à l’accès à la connaissance, en influençant directement la manière dont l’information est indexée, trouvée, hiérarchisée et diffusée sur le web.

Cependant, à l’heure où les robots conversationnels sont de plus en plus capables d’effectuer des recherches et synthèses de pages web, les créateurs de contenus web se voient confrontés à la nécessité de réévaluer leurs stratégies de référencement : il s’agit en effet de rendre les contenus visibles dans ce nouvel environnement aussi mouvant que concurrentiel.

Les professionnels de l’information (au sens large du terme) sont également concernés, et doivent adapter leurs stratégies de recherche à cette période de transition où les critères de visibilité des contenus sur le web se complexifient.

Ce bouleversement pose de nombreuses questions : comment les sites web peuvent-ils maintenir, voire améliorer leur visibilité lorsque les internautes ne recherchent plus uniquement via les moteurs classiques comme Google ou Bing, mais interagissent avec des IA conversationnelles telles que ChatGPT, Mistral ou DeepSeek ? Comment optimiser le contenu pour être « consulté » et relayé par des chatbots qui se comportent de plus en plus comme des agents autonomes ?

L’avenir du SEO (Search Engine Optimization, ou référencement naturel) se résume souvent à la chronique d’une mort annoncée, et ce, depuis plusieurs années. Et pourtant, la pratique du SEO reste indispensable, pour optimiser la visibilité des contenus, non seulement via les résultats du moteur Google, mais aussi dans un environnement multiplateforme incluant notamment des réseaux comme TikTok.
Ce contexte dynamique nous invite à explorer l’impact des IA génératives sur les stratégies SEO et à découvrir l’émergence d’une nouvelle tendance : le GEO ou Generative Engine Optimisation.

Une pratique du SEO en constante évolution

La pratique du SEO n’a en fait cessé d’évoluer, depuis son apparition dès le milieu des années 90. Mais c’est surtout au début des années 2000 que la discipline du SEO a pris son essor, en lien avec la domination croissante de Google et l’évolution de ses algorithmes. Au début des années 2010, des mises à jour telles que Panda ou Penguin ont modifié les critères de classement en favorisant la qualité du contenu et la pertinence des résultats de recherche ; la mise à jour Hummingbird, en 2013, introduit et améliore la compréhension sémantique des requêtes. Plus récemment, un nouveau tournant est engagé avec des algorithmes d’intelligence artificielle. Il s’agit des modèles de langage BERT, élaboré en 2018, et utilisant comme GPT la technologie des transformers, et MUM (le Multitask Unified Model) apparu en 2021. L’objectif est de mieux comprendre les requêtes complexes des utilisateurs à travers notamment des mécanismes d’attention.

L’expérience utilisateur est devenue également un critère important pour le référencement et le classement des sites web. Les moteurs de recherche privilégient désormais les sites offrant une navigation fluide, une compatibilité mobile optimale et des temps de chargement rapides, à travers des indicateurs tels que les Core Web Vitals déployés par Google en 2021. La mise à jour de 2023 « Helpful  Content Update » ou HCU s’inscrit également dans une stratégie de valorisation des contenus censés apporter une valeur ajoutée aux utilisateurs. HCU vient ainsi compléter les critères EEAT (Expérience, Expertise, Autorité et Confiance) destinés à évaluer la crédibilité d’un site ou d’un contenu.

Google, à l’instar des géants du numérique, reste peu transparent sur le fonctionnement de ses algorithmes ! En revanche, en 2024, une fuite de documents internes (les fameux « Google Leaks ») a révélé des informations détaillées sur le fonctionnement de son algorithme de recherche, confirmant des hypothèses formulées par les spécialistes du SEO. Ces révélations soulignent l’importance de créer un contenu de haute qualité, d’obtenir des liens pertinents et de fournir une expérience utilisateur optimale pour améliorer le classement dans les résultats de recherche de Google.

Dans les premières années, le SEO s’est ainsi concentré sur des pratiques telles que le choix de mots-clés, la construction de backlinks et l’optimisation des méta descriptions. Aujourd’hui, l’enjeu pour les créateurs de contenus est de produire des contenus capables d’être contextualisés et interprétés par les algorithmes des chatbots.

Le moteur Google est-il toujours un passage obligé pour la recherche d’informations ?

Une enquête menée en septembre 2024 par le site The Information (spécialisé dans les nouvelles technologies) auprès de 1 088 abonnés révèle que 77 % des participants utilisent des IA génératives, plutôt que Google pour certaines requêtes. Ce chiffre souligne une adoption croissante de ces nouvelles technologies, impactant l’usage des moteurs de recherche traditionnels.

Toutefois, un sondage réalisé sur X également en fin 2024 par le journaliste Barry Schwartz (spécialiste du SEO et rédacteur en chef du Search Engine Roundtable) auprès de 917 votants donne un résultat plus nuancé : 55 % des répondants indiquent privilégier l’IA générative à Google Search. En France, une étude IPSOS publiée en février 2025 révèle que 39 % des sondés utilisent des IA génératives pour diverses tâches, dont 48% pour des recherches d’informations.

Ces différences dans les données chiffrées suggèrent que l’ampleur du phénomène peut varier en fonction des répondants, de leurs profils et du type de recherches effectuées.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Pourquoi utiliser Mistral et n’intéresse-t-il que les francophones ?

ULYSSE RAJIM
Netsources no
174
publié en
2025.02
1014
Acheter ce no
Pourquoi utiliser Mistral et n’intéresse-t-il que les ... Image 1
Pourquoi utiliser Mistral et n’intéresse-t-il que les ... Image 1

Depuis son lancement officiel fin 2023, Mistral AI s’est imposé comme l’un des acteurs incontournables de l’intelligence artificielle générative en Europe. Fondée par trois anciens chercheurs de Meta et de Google DeepMind, cette startup française a rapidement levé plus de 600 millions d’euros, atteignant une valorisation de 6 milliards d’euros en moins d’un an d’existence.

Si Mistral AI est souvent présentée comme le champion français de l’IA, sa stratégie et ses ambitions dépassent largement les frontières hexagonales. Dans cet article, nous examinerons le positionnement de Mistral face aux géants américains, nous analyserons les fonctionnalités phares de son application Le Chat, et nous tenterons de comprendre l’attrait de ses modèles au-delà des utilisateurs francophones.

Une réponse européenne aux géants américains ?

« En IA, nous pouvons rivaliser avec Google ou OpenAI », affirmait Arthur Mensch, CEO de Mistral AI, dans une interview avec Le Monde. Cette déclaration résume l’ambition affichée par la startup face aux géants américains qui dominent actuellement le marché de l’IA générative, à savoir OpenAI (ChatGPT), Anthropic (Claude) ou encore les solutions de Google (Gemini), Meta (Llama) et xAI (Grok).

Face à cette hégémonie, Mistral AI propose une alternative européenne avec une offre différenciée, notamment par son approche « open-weight ». Cette approche « open-weight » s’inscrit dans le mouvement de l’open source, mais se limite à rendre publics les paramètres des modèles d’IA (plutôt que le code source complet). Cela permet l’utilisation de ces modèles et leur modification par la communauté des développeurs sans nécessairement révéler tous les détails de l’entraînement. Cette approche est devenue l’une des marques de fabrique de l’entreprise. Dans une interview avec Xavier Niel sur France Inter, Arthur Mensch comparait d’ailleurs Mistral au « Deepseek français », faisant écho à cette entreprise chinoise également reconnue pour sa publication de modèles IA performants en accès libre.

L’un des atouts principaux de Mistral est l’efficacité de ses modèles d’IA. Contrairement à la tendance qui consiste à créer des modèles toujours plus grands, Mistral privilégie des modèles plus compacts et optimisés. Cette approche permet non seulement d’accélérer la génération des réponses, mais aussi de réduire les besoins en puissance de calcul des modèles et, ainsi, de réduire leur empreinte écologique.

 Une stratégie de modèles IA multilingues

Alors que la plupart des modèles d’IA générative sont principalement conçus pour fournir des performances élevées en anglais, Mistral a fait du multilinguisme l’un de ses avantages compétitifs. L’évaluation des modèles Mixtral 8x7B et Mistral 7B le confirme : selon une étude publiée sur arXiv, ces modèles affichent l’un des meilleurs scores de fidélité linguistique parmi les modèles open source (benchmark MultiQ). De plus, les plus petits modèles de la startup, surnommés « Les Ministraux », surpassent ceux de Meta et Google en français, allemand et espagnol, à taille équivalente.

screenshot 2025 03 25 at 10.16.55 pm

Avec l’annonce de Mixtral (décembre 2023), l’entreprise améliore les performances dans plusieurs langues européennes, notamment le français, l’espagnol, l’italien et l’allemand. Cette stratégie multilingue semble au cœur de la stratégie de Mistral.

Une illustration récente de cette stratégie est le lancement de « Saba », un modèle IA spécifiquement conçu pour améliorer les performances en langues du Moyen-Orient et d’Asie du Sud. Entraîné sur des ensembles de données méticuleusement sélectionnés, Saba fournit des réponses plus précises et pertinentes en arabe et en langues d’origine indienne que des modèles cinq fois plus grands, tout en étant significativement plus rapide et moins coûteux.

Au-delà de l’entraînement de modèles sur des corpus non anglophones et de la création de modèles spécialisés « régionaux », Mistral adopte une nouvelle approche : l’intégration de sources d’information externes, illustrée par son partenariat avec l’Agence France-Presse. Les modèles Mistral peuvent désormais citer directement les dépêches AFP comme sources vérifiées dans ses réponses. En allant au-delà de la simple génération de texte, Mistral fait un premier pas vers une stratégie d’agrégation de contenus externes, ouvrant peut-être la voie à un modèle plus respectueux de la propriété intellectuelle.

Nous avons testé le Chat

Pour mieux comprendre ce qui distingue Mistral de ses concurrents, nous avons testé Le Chat (disponible en version web et mobile) et comparé certaines fonctionnalités avec ChatGPT.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Sur les épaules des géants : Mistral AI vu par un professionnel de l’information américain

RYAN MULHOLAND
Netsources no
174
publié en
2025.02
972
Acheter ce no
Sur les épaules des géants : Mistral AI vu par un ... Image 1
Sur les épaules des géants : Mistral AI vu par un ... Image 1

Ryan MULHOLAND est Research Librarian à l’Université Wesleyan du Tennessee aux États-Unis. L’article de Ryan a été traduit avec l’aide, pour les tournures idiomatiques, de Mistral et de Claude.

Une « course aux armements de l’IA » sans précédent se déroule à l’échelle mondiale, bouleversant tout sur son passage. En ce début 2025, l’IA continue de dominer les discussions, des campus universitaires aux premières pages des sites d’actualités et d’affaires. Bien sûr, les habituels acteurs américains comme OpenAI et Google sont en première ligne, avec des offres conçues pour répondre à presque tous les besoins d’information des utilisateurs. De son côté, la Chine présente DeepSeek, dont le modèle R1 rivalise avec les meilleures offres américaines, mais à un coût bien inférieur.

Et qu’en est-il de l’Union européenne ? Regardons Mistral AI, un acteur français de premier plan dans le paysage mondial de l’IA.

Jeune expert en sciences de l’information, habitué à utiliser des modèles comme ChatGPT et Perplexity, je n’avais pas encore eu l’occasion de travailler avec Mistral, mais j’étais curieux de découvrir comment ce modèle français se positionnait par rapport à ses concurrents américains.

J’avais entendu parler de Mistral pour la première fois par une collègue en France, qui souhaitait connaître mon avis en tant qu’Américain.

Étant donné que je travaille principalement avec des étudiants universitaires et que l’utilisation de l’IA dans l’apprentissage et la rédaction académique est un sujet brûlant, il m’a semblé opportun d’explorer les meilleurs cas d’usage de ce modèle.

Test de traduction de textes d’articles académiques

Nous avons amorcé notre étude par des tests de traduction, attirés par l’intérêt particulier que présentent des corpus d’entraînement non exclusivement américains, contrairement aux données majoritairement anglo-saxonnes qui alimentent, selon toute vraisemblance, les modèles d’intelligence artificielle conçus aux États-Unis.

Je souhaitais évaluer la performance de Mistral dans la traduction des langues indo-arabes vers l’anglais après l’intégration des langues arabes et sud-asiatiques avec le modèle SABA. Mon université accueille des étudiants internationaux provenant d’Europe, d’Asie et d’Amérique du Sud, et propose divers programmes professionnels spécialisés tels que les soins infirmiers, la santé dentaire et l’ergothérapie. L’accès à du contenu académique multilingue peut grandement enrichir les méthodes d’apprentissage. De plus, pour certains étudiants, l’anglais n’étant pas leur langue maternelle, cela constitue une barrière lorsqu’ils tentent de lire et de rédiger des articles académiques.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

L’IA accélère, l’expert pilote : vers une nouvelle intelligence de la veille (édito)

ANNE-MARIE LIBMANN
Netsources no
173
publié en
2024.12
1904
Acheter ce no
Tags
professionnel de l'information | IA | édito
L’IA accélère, l’expert pilote : vers une nouvelle ... Image 1
L’IA accélère, l’expert pilote : vers une nouvelle ... Image 1

Le dernier trimestre 2024 marque un tournant décisif dans l’évolution de nos métiers. L’émergence d’outils autonomes au potentiel disruptif met au défi de l’adaptation les pratiques éprouvées des professionnels de l’information et leur rôle d’intermédiation.

Ce numéro de NETSOURCES explore cette nouvelle étape à travers trois regards complémentaires.

Véronique Mesguich analyse comment OpenAI ne se contente pas de concurrencer Google avec SearchGPT, mais revisite l’expérience de recherche d’information (« SearchGPT vs Google AI vs Copilot : la bataille des géants pour réinventer la recherche web »).

Cette génération d’outils, avec sa puissance de synthèse et la génération contextuelle de contenus, remet en question notre rapport même aux sources. En proposant des synthèses dont la traçabilité échappe souvent à notre contrôle, elle fragilise davantage la notion de référence aux sources, pilier de la recherche professionnelle déjà ébranlé par l’écosystème Internet. C’est la fiabilité même du travail informationnel qui est en jeu, au-delà des impacts sur le modèle économique des moteurs traditionnels et du système de référencement commercial.

Le décryptage que fait Ulysse Rajim sur l’avènement des agents IA révèle une autre dimension de cette transformation (« Repenser la veille à l’ère des agents IA »). Ces systèmes semi-autonomes, capables de planifier et d’exécuter des séquences d’actions complexes, préfigurent l’avenir de nos outils professionnels. Leur capacité à combiner planification et exécution, même à un niveau d’autonomie encore modéré, annonce une transformation de nos méthodes de travail.

Enfin, les retours d’expérience du Forum de l’IES, analysés par Corinne Dupin, apportent un éclairage précieux sur ces évolutions. Les enseignements qui en émergent - de la contextualisation des demandes au contrôle continu des résultats — dessinent les contours d’une utilisation raisonnée de l’IAG et d’une nouvelle maturité dans notre approche des IAG (« Quand la vitesse et la puissance de calcul des IAG dépassent l’humain et invitent à réévaluer les pratiques de veille et d’intelligence économique »).

Ces trois analyses convergent vers un constat commun : l’accélération technologique nous ramène paradoxalement aux fondamentaux de nos métiers. Le sens critique, la rigueur méthodologique et l’intelligence collective deviennent plus essentiels que jamais.

SearchGPT vs Google AI vs Copilot : la bataille des géants pour réinventer la recherche web

Véronique MESGUICH
Netsources no
173
publié en
2024.12
2056
Acheter ce no
Tags
recherche Web | IA
SearchGPT vs Google AI vs Copilot : la bataille des géants ... Image 1
SearchGPT vs Google AI vs Copilot : la bataille des géants ... Image 1

Annoncé l’été dernier par OpenAI sous forme de prototype, le moteur de recherche SearchGPT a été lancé en novembre pour les utilisateurs de la version premium et est depuis le 17 décembre accessible gratuitement à tous.

Au-delà d’un moteur de recherche classique, SearchGPT allie les capacités de génération de texte et de recherche contextuelle du modèle de langage d’OpenAI pour offrir une nouvelle expérience de la recherche d’informations.

OpenAI renforce ainsi sa concurrence directe non seulement avec des services de recherche basés sur l’IA comme Perplexity ou You.com, mais aussi avec les géants du Search en ligne que sont les moteurs Google ou Microsoft Bing Copilot. Doit-on en attendre une transformation radicale du paysage des outils de recherche ? Ou bien s’agit-il d’une tentative de la part d’OpenAI destinée à capter une part du marché lucratif de la recherche web, en « disruptant » le modèle économique ?

Google et Microsoft, de leur côté, innovent dans l’IA générative pour transformer l’expérience utilisateur dans leurs moteurs de recherche respectifs. Ces avancées permettront-elles de créer des outils adaptés à une large gamme d’utilisateurs, allant du « grand public » aux professionnels de la recherche, en répondant à leurs attentes spécifiques ? Comparons les stratégies de ces trois géants du numérique en matière d’outils de recherche web.

Comment fonctionne SearchGPT ?

SearchGPT est une extension de l’intelligence artificielle conversationnelle GPT, spécifiquement optimisée pour la recherche d’informations. Contrairement à un moteur de recherche classique qui restitue des résultats sous forme de liste de liens vers des pages web, SearchGPT combine les capacités d’analyse contextuelle, de synthèse et d’interaction conversationnelle du modèle de langage GPT, en les adaptant à la recherche web.

Concrètement, le moteur est basé sur la technologie de génération augmentée de récupération (Retrieval Augmented Generation, ou RAG). Cette technologie RAG se retrouve dans de nombreux moteurs de recherche basés sur l’IA, comme Perplexity par exemple, de façon à obtenir des réponses précises et contextualisées à partir d’un corpus défini, en réduisant ainsi les risques d’erreur ou d’hallucinations.

Cette approche combine les capacités des modèles de langage génératifs avec l’accès à des données web en temps réel, permettant à SearchGPT de fournir des réponses en s’appuyant sur une sélection de sources web. OpenAI n’est guère transparent sur les modalités d’accès au web de son crawler, et plusieurs informations contradictoires circulent. On peut estimer qu’une partie des données provient de l’index du moteur Bing, grâce au partenariat historique entre OpenAI et Microsoft. Mais SearchGPT exploite également son propre robot d’exploration, l’« OAI-SearchBot », développé par OpenAI pour parcourir et indexer des pages web. Le moteur passerait de plus par des API spécialisées vers des sources spécifiques (par exemple, des bases de données ouvertes).

La recherche SearchGPT à la loupe

L’usage de SearchGPT est désormais, depuis le 17 décembre, accessible à tout utilisateur de la version gratuite de ChatGPT.

L’accès à la recherche web se matérialise sous la forme d’une icône en forme de mappemonde dans l’interface du robot conversationnel :

screenshot 2025 01 05 at 3.32.14 am

La recherche s’effectue en langage naturel, sous forme de prompt. Grâce au modèle de langage GPT, le moteur convertit le prompt en vecteurs numériques, de façon à activer ses mécanismes d’attention et à « comprendre » le contexte et la sémantique des mots présents dans le prompt, ainsi que l’intention de l’utilisateur. Le moteur interroge ensuite son index (composé comme mentionné plus haut des index de plusieurs crawlers web, et d’accès directs à des sources d’informations) pour identifier des contenus pertinents répondant à la requête.

C’est dans la génération de la réponse que SearchGPT se démarque le plus des moteurs web classiques : la réponse consiste en effet en une synthèse de plusieurs résultats trouvés par le moteur, et générée par le modèle de langage GPT.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • ›
  • Fin