Sélectionner le numéro de "Bases" à afficher

Représentations et expressions du Knowledge Management : que disent les praticiens?

Corinne DUPIN, Consultante du cabinet OUROUK
Bases no
437
publié en
2025.06
674
Acheter ce no
Tags
knowledge management | veille technologique | retour d'expérience
Représentations et expressions du Knowledge Management : ... Image 1
Représentations et expressions du Knowledge Management : ... Image 1

Le Knowledge Management (KM) est encore une notion abstraite. Il est fréquent de constater une difficulté à se représenter ce qu’il recouvre au juste. Cet article se propose d'en éclairer le sens et les réalisations.

Une diversité de représentations et d’expressions

Quelle est sa plus-value ? Ceux qui le pratiquent savent qu’à la longue une gouvernance des connaissances vertueuse octroie un gain de temps, de qualité et de confiance dans les connaissances mobilisées (on obtient plus vite une réponse plus fiable). L’objectif poursuivi est souvent l’excellence opérationnelle (dans les entreprises industrielles notamment), ou l’excellence tout court (dans des structures plus proches du service public et de l’intérêt général). La quête d’une plus grande performance (à condition de renoncer à ce qu’elle soit immédiate), la réduction des erreurs, le maintien d’un haut niveau d’expertise, l’innovation sont souvent visés par les organisations qui mettent en œuvre une démarche KM. Elles savent en outre que l’existence d’un dispositif de ce type favorise la préservation des connaissances, valorise les savoirs et savoir-faire des collaborateurs les plus expérimentés et constitue un facteur d’attractivité (et de rétention) pour les collaborateurs les plus jeunes.

Les initiatives qui relèvent du Knowledge management sont par ailleurs innombrables. C’est cet état de fait (le flou ou la diversité des perceptions comme celle des actions) qui nous a donné envie d’interroger les représentations et expressions du KM auprès d’un panel de professionnels curieux ou adeptes du management des connaissances (1).

Il ressort de ces échanges quelques lignes de force : le temps incompressible de mise en œuvre et de déploiement d’une démarche KM, l’importance accordée à son incarnation, la démocratisation de l’accès à la connaissance, les accointances du KM avec d’autres fonctions de l’organisation et d’autres notions comme l’organisation apprenante (2), et par ailleurs une variété de manifestations qui confirment la réalité protéiforme du knowledge management.

Un amorçage qui s’étire dans le temps

Les débuts sont souvent laborieux : une démarche de KM se met en place lentement, ne répond pas forcément aux attentes de tous, ne donne pas immédiatement des résultats probants, se développe par apprentissage progressif. Pour peu que la norme ISO 30401 soit convoquée, avec ses outils, processus et procédures, le dispositif annoncé peut parfois freiner les élans - à l’instar des réactions communément constatées face aux normes ISO de systèmes de management. Si la norme a le mérite de proposer un cadre de référence pour la mise en œuvre d’un système de management des connaissances, certains estiment qu’elle est de toute façon en retard sur les pratiques. D’autres jugent qu’elle s’adresse surtout aux experts et s’avère facilitatrice d’un point de vue essentiellement conceptuel et méthodologique. Cela dit, un responsable des connaissances peut aussi avoir la casquette de coordinateur de la cellule qualité (3)… Pas de profil type chez les « sympathisants » ou les acteurs patentés du KM : les professionnels interrogés à l’occasion de l’écriture de cet article, dont les organisations relèvent d’une variété de secteurs d’activité (conseil, ingénierie, télécommunications, nucléaire, grande distribution…) affichent un large spectre de fonctions : concepteur d’ontologies, responsable du Learning development, Knowledge manager, consultant, professionnel de l’information, directeur de l’université interne (en charge du KM & Learning)…

Des contextes d’activité plus propices que d’autres à une mise en œuvre précoce du KM

Dans l’ingénierie et les disciplines techniques, le KM a souvent été pratiqué avant l’heure. Dans cette société de conseil et d’ingénierie, c’est un ingénieur qui a créé le centre de ressources au départ, dans la perspective notamment de former les plus jeunes. Les initiatives d’échange et de transmission fourmillent, même si elles ne rencontrent pas toutes le même succès. La « conférence de 14 h » (présentation d’un projet par un ingénieur) a eu son heure de gloire en présentiel et rallie encore des adeptes en visioconférence. Des communautés de pratique (CoP) sont vivaces, d’autres moins. Des « tentatives de wiki » ont vu le jour, mais leur alimentation, compliquée, n’avance plus faute de personne motrice… Les fiches de REX restent d’actualité et font l’objet d’un partage en interne, de même que les publications dans des revues techniques et la participation aux congrès. La multitude d’associations professionnelles qui gravitent autour des expertises techniques de la société (béton, génie parasismique, etc.) incite à un partage des connaissances en externe. La participation à l’édition de certaines normes est aussi une occasion de collaboration avec des pairs extérieurs au groupe.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Sans la liberté d’exploiter, il n’est pas de brevet rémunérateur 

Philippe BORNE
Bases no
437
publié en
2025.06
511
Acheter ce no
Tags
chimie | intelligence économique | veille concurrentielle | brevets | veille technologique
Sans la liberté d’exploiter, il n’est pas de brevet ... Image 1
Sans la liberté d’exploiter, il n’est pas de brevet ... Image 1

Nous avons eu l’occasion de le répéter plusieurs fois déjà, le brevet est une formidable source d’informations techniques qu’il est hasardeux d’ignorer dans une démarche d’innovation. État de l’art, recherche de solutions techniques, tendances du marché, positionnement d’un concurrent… Autant de raisons qui justifient une recherche dans les bases de données brevet.

Lorsque l’on se concentre sur les aspects plus juridiques, on retrouve les recherches de brevetabilité, celles réalisées dans le cadre d’une procédure d’opposition ou d’invalidation, et les recherches de liberté d’exploitation (dénommées FTO, pour Freedom To Operate, en anglais). Comme notre titre l’indique - que Beaumarchais nous pardonne cette irrévérence -, c’est sur celles-ci que nous allons nous pencher aujourd’hui.

De l’art du géomètre : qu’est-ce qu’un brevet ?

Rappelons tout d’abord quelques fondamentaux concernant le brevet.

Il est fréquent qu’un spécialiste technique qui lit pour la première fois un brevet revienne avec un air dépité s’exclamant « qu’est-ce que ce charabia, on n’y comprend rien ». C’est une réaction compréhensible : notre spécialiste s’attendait à lire un document décrivant une technique, un peu comme une publication scientifique, et il est tombé sur un texte parfois jargonnant, utilisant une terminologie étrange, qu’il est occasionnellement bien difficile d’interpréter. C’est que le but du brevet n’est pas seulement de décrire une technique, c’est aussi et avant tout de définir un territoire technique d’accès interdit. Nous sommes en présence d’un titre de propriété, et comme tout titre de propriété, il faut définir les limites de ladite propriété afin que les tiers sachent bien où ils ne peuvent pas aller. Rédiger un brevet, c’est au fond une affaire de technicien, mais aussi un peu de géomètre expert.

Pratiquer le brevish

Le brevet n’est toutefois pas totalement incompréhensible pour le spécialiste technique, à condition de maîtriser certains codes. En effet, le brevet doit décrire la solution technique qui constitue son objet, c’est même une obligation : la description doit en effet être suffisamment claire pour permettre à un homme du métier de la mettre en œuvre, de la reproduire. N’oublions pas qu’à l’origine du système du brevet - 1791 en France - il y avait la volonté de favoriser la diffusion des connaissances, l’inventeur qui acceptait de livrer ses connaissances au public se voyant accorder, à titre de compensation, une capacité d’interdire l’utilisation de la technique décrite pendant une certaine durée.

Cependant, ce souhait de dissémination, c’était il y a deux siècles, et même si l’obligation reste dans la loi, l’esprit a changé. Et « les plus malins » s’arrangent maintenant pour en dire suffisamment pour se conformer à la loi, mais pas trop quand même. Des techniques de rédaction claire/obscure se sont ainsi développées. Attention toutefois à ne pas tomber trop du côté obscur, la sanction pouvant être le rejet de la demande de brevet, voire l’annulation du brevet s’il a été accordé.

La délimitation du territoire interdit : les revendications

Il y a deux parties essentielles dans une demande de brevet :

  • La description de la solution technique proposée par l’inventeur (car un brevet concerne une solution technique à un problème technique). C’est ici que l’on donne la recette, de manière très détaillée. À titre d’exemple, un brevet concernant un nouveau composé chimique devra non seulement décrire le composé, mais aussi son procédé de préparation, avec les catalyseurs, solvants, températures réactionnelles et autres paramètres utilisés. C’est dans cette partie que l’on donne aussi des exemples d’application de l’invention.
  • Une fois que l’on a tout décrit, arrive la partie clé, essentielle dans une recherche de liberté d’exploitation : les revendications. Ce sont elles qui définissent l’étendue du territoire interdit, en précisant dans le détail les caractéristiques de la solution technique objet du brevet. Elles ont pour but d’étendre au maximum ce territoire interdit afin notamment d’éviter un trop facile contournement par un tiers. À partir d’une invention particulière, l’objectif est donc de tracer des limites englobant également les dispositifs ou procédés voisins. Si un alliage contient 10 % de cuivre, on va dans la description présenter des alliages contenant aussi 7 %, 8 %, 11 %, 12 % de cuivre, et dans la revendication on utilisera un intervalle : de 7 à 12 %. Si l’invention concerne une bouteille, on ne parlera pas de bouteille, mais de contenant pour liquide. Si l’invention concerne un camion utilisé pour transporter des marchandises, on ne parlera pas de camion, mais de moyen de transport de marchandises. On a vu un ballon décrit par la locution « dispositif sphérique de loisir ». D’où ce « brevish », langage qui peut déconcerter un expert technique.

L’appréciation de la FTO implique de maîtriser un peu ce langage.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Les hausses tarifaires des modèles: vers une intelligence artificielle à deux vitesses ?

Anne-Marie LIBMANN
Bases no
437
publié en
2025.06
540
Acheter ce no
Tags
veille métier | veille technologique | open source | ChatGPT
Les hausses tarifaires des modèles: vers une intelligence ... Image 1
Les hausses tarifaires des modèles: vers une intelligence ... Image 1

Avec la montée en puissance de l’IA générative dans le milieu professionnel, celle-ci devient un véritable outil cognitif, utilisé pour des tâches complexes telles que la recherche, la synthèse de textes, l’interaction documentaire ou la rédaction d’analyses, et la question de l’évolution des tarifs d’accès aux modèles avancés devient centrale. Anthropic (Claude), OpenAI (ChatGPT), xAI (Grok) et Mistral proposent des grilles tarifaires de plus en plus segmentées, certaines offres premium étant principalement destinées aux grandes entreprises ou aux organismes disposant d’une stratégie IA structurée.

Cette tendance est illustrée par le tout récent lancement par Perplexity AI de Comet, son navigateur web IA, sera réservé initialement aux abonnés Perplexity Max (200 $/mois). L’outil est prometteur - il fonctionnerait comme un assistant IA pour gérer des sessions de navigation ou exécuter des tâches complexes - mais on ne peut que déplorer son coût élevé.

Une montée en gamme tarifaire qui risque de creuser une fracture d’accès en marginalisant les utilisateurs intensifs, tels que les « Knowledge workers », dont les pros de l’infodoc font partie :

  • Les versions les plus performantes, comme GPT-4o, Claude Opus ou Grok 4 Heavy, sont réservées aux abonnements premium, inaccessibles pour de nombreux usagers.
  • Gérer son budget devient compliqué avec l’accumulation des abonnements mensuels auxquels se rajoutent éventuellement des frais d’API.
  • La multiplication des nouvelles solutions, des plans et des restrictions (par exemple, OpenAI a récemment modifié à deux reprises son offre tarifaire en une semaine) complique l’identification d’une solution qui soit stable, fiable et abordable.

On retiendra pour les principaux modèles (cf. tableau détaillé en fin d'article) :

OPENAI (GPT)

OpenAI poursuit une stratégie de montée en gamme avec un accès aux modèles avancés (GPT-4o, GPT-4.5) réservé aux formules payantes. L’offre Enterprise adopte désormais un système à crédits qui remplace le forfait fixe - une facturation plus flexible pour les grands comptes, mais qui renforce globalement la barrière d’accès. OpenAI a même évoqué récemment des agents personnalisés pouvant coûter jusqu’à 20 000 $ / mois !

À l’heure actuelle, la véritable frustration - à notre sens - pour un abonné individuel (20 $/mois) faisant un usage professionnel intensif de ChatGPT est l’accès à l’offre Pro, beaucoup plus coûteuse (200 $/mois). Celle-ci est fonctionnellement très pertinente pour nos professions de l’information, mais aussi surdimensionnée : elle inclut des accès illimités à tous les modèles de raisonnement (dont GPT-4o), à la recherche web avancée multi-étapes, aux versions préliminaires de GPT-4.5, à l’agent autonome Operator, au mode vocal évolué, au mode Pro o3 (calculs renforcés), à la génération vidéo via Sora et à l’assistant intelligent de programmation Codex.

ANTHROPIC (CLAUDE)

Anthropic déploie une stratégie tarifaire progressive et modulaire, conçue pour accompagner la montée en puissance des usages tout en segmentant son public. L’accès gratuit au modèle Sonnet permet une prise en main grand public, mais dès que les besoins augmentent le passage à une formule payante s’impose : l’offre Pro (20 $/mois ou 17 $ en annuel) cible les utilisateurs réguliers avec Claude Code, gestion de projets et intégration Google. Le plan Team (30 $/util./mois, min. 5) offre un contexte jusqu’à 200 k tokens pour les petites équipes. Les offres Max (jusqu’à 200 $/mois) et Enterprise (~60 $/siège/mois) ciblent les usages très intensifs, avec sécurité renforcée et support dédié.

Cette segmentation renforce le positionnement de Claude face à OpenAI, en valorisant sa clarté, sa logique et sa capacité à traiter de longs contenus. Mais elle rend aussi l’accès aux usages professionnels plus coûteux pour les utilisateurs isolés.

xAI (Grok)

L’offre Grok, développée par xAI et intégrée à la plateforme X (ex-Twitter), repose sur une logique d’abonnement à plusieurs niveaux. Les modèles Grok sont accessibles uniquement via les formules X Premium, avec trois paliers : Basic (~3 $/mois), Premium (~8 $/mois) et Premium+ (40 $/mois). Seul ce dernier donne accès aux versions les plus avancées de Grok, sans publicité et avec une priorité d’usage. En juillet 2025, xAI a lancé Grok 4 Heavy, un modèle multi-agent haut de gamme, disponible uniquement via l’option SuperGrok (300 $/mois), à ajouter à l’abonnement Premium+. Pour accéder à l’ensemble des capacités du système, un utilisateur doit donc cumuler ces formules, soit 340 $/mois, ce qui en fait l’une des offres les plus coûteuses du marché. Les niveaux inférieurs donnent accès à des versions allégées, avec des fonctions limitées.

Cette stratégie cible clairement un public captif, technophile et à fort pouvoir d’achat, mais elle limite fortement l’accessibilité hors de l’écosystème X.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

La veille collaborative à l’épreuve du réel : retours d’expériences et leçons apprises

CORINNE DUPIN, consultante du cabinet Ourouk
Bases no
436
publié en
2025.05
921
Acheter ce no
Tags
veille collaborative | professionnel de l'information | retour d'expérience | veille métier | veille concurrentielle | knowledge management
La veille collaborative à l’épreuve du réel : retours ... Image 1
La veille collaborative à l’épreuve du réel : retours ... Image 1

Tel est le titre de la matinée d’étude organisée et animée conjointement par l’ADBS et le CNAM/INTD le 2 avril dernier. Invitée à y cadrer le sujet (polysémique) de la veille collaborative, je propose ici une restitution sélective des interventions entendues ce jour-là, complétée par ma propre expérience de praticienne et de consultante amenée à accompagner ou observer la mise en place de tels dispositifs depuis une quinzaine d’années.

Le sujet de la veille collaborative revient à peu près tous les dix à quinze ans justement sur la table : il suscite l’intérêt à un rythme régulier, porteur qu’il est d’un idéal exigeant et de la promesse de synergies et de « désilotage » dans les organisations, mais il faut bien reconnaître que ce type de démarche rencontre plus souvent ses limites que son public, comme l’a énoncé avec justesse Thomas Grignon (1) dans son discours introductif.

Le premier enseignement de cette matinée est que les professionnels de l’information ont une définition extensive de la veille collaborative, dont ils font une activité de surveillance mobilisant un collectif. Cette définition large n’est pas la mienne. Que la veille soit une activité requérant plusieurs forces vives est une évidence. La qualifier de collaborative introduit à mon sens le fait de distribuer l’effort de veille auprès d’un ensemble de contributeurs au nombre desquels figurent nécessairement des acteurs métiers, habituellement simples destinataires de la veille, désormais contributeurs actifs.

Reconnaissons qu’il n’est pas aisé de proposer de la veille collaborative une définition consensuelle compte tenu de la diversité des formes qu’elle peut prendre dans des configurations très variables, des « 1001 visages » qu’elle offre.

Sa mise en place, pour commencer, n’obéit pas aux mêmes éléments déclencheurs : si le défaut de ressources est souvent premier (une équipe étriquée, ne pouvant à elle seule pourvoir à l’ensemble des besoins en information, est tentée d’élargir le nombre de ses contributeurs), d’autres motifs relèvent du constat de pratiques de veille essentiellement individuelles, artisanales et informelles, d’un sentiment de solitude et de cloisonnement (avivant le risque de doublons et d’incohérences dans le recueil et l’analyse des informations), d’une volonté d’autonomie des bénéficiaires de la veille (désireux d’apporter leur pierre à l’édifice), etc. Le motif déclencheur peut aussi être une injonction managériale, une direction faisant parfois le pari qu’un tel dispositif contribuera à favoriser la collaboration entre des services et métiers se rencontrant peu malgré l’intérêt qu’ils auraient à travailler ensemble.

Pour autant, la veille collaborative ne postule pas forcément de la transversalité autour de sujets fédérateurs à fort enjeu (la compréhension d’un marché, la détection d’évolutions sociétales…) ou même des zones d’adhérence dans les sujets traités : elle peut concerner des sujets ponctuels qui n’intéresseront qu’un groupe limité d’acteurs.

Un dispositif de veille collaborative ne se reconnaît pas davantage à un mode d’organisation particulier. Il peut s’appuyer sur une communauté constituée, dont les membres se rencontrent à échéances régulières, pilotée par une équipe ou un community manager. Il peut aussi consister en des rendez-vous ritualisés en petits comités, dont l’objet est de coproduire (ou pas) des livrables. Il peut encore se traduire par la sollicitation ponctuelle d’experts qui ne sont jamais les mêmes.

Au CETIM (2), l’équipe de 8 veilleurs emmenée par Laurent Couvé (3) implique une quarantaine des 700 experts techniques (ingénieurs, techniciens supérieurs, docteurs, répartis aux quatre coins de la France) dans la couverture des salons, congrès et autres journées techniques (4) : charge à eux de rédiger un compte-rendu de l’événement relevant de la spécialité qui les concerne (une note de veille en contrepartie du financement de leur déplacement), à l’attention des industriels cotisants qui ne disposent pas des ressources suffisantes pour effectuer eux-mêmes ce travail de détection des sujets émergents. La restitution des enseignements du salon auprès des industriels lors d’un webinaire représente pour les experts du CETIM une occasion précieuse de se faire connaître et de « décrocher » potentiellement des clients, tandis que la coopération avec les experts a pour retombée indirecte des demandes de recherches bibliographiques plus étoffées auprès de l’équipe de veille.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Trois métiers, une vision : Serda-Archimag face aux enjeux de l’IA générative

Christel RONSIN
Bases no
436
publié en
2025.05
864
Acheter ce no
Tags
podcast | veille métier | droit d'auteur | ChatGPT | IA | presse en ligne | professionnel de l'information
Trois métiers, une vision : Serda-Archimag face aux enjeux ... Image 1
Trois métiers, une vision : Serda-Archimag face aux enjeux ... Image 1
Interview de Louise Guerre, Co-Présidente du Groupe Serda-Archimag. Interview menée par Christel Ronsin

Nous avons souhaité interroger Louise Guerre afin de recueillir son témoignage sur la mise en place et l’utilisation de l’intelligence artificielle générative au sein d’une société spécialisée dans le management de l’information.

Louise Guerre est, avec Pierre Fuseau, dirigeante du groupe Serda-Archimag depuis sa création en 1985. Elle est également responsable mécénat et laboratoire des curiosités de l’association Étincelle, qui accompagne les jeunes décrocheurs. Avant cette date, Louise Guerre a présidé durant deux ans le Centre des Jeunes Dirigeants d’Entreprise (CJD), qui est le plus ancien mouvement patronal. Elle a également passé cinq ans au conseil d’administration d’Action contre la Faim.

CHRISTEL RONSIN : Louise, pouvez-vous nous expliquer comment l’intelligence artificielle générative (IAG) a été intégrée au sein du groupe Serda-Archimag ?

LOUISE GUERRE : Bien que l’Intelligence artificielle ait une histoire de plus de 50 ans, c’est avec l’arrivée des IAG en 2023 que nous avons observé un nouvel engouement pour cette technologie. J’ai alors immédiatement lancé un groupe de travail sur l'intelligence artificielle générative pour examiner son impact potentiel sur nos activités. En novembre 2023, ce groupe a réuni la rédactrice en chef d’ Archimag , Clémence Jost, un représentant de notre agence de communication éditoriale, ACE, un représentant de Serda Conseil et enfin un représentant de Serda Compétences. Ainsi tous les métiers étaient représentés. Comme nous le faisons habituellement, nous avons élaboré une note de cadrage, un PQP (Plan Qualité de Projet), et défini des livrables.

Nous avons rapidement identifié les opportunités fantastiques que les IAG pouvaient offrir, tout en mettant en lumière les craintes qu’elles pouvaient susciter parmi les professionnels de l’information, qui sont nos clients, ainsi que dans la société plus largement. Nous avons également évalué l’impact potentiel sur les divers métiers présents dans notre entreprise : les formateurs, les consultants, les journalistes, les rédacteurs, les commerciaux et le marketing.

Pour mieux comprendre ces enjeux, nous avons jugé essentiel de nous former. La formation est le meilleur moyen d’affiner nos craintes, d’y remédier si possible, et d’identifier les opportunités. Nous avons donc mis en place un vaste programme, adapté à chaque métier. Il est essentiel que le formateur soit un spécialiste du domaine, sinon la formation perd de sa pertinence.

CR : Pouvez-vous détailler ce plan de formation à l’intelligence artificielle générative, mis en place pour les collaborateurs de Serda-Archimag ?

LG : Chaque collaborateur a bénéficié d’une journée de formation à l’IAG, adaptée à son métier. Ainsi, il y a eu une journée dédiée aux consultants, une autre pour notre activité de formation, une pour les commerciaux, une pour le marketing, et enfin une dédiée aux journalistes. Chacun a pu explorer le potentiel de l’IA dans son domaine spécifique, ainsi que les limites de son utilisation.

Au sein de l’équipe, les journalistes ont été les plus réticents à l’idée d’utiliser l'IAG. J'ai dû les convaincre en expliquant que cet outil ne remplacerait pas leur travail, mais pourrait les assister dans certaines tâches. Par exemple, pour un sujet traité plusieurs fois, l’IAG pourrait aider à trouver de nouveaux angles. Ou encore, pour synthétiser des rapports volumineux, elle pourrait fournir un résumé ciblé sur des sujets spécifiques, ce qui est particulièrement utile pour une rédaction de notre taille (7 journalistes). Enfin, l’intelligence artificielle générative peut également être utilisée pour des tâches de secrétariat de rédaction, comme la reformulation de phrases. Globalement, nous considérons l’IA comme un assistant et non comme un remplaçant de l’humain. Mon mot d’ordre a été : on réfléchit et on pense par soi-même, et ensuite on utilise les assistants utiles, et surtout pas l’inverse.

Les journalistes ont souhaité dès le départ adopter une charte stipulant que tout contenu généré par l’intelligence artificielle, qu’il s’agisse d’articles ou d’images, serait clairement identifié comme tel. Bien qu’ils aient accepté d’explorer certaines utilisations, ils restent opposés à l’idée que l’IAG puisse écrire des articles à leur place, même pour des brèves ou des actualités.

CR : Quelles sont les considérations éthiques par rapport à l’utilisation de l’IA pour la production journalistique ?

LG : Notre utilisation des IAG nécessite une réflexion approfondie sur les garde-fous éthiques. Dès la fin 2023, nous avons examiné une charte élaborée par Reporters sans Frontières (Cf. Figure 1), issue des travaux d’une commission internationale, qui propose dix principes éthiques. À la rédaction d’Archimag, nous avons décidé d’adopter ces principes pour guider notre utilisation de l’intelligence artificielle générative.

Nous avons également discuté de la manière de garantir la transparence. Clémence Jost a donc rédigé un éditorial affirmant que si jamais un article était écrit par une IA, ce serait explicitement signalé aux lecteurs. Néanmoins ce n’est pas du tout dans nos projets.

Nous avons aussi toujours pour principe d’évaluer et valider les suggestions proposées et de vérifier les sources suggérées par des outils comme Perplexity par exemple.

En ce qui concerne le droit d’auteur, cette question ne se pose pas pour nous puisque nos journalistes n’utilisent pas l’IAG pour produire du contenu.

CR : À la suite du plan de formation, comment vos collaborateurs ont-ils intégré l’intelligence artificielle générative dans leur travail quotidien ?

LG : La formation a eu un impact considérable sur nos collaborateurs, qui sont des professionnels curieux. Ils ont réalisé que l’IA pouvait accomplir bien plus de tâches qu’ils ne l’avaient initialement envisagé. Cela leur a permis de l’adopter comme un assistant efficace dans leur travail quotidien et de bénéficier d’un cadre clair pour décider quand et comment l’utiliser.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

L’évolution des IA conversationnelles : révolution de la recherche web, intégration professionnelle et personnalisation par la mémoire

Anne-Marie LIBMANN
Bases no
436
publié en
2025.05
841
Acheter ce no
Tags
ChatGPT | Bing | recherche Web | Google | actualités | IA
L’évolution des IA conversationnelles : révolution de la ... Image 1
L’évolution des IA conversationnelles : révolution de la ... Image 1

Une nouvelle révolution de la recherche sur le Web ? Quand l’IA de Claude outille les développeurs pour réinventer la recherche web.

La mutation de la recherche Web traditionnelle sous l’impulsion de l’IA prend des formes multiples.

Cette mutation s’est traduite par une profusion d’innovations, qui illustrent la dynamique actuelle de l’IA appliquée à la recherche d’information :

● Les géants s’adaptent : Google et Bing, mais aussi des acteurs plus discrets comme you.com ou Brave, intègrent l’IA pour améliorer la pertinence de leurs résultats.

● L’essor de nouveaux moteurs : des outils « natifs IA » comme Perplexity AI, ou plus spécialisés comme Felo, Genspark et Andi, repoussent les limites de la recherche traditionnelle.

● Des extensions dopées à l’IA : Wiseone, Monica et d’autres facilitent l’accès à l’information directement dans votre navigateur.

● Les modèles de langage en action : OpenAI, Claude, Grok et leurs semblables embarquent des fonctions de recherche avancée (Deep Research) pour des réponses plus riches.

Mais un autre changement, moins visible et potentiellement plus disruptif, se dessine: les utilisateurs peuvent désormais personnaliser leur expérience de recherche selon leurs besoins spécifiques. On sort de la logique uniforme des moteurs de recherche traditionnels.

Dans ce cadre, Anthropic a dévoilé une API novatrice. Elle permet à son IA, Claude, de s’intégrer dans des applications capables de scruter le web en temps réel.

Avec cette API, Claude n’est plus limité à ses données d’entraînement : il peut explorer Internet en temps réel, accéder à des informations actualisées et citer ses sources avec précision. Il pourrait s’appuyer sur un moteur comme Brave Search pour l’indexation, même si ce point reste à confirmer.

Et Claude ne se limite pas à fournir des liens. Il décortique la question posée, lance des recherches ciblées, filtre les résultats, les synthétise et livre une réponse claire et sourcée. Mieux encore, il peut affiner ses investigations étape par étape, comme un assistant intelligent qui apprend au fur et à mesure.

Un outil modulable pour les développeurs :

Pour 10 dollars par tranche de 1 000 requêtes (plus le coût par token ), cet outil offre une grande flexibilité :

  • Autoriser ou bloquer des sites spécifiques.
  • Instaurer des règles strictes de confidentialité.
  • Restreindre son usage à une organisation.

Un atout en entreprise :

Nul doute que les responsables informatique et sécurité y trouveront leur compte : ils pourront limiter les sources à des sites fiables et conformes (par exemple, au RGPD), un avantage clé dans les secteurs sensibles. L’outil peut aussi être taillé sur mesure, par exemple pour ne fouiller que des bases académiques ou des médias approuvés.

En clair, cette innovation donne à chacun la possibilité de créer « son propre Google » , adapté à ses propres exigences.

On peut ainsi envisager beaucoup d'applications dans le secteur de la veille : par exemple créer une application qui utilise Claude pour suivre en temps réel les annonces de vos concurrents à partir de sources soigneusement choisies et pouvoir les croiser avec vos données internes, le tout sans quitter votre interface habituelle.

On va ainsi clairement dans le sens de la per­sonnalisation de l'environnement de travail tout entier vers lequel nous emmènent les IA, comme on le verra dans la partie suivante de cet article.

En parallèle au développement API, Anthropic déploie également des fonctionnalités de recherche web directement dans ses modèles les plus récents (comme Claude 3.7 Sonnet) pour ses utilisateurs finaux, notamment les abonnés payants.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Le danger des articles de recherche médicale frauduleux

 François LIBMANN
Bases no
436
publié en
2025.05
841
Acheter ce no
Tags
littérature scientifique | ist | information scientifique et technique | fake news | biomédical
Le danger des articles de recherche médicale frauduleux Image 1
Le danger des articles de recherche médicale frauduleux Image 1

En 2009 les lignes directrices de la société européenne de cardiologie recommandaient l’usage des bêta bloquants pour protéger le cœur lors d’opération non cardiaque. Ces lignes directrices étaient déduites d’une série d’études menées depuis 1999. Ces directives ont été modifiées en 2013 à la suite d’une « expression of concern » publiée dans L’European Heart Journal recommandant que ces lignes directrices ne dussent plus être appliquées en routine, mais faire l’objet d’une analyse au cas par cas.

En effet, un article publié en 2014 “ Meta-analysis of secure randomised controlled trials of β-blockade to prevent perioperative death in non-cardiac surgery “ de Bouri, S., Shun-Shin, M. J., Cole, G. D., Mayet, J. & Francis, D. P. Heart 100 , 456-464 (2014). a remis drasti­quement en cause les essais réalisés par l’organisme néerlandais DECREASE qui constituaient le socle de ces lignes directrices. Les auteurs ont utilisé pour cela une autre série d’études considérées, elles, comme sûres, réalisées sur un total de 10 529 patients. Les résultats ont montré que l’application des directives de 1999 augmentait la mortalité à 30 jours de 27 %. Les auteurs ont donc recommandé d’abroger sans délai les recommandations de 1999. D’autres auteurs ont considéré que ces mauvaises lignes directrices étaient responsables de jusqu’à 10 000 décès par an au Royaume-Uni.

Cet exemple montre l’urgence qu’il y ait à détecter le plus tôt possible les articles douteux ou carrément frauduleux qui servent de fondement à des lignes directrices médicales.

C’est pourquoi le ‘ Center for Scientific Integrity ’ l’organisme sans but lucratif gérant ‘ Retractation Watch ’, qui recense les articles scientifiques rétractés, a lancé le ‘ Medical Evidence Project ’ dont l’objet est de détecter le plus vite possible les mauvaises conclusions dans le domaine médical qui menacent la qualité de vie voire la vie des patients.

Ce projet piloté par James Heathers, un consultant en intégrité scientifique a reçu un financement pour deux ans de 900 000 $ de la part d’ Open Philantropy . Il annonce avoir déjà repéré deux articles problématiques contribuant à l’élaboration de deux directives médicales.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Quelles perspectives pour le veilleur à l'heure de pratiques prédatrices de son temps et de son discernement ?

CORINNE DUPIN, Consultante du cabinet Ourouk
Bases no
435
publié en
2025.04
1159
Acheter ce no
Tags
IA | professionnel de l'information
Quelles perspectives pour le veilleur à l'heure de ... Image 1
Quelles perspectives pour le veilleur à l'heure de ... Image 1

L’avenir du métier de veilleur est assuré… pour peu qu’il joue à plein sa fonction d’éclaireur, garant du pluralisme et apôtre du temps long.

Récemment invitée à m’exprimer sur l’avenir du métier de veilleur devant une communauté de praticiens de la veille, je me suis souvenue d’avoir été sollicitée sur le même sujet il y a une dizaine d’années (1). Il faut croire que tous les 10 ans environ, une évolution technologique vient perturber le quotidien professionnel et la sérénité des veilleurs.

A l’époque, les préoccupations portaient sur les flux RSS (en passe de submerger le quotidien du veilleur et de l’aliéner au temps réel), la démocratisation de la curation (qui allait de pair avec la quête d’autonomie des usagers/clients), le règne de la conversation à l’heure des réseaux sociaux. Aujourd’hui, l’inquiétude est plutôt le fait de l’irruption des IA génératives avec l’avènement soudain, horizontal et gratuit, de ChatGPT.

Il y a 10 ans, je considérais déjà l’activité de veille comme une activité en mutation, qui s’orientait résolument vers l’accompagnement, le conseil, le transfert méthodologique. Il était de la même façon question de « destruction créatrice » (applicable aux usages comme aux métiers) promise par le numérique. Les réseaux sociaux sont toujours là, prêts sans désemparer à nous soumettre, si nous n’y prenons garde, à un régime d’alertes permanentes et à une réactivité maximale. La donne actuelle est complétée par la multiplication des contenus trompeurs (fake news, faux journaux scientifiques, revues et congrès prédateurs (2)…). Des conférences récentes, notamment à l’occasion de Documation, s’interrogent sur l’avenir des métiers de l’information, de l’intelligence économique et de la connaissance face à ces nouveaux défis et invitent à leur « réinvention » (quand la plupart des intervenants à la tribune ont préféré minimiser les efforts à produire en ne parlant que d’adaptation…).

Il m’apparaît plus que jamais nécessaire de réhabiliter le temps long, ce que la lecture d’un ouvrage récent du sociologue du numérique Dominique Boullier (3), entendu ce mois-ci à la faveur d’un séminaire, a conforté (4). À rebours du temps réel, de l’immédiateté, de la réactivité, du court terme, qui me sont toujours apparus comme l’expression d’une temporalité antinomique avec celle de la veille, l’exigence d’un rythme plus lent, plus délibératif, plus critique, que Dominique Boullier appelle de ses vœux, me semble être largement de mise.

L’IA développe ce que le sociologue désigne comme une « culture de la réponse immédiate et unique » (le plus souvent, même, sans source). ChatGPT et consorts créent l’illusion de la facilité et pourraient faire croire au chercheur d’information paresseux que la réponse à la question qu’il formule est unique. Google est sur la même ligne lorsque, au lieu de nous proposer en première lecture une liste de liens à explorer comme il le faisait jusqu’ici, il se mue en moteur de réponse (5) en nous proposant désormais, en première intention, une information résumée, qui pourrait dispenser les plus pressés et les moins scrupuleux d’entre nous d’investiguer plus avant.

J’engageais le veilleur, il y a 10 ans, à faire un pas de côté (plutôt que de courir avec la foule), à capter l’attention dans un univers éditorial très concurrentiel et à développer un point de vue. Aujourd’hui, à l’heure de l’IA et du Big Data qui riment surtout avec vélocité pour la première et volume pour le second, ces incitations semblent toujours d’actualité.

La vitesse, comme l’exprime avec netteté Dominique Boullier, n’est pas l’amie du débat, de la discussion, de l’explicitation des désaccords, de la délibération, ni de la résol­ution de problème. Or le veilleur est censé proposer des éléments de réflexion, anticiper des conséquences, relever des arguments, fruit d’une investigation et de la confrontation de sources, toutes choses nécessitant un temps incompressible d’approfondissement et d’élaboration. Traiter le volume réclame du temps (a minima de vérification).

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Préprints biomédicaux : bioRxiv et medRxiv intègrent openRxiv, une structure de gouvernance indépendante

François LIBMANN
Bases no
435
publié en
2025.04
1057
Acheter ce no
Tags
science ouverte | open access | littérature scientifique | ist | information scientifique et technique | biomédical | abstracts
Préprints biomédicaux : bioRxiv et medRxiv intègrent ... Image 1
Préprints biomédicaux : bioRxiv et medRxiv intègrent ... Image 1

L’écosystème des préprints dans le domaine biomédical connaît une évolution majeure avec la création d’openRxiv, une structure indépendante à but non lucratif destinée à piloter et développer les serveurs de préprints bioRxiv et medRxiv. 

Ces deux plateformes publient les articles scientifiques qui leur sont soumis dès que leurs auteurs les jugent comme terminés, sans attendre une peer review pour décider de la publication dans le journal auquel ils auraient été envoyés. En effet, les délais avant décision peuvent atteindre plusieurs mois et parfois dépasser un an.

● bioRxiv a été créé en 2013 et propose aujourd’hui environ 274 000 documents écrits par 970 000 auteurs, et 4 000 nouveaux documents sont ajoutés chaque mois.

● Pour sa part, medRxiv a été créé en 2019 et propose aujourd’hui près de 66 000 documents écrits par plus de 380 000 auteurs, et 1 000 nou­veaux documents sont ajoutés chaque mois.

Ces deux plateformes ont joué un rôle important pendant la pandémie de COVID 19 au cours de laquelle la diffusion rapide de l’information scien­tifique a été cruciale.

Les articles transmis à ces plateformes sont mis en ligne dans les deux ou trois jours après de simples vérifications de conformité : article de nature scientifique, non-plagiat, qualité de la rédaction en anglais, entre autres.

Chaque mois, plus de 11 millions de chercheurs du monde entier dans les domaines des sciences de la vie et de la médecine effectuent des recherches sur ces plateformes.

Des soutiens au long court

La création et le succès de ces deux plateformes ont été rendus possibles grâce au soutien de plusieurs acteurs tels que le Cold Spring Harbor Laboratory à New York qui les héberge, l’éditeur BMJ Group, l’école de médecine de l’Université de Yale et la Chan Zuckerberg Initiative (CZI), qui a investi environ 31,7 millions de dollars depuis 2017.

La création d’openRxiv se distingue par son caractère indépendant et sa gouvernance com­posée de chercheurs. Son objectif principal est de gérer et développer les plateformes, une tâche qui était auparavant une parmi d’autres pour ceux qui géraient ces deux serveurs.

Freins et solutions dans le domaine des préprints

Si l’avantage évident du serveur de préprint est la rapidité de mise à disposition des articles, il existe néanmoins deux types de freins à ce système.

1. Le premier est que les auteurs peuvent craindre que la présence de leur article sur un serveur de préprint rende impossible sa prise en compte pour publication dans un journal pratiquant le peer review.

Cette crainte est de moins en moins justifiée puisque 249 journaux acceptent que les articles qui leur sont soumis soient, dans le même temps, chargés sur bioRxiv. Ces 249 journaux sont publiés par des éditeurs tels que PLOS, Springer Nature, AHA Journals ou BMJ Group.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Crise de reproductibilité : quand la science peine à confirmer ses propres résultats

François LIBMANN
Bases no
435
publié en
2025.04
1457
Acheter ce no
Tags
protocole | méthodologie | ist | information scientifique et technique
Crise de reproductibilité : quand la science peine à ... Image 1
Crise de reproductibilité : quand la science peine à ... Image 1

Un constat alarmant sur les méthodes de recherche

Un article publié en décembre 2021 a provoqué une onde de choc dans la communauté scientifique (1). Consul­té plus de 20 400 fois, téléchargé près de 2 000 fois et ayant fait l’objet de 141 citations à ce jour, cette étude révèle un problème fondamental dans la recherche scientifique.

Les chercheurs ont tenté de reproduire 193 expériences décrites dans 53 articles à fort impact, dont les protocoles et plans d’analyse avaient été validés par des pairs avant leur publication. Le résultat est préoccupant : seules 50 expériences (26 %) issues de 23 articles (43 %) ont pu être reproduites. Plus troublant encore, 32 % des auteurs contactés ont refusé de répondre ou sont restés silencieux face aux demandes de précisions.

Des initiatives européennes pour renforcer la rigueur méthodologique

Cette crise de reproductibilité a certainement influencé le Centre commun de recherche (JRC) de la Commission européenne, qui a organisé en juin 2022 un atelier aboutissant au projet PRO-MAP (Promoting Reusable and Open Methods and Protocols).

Les recommandations issues de ce projet, d’abord publiées sous forme de préprint en juin 2023, ont été finalisées en septembre 2024 dans un document intitulé « Promoting Reusable and Open Methods and Protocols (PRO-MaP): Recommendations to improve methodological clarity in life science publications », disponible auprès de l’Office des publications de l’Union européenne.

Bien que ces recommandations aient été élaborées spécifiquement pour les sciences du vivant, elles offrent des perspectives précieuses pour d’autres domaines scientifiques.

L’engagement des éditeurs pour des protocoles transparents

Mais, cette préoccupation concernant la qualité des protocoles expérimentaux n’est pas nouvelle. Dès 2006, l’éditeur Springer Nature lançait Nature Protocols, une revue pionnière dédiée aux méthodologies scientifiques.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • ›
  • Fin