Sélectionner le numéro de "Bases" à afficher

La veille collaborative à l’épreuve du réel : retours d’expériences et leçons apprises

CORINNE DUPIN, consultante du cabinet Ourouk
Bases no
436
publié en
2025.05
91
Acheter ce no
Tags
veille collaborative | professionnel de l'information
La veille collaborative à l’épreuve du réel : retours ... Image 1
La veille collaborative à l’épreuve du réel : retours ... Image 1

Tel est le titre de la matinée d’étude organisée et animée conjointement par l’ADBS et le CNAM/INTD le 2 avril dernier. Invitée à y cadrer le sujet (polysémique) de la veille collaborative, je propose ici une restitution sélective des interventions entendues ce jour-là, complétée par ma propre expérience de praticienne et de consultante amenée à accompagner ou observer la mise en place de tels dispositifs depuis une quinzaine d’années.

Le sujet de la veille collaborative revient à peu près tous les dix à quinze ans justement sur la table : il suscite l’intérêt à un rythme régulier, porteur qu’il est d’un idéal exigeant et de la promesse de synergies et de « désilotage » dans les organisations, mais il faut bien reconnaître que ce type de démarche rencontre plus souvent ses limites que son public, comme l’a énoncé avec justesse Thomas Grignon (1) dans son discours introductif.

Le premier enseignement de cette matinée est que les professionnels de l’information ont une définition extensive de la veille collaborative, dont ils font une activité de surveillance mobilisant un collectif. Cette définition large n’est pas la mienne. Que la veille soit une activité requérant plusieurs forces vives est une évidence. La qualifier de collaborative introduit à mon sens le fait de distribuer l’effort de veille auprès d’un ensemble de contributeurs au nombre desquels figurent nécessairement des acteurs métiers, habituellement simples destinataires de la veille, désormais contributeurs actifs.

Reconnaissons qu’il n’est pas aisé de proposer de la veille collaborative une définition consensuelle compte tenu de la diversité des formes qu’elle peut prendre dans des configurations très variables, des « 1001 visages » qu’elle offre.

Sa mise en place, pour commencer, n’obéit pas aux mêmes éléments déclencheurs : si le défaut de ressources est souvent premier (une équipe étriquée, ne pouvant à elle seule pourvoir à l’ensemble des besoins en information, est tentée d’élargir le nombre de ses contributeurs), d’autres motifs relèvent du constat de pratiques de veille essentiellement individuelles, artisanales et informelles, d’un sentiment de solitude et de cloisonnement (avivant le risque de doublons et d’incohérences dans le recueil et l’analyse des informations), d’une volonté d’autonomie des bénéficiaires de la veille (désireux d’apporter leur pierre à l’édifice), etc. Le motif déclencheur peut aussi être une injonction managériale, une direction faisant parfois le pari qu’un tel dispositif contribuera à favoriser la collaboration entre des services et métiers se rencontrant peu malgré l’intérêt qu’ils auraient à travailler ensemble.

Pour autant, la veille collaborative ne postule pas forcément de la transversalité autour de sujets fédérateurs à fort enjeu (la compréhension d’un marché, la détection d’évolutions sociétales…) ou même des zones d’adhérence dans les sujets traités : elle peut concerner des sujets ponctuels qui n’intéresseront qu’un groupe limité d’acteurs.

Un dispositif de veille collaborative ne se reconnaît pas davantage à un mode d’organisation particulier. Il peut s’appuyer sur une communauté constituée, dont les membres se rencontrent à échéances régulières, pilotée par une équipe ou un community manager. Il peut aussi consister en des rendez-vous ritualisés en petits comités, dont l’objet est de coproduire (ou pas) des livrables. Il peut encore se traduire par la sollicitation ponctuelle d’experts qui ne sont jamais les mêmes.

Au CETIM (2), l’équipe de 8 veilleurs emmenée par Laurent Couvé (3) implique une quarantaine des 700 experts techniques (ingénieurs, techniciens supérieurs, docteurs, répartis aux quatre coins de la France) dans la couverture des salons, congrès et autres journées techniques (4) : charge à eux de rédiger un compte-rendu de l’événement relevant de la spécialité qui les concerne (une note de veille en contrepartie du financement de leur déplacement), à l’attention des industriels cotisants qui ne disposent pas des ressources suffisantes pour effectuer eux-mêmes ce travail de détection des sujets émergents. La restitution des enseignements du salon auprès des industriels lors d’un webinaire représente pour les experts du CETIM une occasion précieuse de se faire connaître et de « décrocher » potentiellement des clients, tandis que la coopération avec les experts a pour retombée indirecte des demandes de recherches bibliographiques plus étoffées auprès de l’équipe de veille.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Trois métiers, une vision : Serda-Archimag face aux enjeux de l’IA générative

Christel RONSIN
Bases no
436
publié en
2025.05
63
Acheter ce no
Tags
IA | presse en ligne | professionnel de l'information
Trois métiers, une vision : Serda-Archimag face aux enjeux ... Image 1
Trois métiers, une vision : Serda-Archimag face aux enjeux ... Image 1
Interview de Louise Guerre, Co-Présidente du Groupe Serda-Archimag. Interview menée par Christel Ronsin

Nous avons souhaité interroger Louise Guerre afin de recueillir son témoignage sur la mise en place et l’utilisation de l’intelligence artificielle générative au sein d’une société spécialisée dans le management de l’information.

Louise Guerre est, avec Pierre Fuseau, dirigeante du groupe Serda-Archimag depuis sa création en 1985. Elle est également responsable mécénat et laboratoire des curiosités de l’association Étincelle, qui accompagne les jeunes décrocheurs. Avant cette date, Louise Guerre a présidé durant deux ans le Centre des Jeunes Dirigeants d’Entreprise (CJD), qui est le plus ancien mouvement patronal. Elle a également passé cinq ans au conseil d’administration d’Action contre la Faim.

CHRISTEL RONSIN : Louise, pouvez-vous nous expliquer comment l’intelligence artificielle générative (IAG) a été intégrée au sein du groupe Serda-Archimag ?

LOUISE GUERRE : Bien que l’Intelligence artificielle ait une histoire de plus de 50 ans, c’est avec l’arrivée des IAG en 2023 que nous avons observé un nouvel engouement pour cette technologie. J’ai alors immédiatement lancé un groupe de travail sur l'intelligence artificielle générative pour examiner son impact potentiel sur nos activités. En novembre 2023, ce groupe a réuni la rédactrice en chef d’ Archimag , Clémence Jost, un représentant de notre agence de communication éditoriale, ACE, un représentant de Serda Conseil et enfin un représentant de Serda Compétences. Ainsi tous les métiers étaient représentés. Comme nous le faisons habituellement, nous avons élaboré une note de cadrage, un PQP (Plan Qualité de Projet), et défini des livrables.

Nous avons rapidement identifié les opportunités fantastiques que les IAG pouvaient offrir, tout en mettant en lumière les craintes qu’elles pouvaient susciter parmi les professionnels de l’information, qui sont nos clients, ainsi que dans la société plus largement. Nous avons également évalué l’impact potentiel sur les divers métiers présents dans notre entreprise : les formateurs, les consultants, les journalistes, les rédacteurs, les commerciaux et le marketing.

Pour mieux comprendre ces enjeux, nous avons jugé essentiel de nous former. La formation est le meilleur moyen d’affiner nos craintes, d’y remédier si possible, et d’identifier les opportunités. Nous avons donc mis en place un vaste programme, adapté à chaque métier. Il est essentiel que le formateur soit un spécialiste du domaine, sinon la formation perd de sa pertinence.

CR : Pouvez-vous détailler ce plan de formation à l’intelligence artificielle générative, mis en place pour les collaborateurs de Serda-Archimag ?

LG : Chaque collaborateur a bénéficié d’une journée de formation à l’IAG, adaptée à son métier. Ainsi, il y a eu une journée dédiée aux consultants, une autre pour notre activité de formation, une pour les commerciaux, une pour le marketing, et enfin une dédiée aux journalistes. Chacun a pu explorer le potentiel de l’IA dans son domaine spécifique, ainsi que les limites de son utilisation.

Au sein de l’équipe, les journalistes ont été les plus réticents à l’idée d’utiliser l'IAG. J'ai dû les convaincre en expliquant que cet outil ne remplacerait pas leur travail, mais pourrait les assister dans certaines tâches. Par exemple, pour un sujet traité plusieurs fois, l’IAG pourrait aider à trouver de nouveaux angles. Ou encore, pour synthétiser des rapports volumineux, elle pourrait fournir un résumé ciblé sur des sujets spécifiques, ce qui est particulièrement utile pour une rédaction de notre taille (7 journalistes). Enfin, l’intelligence artificielle générative peut également être utilisée pour des tâches de secrétariat de rédaction, comme la reformulation de phrases. Globalement, nous considérons l’IA comme un assistant et non comme un remplaçant de l’humain. Mon mot d’ordre a été : on réfléchit et on pense par soi-même, et ensuite on utilise les assistants utiles, et surtout pas l’inverse.

Les journalistes ont souhaité dès le départ adopter une charte stipulant que tout contenu généré par l’intelligence artificielle, qu’il s’agisse d’articles ou d’images, serait clairement identifié comme tel. Bien qu’ils aient accepté d’explorer certaines utilisations, ils restent opposés à l’idée que l’IAG puisse écrire des articles à leur place, même pour des brèves ou des actualités.

CR : Quelles sont les considérations éthiques par rapport à l’utilisation de l’IA pour la production journalistique ?

LG : Notre utilisation des IAG nécessite une réflexion approfondie sur les garde-fous éthiques. Dès la fin 2023, nous avons examiné une charte élaborée par Reporters sans Frontières (Cf. Figure 1), issue des travaux d’une commission internationale, qui propose dix principes éthiques. À la rédaction d’Archimag, nous avons décidé d’adopter ces principes pour guider notre utilisation de l’intelligence artificielle générative.

Nous avons également discuté de la manière de garantir la transparence. Clémence Jost a donc rédigé un éditorial affirmant que si jamais un article était écrit par une IA, ce serait explicitement signalé aux lecteurs. Néanmoins ce n’est pas du tout dans nos projets.

Nous avons aussi toujours pour principe d’évaluer et valider les suggestions proposées et de vérifier les sources suggérées par des outils comme Perplexity par exemple.

En ce qui concerne le droit d’auteur, cette question ne se pose pas pour nous puisque nos journalistes n’utilisent pas l’IAG pour produire du contenu.

CR : À la suite du plan de formation, comment vos collaborateurs ont-ils intégré l’intelligence artificielle générative dans leur travail quotidien ?

LG : La formation a eu un impact considérable sur nos collaborateurs, qui sont des professionnels curieux. Ils ont réalisé que l’IA pouvait accomplir bien plus de tâches qu’ils ne l’avaient initialement envisagé. Cela leur a permis de l’adopter comme un assistant efficace dans leur travail quotidien et de bénéficier d’un cadre clair pour décider quand et comment l’utiliser.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

L’évolution des IA conversationnelles : révolution de la recherche web, intégration professionnelle et personnalisation par la mémoire

Anne-Marie LIBMANN
Bases no
436
publié en
2025.05
72
Acheter ce no
Tags
ChatGPT | Bing | recherche Web | Google | actualités | IA
L’évolution des IA conversationnelles : révolution de la ... Image 1
L’évolution des IA conversationnelles : révolution de la ... Image 1

Une nouvelle révolution de la recherche sur le Web ? Quand l’IA de Claude outille les développeurs pour réinventer la recherche web.

La mutation de la recherche Web traditionnelle sous l’impulsion de l’IA prend des formes multiples.

Cette mutation s’est traduite par une profusion d’innovations, qui illustrent la dynamique actuelle de l’IA appliquée à la recherche d’information :

● Les géants s’adaptent : Google et Bing, mais aussi des acteurs plus discrets comme you.com ou Brave, intègrent l’IA pour améliorer la pertinence de leurs résultats.

● L’essor de nouveaux moteurs : des outils « natifs IA » comme Perplexity AI, ou plus spécialisés comme Felo, Genspark et Andi, repoussent les limites de la recherche traditionnelle.

● Des extensions dopées à l’IA : Wiseone, Monica et d’autres facilitent l’accès à l’information directement dans votre navigateur.

● Les modèles de langage en action : OpenAI, Claude, Grok et leurs semblables embarquent des fonctions de recherche avancée (Deep Research) pour des réponses plus riches.

Mais un autre changement, moins visible et potentiellement plus disruptif, se dessine: les utilisateurs peuvent désormais personnaliser leur expérience de recherche selon leurs besoins spécifiques. On sort de la logique uniforme des moteurs de recherche traditionnels.

Dans ce cadre, Anthropic a dévoilé une API novatrice. Elle permet à son IA, Claude, de s’intégrer dans des applications capables de scruter le web en temps réel.

Avec cette API, Claude n’est plus limité à ses données d’entraînement : il peut explorer Internet en temps réel, accéder à des informations actualisées et citer ses sources avec précision. Il pourrait s’appuyer sur un moteur comme Brave Search pour l’indexation, même si ce point reste à confirmer.

Et Claude ne se limite pas à fournir des liens. Il décortique la question posée, lance des recherches ciblées, filtre les résultats, les synthétise et livre une réponse claire et sourcée. Mieux encore, il peut affiner ses investigations étape par étape, comme un assistant intelligent qui apprend au fur et à mesure.

Un outil modulable pour les développeurs :

Pour 10 dollars par tranche de 1 000 requêtes (plus le coût par token ), cet outil offre une grande flexibilité :

  • Autoriser ou bloquer des sites spécifiques.
  • Instaurer des règles strictes de confidentialité.
  • Restreindre son usage à une organisation.

Un atout en entreprise :

Nul doute que les responsables informatique et sécurité y trouveront leur compte : ils pourront limiter les sources à des sites fiables et conformes (par exemple, au RGPD), un avantage clé dans les secteurs sensibles. L’outil peut aussi être taillé sur mesure, par exemple pour ne fouiller que des bases académiques ou des médias approuvés.

En clair, cette innovation donne à chacun la possibilité de créer « son propre Google » , adapté à ses propres exigences.

On peut ainsi envisager beaucoup d'applications dans le secteur de la veille : par exemple créer une application qui utilise Claude pour suivre en temps réel les annonces de vos concurrents à partir de sources soigneusement choisies et pouvoir les croiser avec vos données internes, le tout sans quitter votre interface habituelle.

On va ainsi clairement dans le sens de la per­sonnalisation de l'environnement de travail tout entier vers lequel nous emmènent les IA, comme on le verra dans la partie suivante de cet article.

En parallèle au développement API, Anthropic déploie également des fonctionnalités de recherche web directement dans ses modèles les plus récents (comme Claude 3.7 Sonnet) pour ses utilisateurs finaux, notamment les abonnés payants.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Le danger des articles de recherche médicale frauduleux

 François LIBMANN
Bases no
436
publié en
2025.05
59
Acheter ce no
Tags
littérature scientifique | ist | information scientifique et technique | fake news | biomédical
Le danger des articles de recherche médicale frauduleux Image 1
Le danger des articles de recherche médicale frauduleux Image 1

En 2009 les lignes directrices de la société européenne de cardiologie recommandaient l’usage des bêta bloquants pour protéger le cœur lors d’opération non cardiaque. Ces lignes directrices étaient déduites d’une série d’études menées depuis 1999. Ces directives ont été modifiées en 2013 à la suite d’une « expression of concern » publiée dans L’European Heart Journal recommandant que ces lignes directrices ne dussent plus être appliquées en routine, mais faire l’objet d’une analyse au cas par cas.

En effet, un article publié en 2014 “ Meta-analysis of secure randomised controlled trials of β-blockade to prevent perioperative death in non-cardiac surgery “ de Bouri, S., Shun-Shin, M. J., Cole, G. D., Mayet, J. & Francis, D. P. Heart 100 , 456-464 (2014). a remis drasti­quement en cause les essais réalisés par l’organisme néerlandais DECREASE qui constituaient le socle de ces lignes directrices. Les auteurs ont utilisé pour cela une autre série d’études considérées, elles, comme sûres, réalisées sur un total de 10 529 patients. Les résultats ont montré que l’application des directives de 1999 augmentait la mortalité à 30 jours de 27 %. Les auteurs ont donc recommandé d’abroger sans délai les recommandations de 1999. D’autres auteurs ont considéré que ces mauvaises lignes directrices étaient responsables de jusqu’à 10 000 décès par an au Royaume-Uni.

Cet exemple montre l’urgence qu’il y ait à détecter le plus tôt possible les articles douteux ou carrément frauduleux qui servent de fondement à des lignes directrices médicales.

C’est pourquoi le ‘ Center for Scientific Integrity ’ l’organisme sans but lucratif gérant ‘ Retractation Watch ’, qui recense les articles scientifiques rétractés, a lancé le ‘ Medical Evidence Project ’ dont l’objet est de détecter le plus vite possible les mauvaises conclusions dans le domaine médical qui menacent la qualité de vie voire la vie des patients.

Ce projet piloté par James Heathers, un consultant en intégrité scientifique a reçu un financement pour deux ans de 900 000 $ de la part d’ Open Philantropy . Il annonce avoir déjà repéré deux articles problématiques contribuant à l’élaboration de deux directives médicales.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Quelles perspectives pour le veilleur à l'heure de pratiques prédatrices de son temps et de son discernement ?

CORINNE DUPIN, Consultante du cabinet Ourouk
Bases no
435
publié en
2025.04
502
Acheter ce no
Tags
IA | professionnel de l'information
Quelles perspectives pour le veilleur à l'heure de ... Image 1
Quelles perspectives pour le veilleur à l'heure de ... Image 1

L’avenir du métier de veilleur est assuré… pour peu qu’il joue à plein sa fonction d’éclaireur, garant du pluralisme et apôtre du temps long.

Récemment invitée à m’exprimer sur l’avenir du métier de veilleur devant une communauté de praticiens de la veille, je me suis souvenue d’avoir été sollicitée sur le même sujet il y a une dizaine d’années (1). Il faut croire que tous les 10 ans environ, une évolution technologique vient perturber le quotidien professionnel et la sérénité des veilleurs.

A l’époque, les préoccupations portaient sur les flux RSS (en passe de submerger le quotidien du veilleur et de l’aliéner au temps réel), la démocratisation de la curation (qui allait de pair avec la quête d’autonomie des usagers/clients), le règne de la conversation à l’heure des réseaux sociaux. Aujourd’hui, l’inquiétude est plutôt le fait de l’irruption des IA génératives avec l’avènement soudain, horizontal et gratuit, de ChatGPT.

Il y a 10 ans, je considérais déjà l’activité de veille comme une activité en mutation, qui s’orientait résolument vers l’accompagnement, le conseil, le transfert méthodologique. Il était de la même façon question de « destruction créatrice » (applicable aux usages comme aux métiers) promise par le numérique. Les réseaux sociaux sont toujours là, prêts sans désemparer à nous soumettre, si nous n’y prenons garde, à un régime d’alertes permanentes et à une réactivité maximale. La donne actuelle est complétée par la multiplication des contenus trompeurs (fake news, faux journaux scientifiques, revues et congrès prédateurs (2)…). Des conférences récentes, notamment à l’occasion de Documation, s’interrogent sur l’avenir des métiers de l’information, de l’intelligence économique et de la connaissance face à ces nouveaux défis et invitent à leur « réinvention » (quand la plupart des intervenants à la tribune ont préféré minimiser les efforts à produire en ne parlant que d’adaptation…).

Il m’apparaît plus que jamais nécessaire de réhabiliter le temps long, ce que la lecture d’un ouvrage récent du sociologue du numérique Dominique Boullier (3), entendu ce mois-ci à la faveur d’un séminaire, a conforté (4). À rebours du temps réel, de l’immédiateté, de la réactivité, du court terme, qui me sont toujours apparus comme l’expression d’une temporalité antinomique avec celle de la veille, l’exigence d’un rythme plus lent, plus délibératif, plus critique, que Dominique Boullier appelle de ses vœux, me semble être largement de mise.

L’IA développe ce que le sociologue désigne comme une « culture de la réponse immédiate et unique » (le plus souvent, même, sans source). ChatGPT et consorts créent l’illusion de la facilité et pourraient faire croire au chercheur d’information paresseux que la réponse à la question qu’il formule est unique. Google est sur la même ligne lorsque, au lieu de nous proposer en première lecture une liste de liens à explorer comme il le faisait jusqu’ici, il se mue en moteur de réponse (5) en nous proposant désormais, en première intention, une information résumée, qui pourrait dispenser les plus pressés et les moins scrupuleux d’entre nous d’investiguer plus avant.

J’engageais le veilleur, il y a 10 ans, à faire un pas de côté (plutôt que de courir avec la foule), à capter l’attention dans un univers éditorial très concurrentiel et à développer un point de vue. Aujourd’hui, à l’heure de l’IA et du Big Data qui riment surtout avec vélocité pour la première et volume pour le second, ces incitations semblent toujours d’actualité.

La vitesse, comme l’exprime avec netteté Dominique Boullier, n’est pas l’amie du débat, de la discussion, de l’explicitation des désaccords, de la délibération, ni de la résol­ution de problème. Or le veilleur est censé proposer des éléments de réflexion, anticiper des conséquences, relever des arguments, fruit d’une investigation et de la confrontation de sources, toutes choses nécessitant un temps incompressible d’approfondissement et d’élaboration. Traiter le volume réclame du temps (a minima de vérification).

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Préprints biomédicaux : bioRxiv et medRxiv intègrent openRxiv, une structure de gouvernance indépendante

François LIBMANN
Bases no
435
publié en
2025.04
400
Acheter ce no
Tags
science ouverte | open access | littérature scientifique | ist | information scientifique et technique | biomédical | abstracts
Préprints biomédicaux : bioRxiv et medRxiv intègrent ... Image 1
Préprints biomédicaux : bioRxiv et medRxiv intègrent ... Image 1

L’écosystème des préprints dans le domaine biomédical connaît une évolution majeure avec la création d’openRxiv, une structure indépendante à but non lucratif destinée à piloter et développer les serveurs de préprints bioRxiv et medRxiv. 

Ces deux plateformes publient les articles scientifiques qui leur sont soumis dès que leurs auteurs les jugent comme terminés, sans attendre une peer review pour décider de la publication dans le journal auquel ils auraient été envoyés. En effet, les délais avant décision peuvent atteindre plusieurs mois et parfois dépasser un an.

● bioRxiv a été créé en 2013 et propose aujourd’hui environ 274 000 documents écrits par 970 000 auteurs, et 4 000 nouveaux documents sont ajoutés chaque mois.

● Pour sa part, medRxiv a été créé en 2019 et propose aujourd’hui près de 66 000 documents écrits par plus de 380 000 auteurs, et 1 000 nou­veaux documents sont ajoutés chaque mois.

Ces deux plateformes ont joué un rôle important pendant la pandémie de COVID 19 au cours de laquelle la diffusion rapide de l’information scien­tifique a été cruciale.

Les articles transmis à ces plateformes sont mis en ligne dans les deux ou trois jours après de simples vérifications de conformité : article de nature scientifique, non-plagiat, qualité de la rédaction en anglais, entre autres.

Chaque mois, plus de 11 millions de chercheurs du monde entier dans les domaines des sciences de la vie et de la médecine effectuent des recherches sur ces plateformes.

Des soutiens au long court

La création et le succès de ces deux plateformes ont été rendus possibles grâce au soutien de plusieurs acteurs tels que le Cold Spring Harbor Laboratory à New York qui les héberge, l’éditeur BMJ Group, l’école de médecine de l’Université de Yale et la Chan Zuckerberg Initiative (CZI), qui a investi environ 31,7 millions de dollars depuis 2017.

La création d’openRxiv se distingue par son caractère indépendant et sa gouvernance com­posée de chercheurs. Son objectif principal est de gérer et développer les plateformes, une tâche qui était auparavant une parmi d’autres pour ceux qui géraient ces deux serveurs.

Freins et solutions dans le domaine des préprints

Si l’avantage évident du serveur de préprint est la rapidité de mise à disposition des articles, il existe néanmoins deux types de freins à ce système.

1. Le premier est que les auteurs peuvent craindre que la présence de leur article sur un serveur de préprint rende impossible sa prise en compte pour publication dans un journal pratiquant le peer review.

Cette crainte est de moins en moins justifiée puisque 249 journaux acceptent que les articles qui leur sont soumis soient, dans le même temps, chargés sur bioRxiv. Ces 249 journaux sont publiés par des éditeurs tels que PLOS, Springer Nature, AHA Journals ou BMJ Group.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Crise de reproductibilité : quand la science peine à confirmer ses propres résultats

François LIBMANN
Bases no
435
publié en
2025.04
471
Acheter ce no
Tags
protocole | méthodologie | ist | information scientifique et technique
Crise de reproductibilité : quand la science peine à ... Image 1
Crise de reproductibilité : quand la science peine à ... Image 1

Un constat alarmant sur les méthodes de recherche

Un article publié en décembre 2021 a provoqué une onde de choc dans la communauté scientifique (1). Consul­té plus de 20 400 fois, téléchargé près de 2 000 fois et ayant fait l’objet de 141 citations à ce jour, cette étude révèle un problème fondamental dans la recherche scientifique.

Les chercheurs ont tenté de reproduire 193 expériences décrites dans 53 articles à fort impact, dont les protocoles et plans d’analyse avaient été validés par des pairs avant leur publication. Le résultat est préoccupant : seules 50 expériences (26 %) issues de 23 articles (43 %) ont pu être reproduites. Plus troublant encore, 32 % des auteurs contactés ont refusé de répondre ou sont restés silencieux face aux demandes de précisions.

Des initiatives européennes pour renforcer la rigueur méthodologique

Cette crise de reproductibilité a certainement influencé le Centre commun de recherche (JRC) de la Commission européenne, qui a organisé en juin 2022 un atelier aboutissant au projet PRO-MAP (Promoting Reusable and Open Methods and Protocols).

Les recommandations issues de ce projet, d’abord publiées sous forme de préprint en juin 2023, ont été finalisées en septembre 2024 dans un document intitulé « Promoting Reusable and Open Methods and Protocols (PRO-MaP): Recommendations to improve methodological clarity in life science publications », disponible auprès de l’Office des publications de l’Union européenne.

Bien que ces recommandations aient été élaborées spécifiquement pour les sciences du vivant, elles offrent des perspectives précieuses pour d’autres domaines scientifiques.

L’engagement des éditeurs pour des protocoles transparents

Mais, cette préoccupation concernant la qualité des protocoles expérimentaux n’est pas nouvelle. Dès 2006, l’éditeur Springer Nature lançait Nature Protocols, une revue pionnière dédiée aux méthodologies scientifiques.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Comment échapper aux conférences prédatrices dans le domaine scientifique

FRANÇOIS LIBMANN
Bases no
435
publié en
2025.04
561
Acheter ce no
Tags
Reddit | information scientifique et technique | ist | conférences salons | agenda
Comment échapper aux conférences prédatrices dans le ... Image 1
Comment échapper aux conférences prédatrices dans le ... Image 1

Les conférences sont un des vecteurs essentiels de diffusion de l’information scientifique et académique. Ce canal présente un intérêt particulier, car il est fréquent que des conférences soient le cadre de la divulgation de nouvelles théories ou de résultats expérimentaux récents.

Si l’on fait déjà partie d’un milieu scientifique bien défini, il y a toutes les chances que l’on soit informé personnellement des prochaines conférences et/ou de les voir signalées dans les publications spécialisées de ce domaine.

Mais pour les personnes qui ne sont pas dans ce cas de figure, qu’elles s’intéressent à un domaine moins familier ou qu’elles soient en début de carrière, se pose la question de l’identification de conférences potentiellement intéressantes.

C’est là que cela se complique.

Nous avons identifié plusieurs dizaines de sites gratuits qui annoncent des conférences à venir. Le volume de ces annonces est très variable, puisqu’elle va de plusieurs centaines à plusieurs dizaines de milliers de conférences.

Un grand nombre de ces sites sont administrés par de petites entités indépendantes des organisateurs de conférences, tandis que d’autres sont gérés par les organisateurs eux-mêmes, qui peuvent être des sociétés commerciales, des éditeurs ou des sociétés savantes.

À ce stade, nous rencontrons deux difficultés.

La première est l’absence de sites exhaustifs. En effet, bien souvent, c’est à l’initiative de l’organisateur de la conférence qu’une annonce est publiée dans un site et il est peu probable qu’il fasse le tour de tous les sites existants. Il est donc raisonnable d’interroger plusieurs sites et, pour cela, il faut d’abord les identifier.

La deuxième concerne la présence de conférences prédatrices et des plateformes qui les répertorient massivement.

Ces conférences viennent parasiter l’écosystème des conférences scientifiques. Pour schématiser, l’organisateur d’une conférence prédatrice a comme seul objectif de maximiser son profit sans souci de la qualité de la conférence et, en particulier de son contenu scientifique.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Une nouvelle forme de peer review se développe rapidement

FRANÇOIS LIBMANN
Bases no
434
publié en
2025.03
1495
Acheter ce no
Tags
abstracts | archives ouvertes | biomédical | information scientifique et technique | ist | littérature scientifique | open access | références bibliographiques | science ouverte
Une nouvelle forme de peer review se développe rapidement Image 1
Une nouvelle forme de peer review se développe rapidement Image 1

Le peer review d’un article académique est, traditionnellement, une revue par les pairs avant publication. Il reste le fondement du fonctionnement de la majorité des éditeurs, qu’ils publient selon le schéma traditionnel dans lequel le lecteur paie en s’abonnant, ou qu’ils publient en open access, schéma dans lequel l’auteur, son institution ou un sponsor règle les frais (Article processing charges, soit APC).

Les limites du peer review traditionnel

Si cette procédure est supposée garantir aux articles publiés un haut niveau de qualité, elle présente l’inconvénient majeur d’imposer un délai parfois long entre le dépôt du manuscrit et la publication effective de l’article.

Cela devient de moins en moins supportable alors même que les développe­ments de la recherche connaissent une accélération significative comme on a pu le constater, en particulier, lors de la pandémie du COVID-19.

S’ajoute la difficulté croissante à trouver des reviewers (en règle générale bénévoles) disponibles, conséquence à la fois de l’inflation du nombre de publications et de la pression que subissent les chercheurs pour publier toujours plus, ce qui leur laisse moins de temps pour se consacrer aux reviews.

Et enfin, rien ne garantit que deux ou trois reviewers (au mieux) auront pu détecter toutes les failles potentielles d’un article. En effet, ces failles pourraient n’apparaître que lorsqu’un nombre plus important de scientifiques aura pu en prendre connaissance.

Les serveurs de préprints : première réponse aux défauts de l’édition traditionnelle

Compte tenu de cela, pour ne pas bloquer ou retarder la publication d’un article pouvant faire avancer la science (cf. encore l’épidémie du COVID-19), l’idée est apparue de créer des plateformes afin de publier l’article sans tarder (deux à quatre jours de délai), après quelques vérifications « de base » et, éventuellement, de le soumettre à un post publication peer review selon des modalités qui peuvent varier.

Une première réaction aux défauts de l’édition traditionnelle a donc été la création de serveurs de préprints (acception française de l’anglais preprint) qui hébergent et mettent gratuitement à disposition (en open access donc) les articles que leurs auteurs ont jugés être suffisamment aboutis pour être publiés en l’état sans attendre le résultat d’une peer review.

arXiv, le premier serveur de préprints créé en 1991 par des physiciens, a ouvert la voie. Sa couverture s’est large­ment étendue depuis.

Il existe aujourd’hui entre 60 et 70 serveurs de préprints dans le monde. Leur taille est variable, mais peut-être importante, et on note que les sciences de la vie au sens large sont particulièrement bien couvertes.

Il faut préciser que la grande majorité de ces serveurs de préprints n’offre pas de système structuré de peer review, qu’elle soit ou non ouverte à tous.

C’est au début des années 2010 qu’a émergé l’idée de positionner une revue par les pairs après la parution de l’article plutôt qu’en amont. Cela permet ainsi de diffuser plus vite les résultats des recherches sans pour autant renoncer à une évaluation de l’article.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Avant que l’IA ne l’enterre, quelques mots sur la classification internationale des brevets

PHILIPPE BORNE
Bases no
434
publié en
2025.03
1211
Acheter ce no
Tags
brevets | IA
Avant que l’IA ne l’enterre, quelques mots sur la ... Image 1
Avant que l’IA ne l’enterre, quelques mots sur la ... Image 1

L’arrangement de Strasbourg, cela vous dit quelque chose ? On pourrait imaginer un quizz du type : c’est (1) le traité par lequel Louis XIV a réuni Strasbourg à la France le 30 septembre 1681 (2) un projet d’urbanisme de Catherine Trautmann lorsqu’elle était maire de Strasbourg (3) le texte qui a établi la classification internationale des brevets en 1971. Évidemment c’est la troisième réponse qui est la bonne. À l’heure où l’environnement médiatique est saturé par l’IA, nous allons, sans trop rentrer dans des détails théoriques, montrer par un simple exemple que cet outil de recherche conserve son intérêt, et qu’il reste même pour l’instant plus complémentaire qu’antagoniste avec les techniques basées sur l’IA. Le titre de cet article était donc seulement provocateur.

Un bref rappel

La Classification Internationale des Brevets (abrégé CIB) ou, en anglais, International Patent Classification (IPC) a été mise en place pour répondre au défi de rechercher des documents au sein d’une masse croissante de brevets, dans un contexte caractérisé par le multilinguisme, et une syntaxe, qui outre les problématiques habituelles de synonymie, peut être très déconcertante : en « langue brevet », un ballon peut être un « dispositif sphérique de loisir », et une bouteille un « contenant pour liquide ». Chercher par des mots-clés se heurte donc vite à certaines limites.

On notera que la CIB est arrivée à peu près en même temps que les premières bases de données en ligne (Questel a été lancé en 1978), ce qui bien entendu en a grandement optimisé l’utilisation.

Le principe derrière la CIB est simple : faire appliquer par la totalité des offices de brevet du monde entier la même classification, dont chaque entrée correspond à un domaine ou à un sous-domaine technique ; l’une des premières tâches d’un examinateur brevet est donc de lire la demande qu’il est chargé d’examiner, et d’attribuer les entrées de la CIB correspondant au contenu technique de ladite demande.

Une entrée CIB, c’est par exemple A61F13/02. A c’est la section (nécessités courantes de la vie) ; A61 c’est la classe (sciences médicales ou vétérinaires) ; A61F, c’est la sous-classe (Filtres implantables dans les vaisseaux sanguins ; prothèses…) ; A61F13 c’est le groupe (Bandages ou pansements ; Garnitures absorbantes) ; et A61F13/02 c’est le sous-groupe (Bandages ou pansements adhésifs). La structure de la CIB est donc hiérarchique. En tout, il existe 70 000 entrées.

Une grande famille

La CIB a eu une descendance : la CPC, qui est une sorte de « CIB+ », avec plus de 260 000 entrées ; la classification japonaise FI ; la classification de l’office allemand des brevets. Et dans la famille, il y a des cousins lointains, qui contrairement aux 3 classifications précitées n’ont pas la même structure : la classification japonaise FT, ou la classification Derwent. Avantage de la CIB : elle est appliquée par tous les offices, ce qui n’est pas le cas des autres, qui présentent toutefois certains atouts, par exemple une plus grande précision, ce qui est le cas de la CPC.

Un exemple pratique

Notre sujet de recherche est le suivant : « dispositif permettant de maintenir une béquille droite lorsqu’elle n’est pas en cours d’utilisation ». Par béquille, on entend « béquille destinée à faciliter le déplacement de personnes à mobilité réduite ».

Étape 1 : définir les caractéristiques essentielles de notre recherche.

Nous en avons deux : ce que l’on veut maintenir droit : la béquille ; et le fait de maintenir droit.

Étape 2 : pour chacune de ces caractéristiques, déterminer une liste de mots-clés.

Pour la caractéristique 1 : crutch, stick, bequille, Krücke

Pour la caractéristique 2 : upright, stabilize, aufrecht, vertical, stabiliser, stabilisieren

L’important est de disposer de mots-clés en anglais ; comme dans la suite nous allons utiliser Espacenet, nous avons ajouté des mots en allemand et en français. On note le mot « stick » (bâton, ou canne en anglais) ; car ce qui peut maintenir droit une béquille, peut aussi s’appliquer à un bâton de marche. D’aucuns suggéreraient aussi « parapluie ».

Étape 3 : générer une requête booléenne. Dans notre exemple, nous devons rechercher les documents comportant la notion de béquille ET la notion de « maintenir droit ». Je vais donc créer:

Crutch OR stick OR bequille OR Krücke

et un second jeu de mots couvrant le second élément :

Upright OR stabilize OR aufrecht OR vertical OR stabiliser OR stabilisieren

Les mots dans chacun des deux groupes sont combinés par un opérateur OR, puisqu’ils couvrent le même concept. Nous avons utilisé cet opérateur pour montrer la logique de notre démarche, mais nous verrons dans la suite qu’avec Espacenet, l’utilisation de cet opérateur n’est pas nécessaire.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • ›
  • Fin