La dématérialisation des publications a permis aux éditeurs privés, ainsi qu’aux éditeurs issus de la sphère publique d’explorer de nouveaux territoires. On assiste en particulier à la montée en puissance d’initiatives éditoriales comme celles relevant de l’Open Access dont le but est de proposer un accès en ligne et gratuit aux publications scientifiques.
Penchons-nous dans un premier temps sur le mode de publication scientifique qui a prévalu pendant les 200 dernières années, afin de mieux appréhender la nature des évolutions récentes.
Le modèle traditionnel de publication scientifique repose sur une collaboration entre un producteur de connaissance (le chercheur) et un professionnel de la publication (l’éditeur). Le chercheur obtient auprès de l’éditeur la publication de son travail de recherche, en échange de la cession de ses droits sur ledit travail, et parfois du versement d’une somme complémentaire.
Dans le cas de la publication dite « scientifique », le processus de publication comporte en particulier une étape de validation des travaux par les pairs scientifiques, gage de qualité des travaux publiés. Au-delà du strict service de diffusion de ses travaux, le chercheur acquiert ainsi un accès à la reconnaissance de son travail, répercuté en termes de prestige plus ou moins grand en fonction du degré d’exigence de la revue choisie.
Penchons-nous sur la nature des services rendus par les éditeurs et les modalités de leur exécution. La figure 1 décrit les taches habituellement prises en charge par les uns et les autres.
Figure 1. Étapes nécessaires à la publication des travaux scientifique dans le modèle traditionnel, et répartition des tâches entre les éditeurs et le monde académique, auteur des travaux. ©Marie-Laure Chesne-Seck
Après une période de gestation et d’expérimentation qui peut couvrir plusieurs années, le chercheur synthétise les résultats de recherche qu’il juge aboutis, selon des critères propres à chaque champ de spécialité.
Ce premier manuscrit est habituellement désigné sous le nom de preprint. Il contient les résultats de recherche bruts, hors de tout examen par les pairs scientifiques. Le chercheur choisit alors un journal auquel il soumet le texte de son preprint suivant le modèle fourni par l’éditeur. Sur la base du texte brut, l’éditeur fait un premier tri, et s’il retient le manuscrit, amorce le processus de revue par les pairs.
Parfois sur suggestion de l’auteur, l’éditeur contacte un ou plusieurs experts à même de juger de la validité du travail soumis. Le processus peut aussi se faire en « simple aveugle » (les auteurs ne connaissent pas les pairs) ou en « double aveugle » (auteurs et pairs ne se connaissent pas). L’idée est de prévenir tout biais qui pourrait entacher l’impartialité de l’évaluation. Cette étape nécessite donc l’intervention d’un médiateur pour organiser le recueil des remarques des uns et des réponses des autres, effectuer le suivi des différentes versions du manuscrit. Dans le cas où l’on parvient à une version satisfaisante (le texte peut être rejeté au cours du processus), l’article est dit « accepté ».
Déjà abonné ? Connectez-vous...
L’habitude est prise par beaucoup de démarrer une recherche sur un sujet scientifique non familier dans Wikipedia, et plus généralement sur le Web l'éditeur Elsevier a lancé récemment ScienceDirect Topics pour proposer une alternative.
Cette «couche» créée par Elsevier, ajoutée à son produit ScienceDirect vise à répondre à ces questions de premier niveau qui ne sont en général pas traitées dans les articles scientifiques disponibles sur la plateforme car ils sont trop pointus. Elsevier considère, en effet, que ces réponses de premier niveau peuvent plutôt se trouver dans des chapitres de sa collection d’e-books constituée, en particulier d’encyclopédies et d’ouvrages de référence.
Pratiquement tous les domaines scientifiques sont couverts ou en passe de l’être.
Si l’accès à ces chapitres d’e-books est payant pour le lecteur (31,50 $) (sauf, bien sûr, si l’Université/organisme a souscrit à ces collections d’e-books), les extraits que propose ScienceDirect Topics sont, quant à eux, gratuits.
Pour une thématique donnée, on trouve une dizaine d’extraits, dont certains assez longs, ce qui permet de bien se faire une première idée.
Il n’y a pas de possibilité de recherche dans le Topic Index qui contient 80 000 termes, et bientôt 110 000, mais uniquement un accès par l’initiale du sujet à partir de laquelle on obtient la (longue) liste de sujets pris en compte… Il faut alors en sélectionner un. Ces sujets sont extrêmement pointus. On distingue, par exemple «N,N-dimethylacetamide», «N,N-dimethylaniline», «N,N-dimethylformamide» et «N,N dimethylformamide dimethyl acetal». Notons que pour chaque topic, le système propose une série de related terms qui sont autant de propositions de topics proches de celui qui a été sélectionné.
Déjà abonné ? Connectez-vous...
Entretien croisé entre Elsa Drevon, responsable du cours « Veille stratégique » à l’EBSI (Ecole de Bibliothéconomie et des Sciences de l’Information) à l’Université de Montréal et candidate au doctorat et Carole Tisserand-Barthole, rédactrice en chef de BASES et NETSOURCES.
Nous plongerons au coeur de l'enseignement de la formation à la veille et l'infodoc au Canada, ainsi que dans les meilleures pratiques "d'auto-formation".
Déjà abonné ? Connectez-vous...
En ce début d’année, l’actualité de Bing et Google ne manque pas.
Et ce qui fait beaucoup parler, ce sont les featured snippets de Google et de Bing.
Affiché dans un cadre spécifique et au-dessus des résultats dits « naturels », en « position 0 », le featured snippet constitue une réponse à la question posée par l’internaute et est extrait directement d’une page Web.
Très critiqués en 2017 pour faire apparaître régulièrement des contenus issus de sites douteux ou relayant des fake news, Google a finalement pris le taureau par les cornes et s’est enfin attaqué au problème.
Il a apporté des améliorations quant à la qualité des résultats et des sources présentées dans les featured snippets. Pour certaines questions, Google va même en afficher plusieurs, ce qui pourra être utile quand il existe des informations contradictoires ou plusieurs réponses à une même question ou encore différentes interprétations possibles. Cette fonctionnalité proposant des réponses multiples vient d’être déployée sur mobile et devrait être implémentée sur ordinateur prochainement.
De son côté, Bing offre également un équivalent des featured snippets depuis quelque temps mais il propose depuis la fin de l’année ce qu’il appelle des intelligent answers soit des réponses intelligentes. L’idée étant d’agréger une réponse issue de plusieurs sources reconnues ou de proposer plusieurs points de vue différents sur une même question.
Les réponses intelligentes fonctionnent aux Etats-Unis pour le moment et devraient s’étendre au reste du monde dans les prochains mois.
Attention cependant : on n’est jamais à l’abri d’obtenir dans les featured snippets des réponses issues de sources douteuses et peu fiables. On continuera donc à faire fonctionner son sens critique...
Autre nouveauté chez Google, l’introduction de résultats directement depuis la barre du navigateur (voir figure 1.). Même plus besoin de consulter la liste de résultats pour visualiser la réponse. Cela ne fonctionne que sur Chrome. Et comme pour le featured snippets, cela ne fonctionne que pour des questions simples générant une réponse simple et limitée.
Figure 1. Pour une recherche sur météo paris, Chrome affiche directement le temps et la température dans la barre du navigateur.
Dans la liste de résultats cette fois-ci, Google a déployé depuis peu sur sa version desktop la fonction « recherches associées » dans les résultats cliqués (voir figure 2.). Jusqu’à présent, lorsqu’on lançait une recherche, Google nous proposait tout en bas de la liste de résultats des « recherches associées ».
Figure 2. Fonction recherche associée dans les résultats cliqués
Cela n’a pas disparu mais si vous cliquez sur un résultat et que vous revenez ensuite sur la liste de résultats Google, vous avez alors une liste de « recherches associées » qui s’affichent en dessous du résultat en question. Et nous avons fait le test, les « recherches associées » affichées varient d’un résultat à l’autre malgré une même requête initiale.
A garder en tête pour cibler ou réorienter sa recherche.
Nous nous intéresserons d’ailleurs dans un prochain numéro de NETSOURCES à la question des requêtes ou recherches associées et de la reformulation automatique de requêtes de plus en plus présentes chez les grands acteurs du Web mais également sur les outils de recherche professionnels, et de leur impact sur la recherche d’information et la veille professionnelle.
Du côté de la recherche d’images, Google Images a supprimé le bouton View Image à droite de l’image affichée. Les internautes devront alors se rendre sur la page source de l’image pour pouvoir visualiser l’image en grand format. Cela fait suite à une plainte de Getty Images contre Google pour pratiques anti-concurrentielles.
Du côté de Twitter, on apprenait ce mois-ci qu’il allait enfin permettre de sauvegarder des tweets pour les lire plus tard.
Même si c’est une fonctionnalité présente sur de nombreux médias sociaux et outil du Web 2.0, ce n’était pas encore le cas de Twitter.
SERVEURS
• Les évolutions d’Orbit
• Les petits soucis du lancement de STNext
A LIRE • « Les dirigeants face à l’information », l’ouvrage qui interroge les professionnels de l’information en entreprise
COMPTE-RENDU DE CONFÉRENCE • Internet Librarian 2017
TENDANCES • Gratuité de l’information pour la veille : la fin d’une époque ?
ACTUALITÉ • L’actualité de janvier 2018
INDEX • Index BASES
Déjà abonné ? Connectez-vous...
La réunion parisienne des utilisateurs d’Orbit a été l’occasion de faire le point sur les nouveautés déjà opérationnelles ou proches de leur mise à disposition.
Une première tendance a été fortement mise en avant, qui est celle des différentes analyses possibles des résultats en fonction d’une multitude de critères avec toujours plus d’options de visualisation, en particulier de coloriage pour une analyse plus facile.
Si l’on a souscrit à l’option Platinum, on dispose même de près d’une vingtaine de graphes prédéfinis, avec, parmi eux, un graphe indiquant les dépenses brevets d’un ensemble de sociétés.
Déjà abonné ? Connectez-vous...
Il est rare que la mise en ligne d’un nouveau logiciel ne génère pas quelques soucis. STNext n’y a pas échappé. En effet, on rencontre un problème lorsque l’on utilise une parenthèse avec un clavier AZERTY car cette parenthèse efface le caractère précédent.
Par exemple, si l’on tape S (un terme) le S est effacé et la commande ne peut être exécutée. On ne peut donc faire que des stratégies de recherches qui ne comportent pas de parenthèse ce qui est évidemment très restrictif.
Pour pallier cet inconvénient, il y a plusieurs solutions : utiliser un clavier QWERTY, ou bien utiliser Command Window accessible à partir de la flèche en bas à gauche de l’écran si l’on veut rester sur STNext.
Sinon, on peut bien sûr utiliser STN on the Web ou STN Express.
Autre «détail» à prendre en compte si l’on utilise STNext : il faut penser à récupérer le transcript avant de se déconnecter, contrairement à ce qui se passe avec STN on the Web où l'on accède au transcript après la déconnexion.
Pour ceux qui n’ont pas de contrat forfaitaire, cela augmente inutilement les coûts.
Pascal Junghans, docteur en sciences de gestion et directeur de la Prospective d’Entreprise & Personnel, vient de publier dans la collection “Information et stratégie” de l’ADBS un ouvrage intitulé « Les dirigeants face à l’information », issu de son travail doctoral.
Ce livre constitue à notre sens une plongée rare dans une sphère jusqu’ici très peu explorée et mystérieuse : la relation à l’information du décideur au plus haut niveau de l’entreprise et au cœur du processus décisionnel.
Le sujet en effet, - les recherches de l’auteur l’ont montré, - a très peu été traité, que ce soit par les chercheurs, les journalistes ou les dirigeants eux-mêmes, à l’exception de Jack Welsh et Carlos Ghosn, les mythiques patrons de General Electric et Renault/Nissan respectivement.
A cette rareté de la démarche s’ajoute la dimension particulière de la culture informationnelle de l’entreprise française et du dirigeant français. C’est en effet le schéma mental, cognitif et décisionnel du grand patron français qu’a choisi d’analyser Pascal Junghans, sur la base de ses travaux de recherche et d’une trentaine d’entretiens avec les dirigeants de grandes entreprises (présidents, PDG, DG et membres de comités exécutifs).
Et c’est une incroyable et formidable mécanique d’acquisition, de traitement, d’absorption et d’appropriation de l’information par ce dirigeant, qualifié de « machine à traiter l’information », que met en lumière l’auteur, grâce à une exploration minutieuse et riche en découvertes, des processus mentaux du dirigeant qui concourent à la prise de décision et à l’action.
Déjà abonné ? Connectez-vous...
La version américaine de la conférence appelée « Internet Librarian 2017 » a eu lieu à la même période (du 23 au 25 octobre 2017) à Monterey en Californie. C'est le pendant de la conférence « Internet Librarian International 2017 » à Londres.
Les moteurs de recherche comme Google ont considérablement évolué ces dernières années et, de fait, les méthodologies de recherche les plus adaptées pour répondre à une question, ont également évolué. Plusieurs présentations ont été consacrées aux dernières tendances et évolutions de la recherche Web dont celles de Mary Ellen Bateset Marydee Ojala, deux figures historiques de l’infodoc outre-Atlantique.
Mary Ellen Bates a ainsi consacré sa première présentation à la recherche sur le Web et aux dernières astuces à connaître pour réaliser la recherche la plus performante possible.
Déjà abonné ? Connectez-vous...
L’information est au cœur du processus de veille. Si l’on n’est pas en mesure d’identifier les bonnes sources et par la suite les informations les plus pertinentes sur un sujet donné, toute analyse et recommandation stratégique en découlant sera incomplète, avec tous les risques que cela entraîne.
L’information produite par les médias, qu’il s’agisse de presse nationale, locale ou même spécialisée est un élément précieux pour la veille quel que soit le secteur d’activité concerné.
Le développement de la presse en ligne il y a une vingtaine d’années ainsi que la prolifération des contenus gratuitement accessibles sur ces sites, parallèlement à l’émergence de Google, a conduit à une croyance trompeuse largement répandue selon laquelle il n’est pas nécessaire de payer pour avoir accès à l’information. Et si l’information ne ressort pas dans Google, c’est qu’elle n’existe pas.
Si la croyance dans le « tout gratuit » a longtemps persisté, la question du retour au payant pour la presse fait aujourd’hui la Une de l’actualité.
C’est au début des années 90 que la presse a commencé à s’aventurer sur le Web avec tout d’abord quelques initiatives isolées aux Etats-Unis comme le Chicago Tribune ou le Mercury News. Mais c’est entre le milieu et la fin des années 90 que le phénomène a commencé à prendre de l’ampleur et que des journaux du monde entier ont alors créé leurs propres sites Web avec des contenus plus ou moins proches de la version papier.
En France, ce sont d’abord les titres de presse quotidienne nationale comme Le Monde, Le Figaro, Libération ou Les Echos qui se sont lancés dans la course, suivis par la suite par la grande majorité des médias français.
Il est aujourd’hui assez rare qu’un journal ou magazine ne dispose pas de site Internet.
Cependant, les contenus proposés varient beaucoup d’un site à l’autre, certains proposant simplement une version électronique du support papier, d’autres produisant des contenus complètement différents, d’autres optant pour des modèles hybrides et enfin, certains utilisant leur site comme simple vitrine marchande.
Mais tous ces sites fournissaient et fournissent encore souvent une quantité importante d’articles et actualités gratuites, financés essentiellement grâce à la publicité, et ce même si une partie du site et des contenus est en réalité payante.
Tout cela a contribué à donner l’impression que l’information en provenance des médias était gratuitement accessible à tous.
Or surveiller et accéder aux contenus en libre accès sur le site des Echos par exemple ne revient pas à surveiller l’intégralité des contenus produits par les journalistes des Echos.
Déjà abonné ? Connectez-vous...
