Dans le dernier numéro de NETSOURCES (n°132 - janvier/février 2018), nous avons analysé la place grandissante de la recommandation de contenu dans les outils de recherche aussi bien grand public que professionnels, et l’impact que cela peut avoir sur les pratiques de veille et de recherche d’information.
Nous aborderons aujourd'hui la recommandation appliquée aux outils et sources d’information scientifiques, techniques et académiques :
Quelle est aujourd’hui la place des systèmes de recommandation de contenus dans les moteurs de recherche académiques, les serveurs et bases de données scientifiques, académiques et brevets, les outils de recherche développés par les éditeurs, les réseaux sociaux académiques, etc. ? Et qu'apporte ce système de recommandation au processus de recherche et de veille dans ces domaines ?
Nous avions signalé dans le numéro de janvier 2018 de BASES (n° 355) quelques problèmes de mise au point de la nouvelle interface de STN.
Ces problèmes sont maintenant réglés. En effet, quand on tape une parenthèse sur un clavier AZERTY, elle n’efface plus le caractère précédent.
D’autre part, on peut régler ses « settings » de façon à ce qu'à la déconnexion le système propose automatiquement le déchargement du transcript au moment du logoff. Pour cela, il faut aller dans les settings que l’on trouve dans le menu déroulant qui s’affiche quand on clique sur son nom, puis dans la rubrique « transcript download » activer l’option « Prompt at Logout/Logoff Hold » puis ne pas oublier de cliquer sur « apply » en haut à droite de l’écran.
Pour répondre à la demande grandissante des utilisateurs en termes d’analyse de données et de représentation graphique de ces données (dataviz), les grands agrégateurs de presse ont depuis quelques années déjà, intégré des modules spécifiques dont le but revendiqué est de faciliter l’analyse quantitative d’un grand corpus d’articles sur des critères prédéfinis, et ce, en seulement « quelques clics ».
Ces fonctionnalités supplémentaires sont supposées apporter un vrai plus, en premier lieu par le gain de temps généré, mais également en terme de valorisation de l’information, avec un contenu attirant et immédiatement assimilable.
Google et Bing se transforment toujours un peu plus en moteurs de réponses.
En ce début d’année, l’actualité est très riche du côté des moteurs de recherche.
Google a récemment lancé un test où, pour certaines questions simples (comme l’heure qu’il est, convertir des unités ou des monnaies ou encore effectuer des calculs), il affichait directement la réponse sans proposer de liste de résultats naturels (voir figure 1.).
Et si l’on souhaitait accéder aux résultats naturels, il fallait alors cliquer sur un bouton « afficher tous les résultats ».
A l’origine, les moteurs de recherche comme Google, Bing ou encore Yahoo permettaient de voir s’afficher tous les résultats citant les termes d’une requête, à condition bien sûr que les pages soient bien présentes dans leurs index.
Les moteurs de recherche visaient l’exhaustivité du Web ouvert là où les annuaires opéraient déjà une sélection.
Les moteurs offraient une bonne vision d’ensemble des contenus gratuits présents sur le Web là où les outils de recherche et de veille professionnels tiraient leur épingle du jeu sur les contenus payants ou des fonctionnalités de recherche plus sophistiquées.
Mais aujourd’hui, recourir à Google en pensant pouvoir accéder à la majorité des pages Web et contenus Web gratuits citant les termes de sa requête est un leurre.
En effet, quelle que soit la requête, Google, Bing et les autres n’affichent pas l’intégralité des pages correspondants à la requête. Ils opèrent une sélection des pages présentes dans leurs index.
Et cela a des conséquences importantes pour la veille et la recherche d’information.
Depuis maintenant quelques années, Google propose sur la première page de résultats et, pour certaines requêtes seulement, des featured snippets, appelés en français extraits optimisés même si le terme français est beaucoup moins utilisé.
Affiché dans un cadre spécifique et au-dessus des résultats dits « naturels », en « position 0 », il constitue une réponse à la question posée par l’internaute et est extrait directement d’une page Web.
Ainsi, si vous demandez à Google « qu’est-ce que la veille stratégique ? », un encadré apparaît au dessus des résultats naturels contenant une définition de la veille stratégique issue de la page Wikipédia du même nom. Il n’est ainsi même pas nécessaire de se rendre sur cette page Web pour avoir la réponse à sa question. Du moins, en principe...
Est-ce que ces résultats apporte une réelle valeur ajoutée et un gain de temps pour la recherche d’information ou bien au contraire représentent-ils un pas de plus vers la mort des moteurs de recherche et l’avènement de l’ère de l’assistance ?
LITTÉRATURE SCIENTIFIQUE
• Un point sur les nouveaux modes de publication scientifique
AGENDA • L'information au service de la prise de décision est-elle un mythe ?
LITTÉRATURE SCIENTIFIQUE
• Elsevier se pose en alternative à Wikipédia dans le domaine scientifique
RETOUR D’EXPÉRIENCE
• Elsa Drevon : Enseigner la veille pour répondre aux besoins réels des organisations
EN BREF • L’actualité des moteurs et des médias sociaux
La dématérialisation des publications a permis aux éditeurs privés, ainsi qu’aux éditeurs issus de la sphère publique d’explorer de nouveaux territoires. On assiste en particulier à la montée en puissance d’initiatives éditoriales comme celles relevant de l’Open Access dont le but est de proposer un accès en ligne et gratuit aux publications scientifiques.
Penchons-nous dans un premier temps sur le mode de publication scientifique qui a prévalu pendant les 200 dernières années, afin de mieux appréhender la nature des évolutions récentes.
Le modèle traditionnel de publication scientifique repose sur une collaboration entre un producteur de connaissance (le chercheur) et un professionnel de la publication (l’éditeur). Le chercheur obtient auprès de l’éditeur la publication de son travail de recherche, en échange de la cession de ses droits sur ledit travail, et parfois du versement d’une somme complémentaire.
Dans le cas de la publication dite « scientifique », le processus de publication comporte en particulier une étape de validation des travaux par les pairs scientifiques, gage de qualité des travaux publiés. Au-delà du strict service de diffusion de ses travaux, le chercheur acquiert ainsi un accès à la reconnaissance de son travail, répercuté en termes de prestige plus ou moins grand en fonction du degré d’exigence de la revue choisie.
Penchons-nous sur la nature des services rendus par les éditeurs et les modalités de leur exécution. La figure 1 décrit les taches habituellement prises en charge par les uns et les autres.
Figure 1. Étapes nécessaires à la publication des travaux scientifique dans le modèle traditionnel, et répartition des tâches entre les éditeurs et le monde académique, auteur des travaux. ©Marie-Laure Chesne-Seck
L’habitude est prise par beaucoup de démarrer une recherche sur un sujet scientifique non familier dans Wikipedia, et plus généralement sur le Web l'éditeur Elsevier a lancé récemment ScienceDirect Topics pour proposer une alternative.
Cette «couche» créée par Elsevier, ajoutée à son produit ScienceDirect vise à répondre à ces questions de premier niveau qui ne sont en général pas traitées dans les articles scientifiques disponibles sur la plateforme car ils sont trop pointus. Elsevier considère, en effet, que ces réponses de premier niveau peuvent plutôt se trouver dans des chapitres de sa collection d’e-books constituée, en particulier d’encyclopédies et d’ouvrages de référence.
Entretien croisé entre Elsa Drevon, responsable du cours « Veille stratégique » à l’EBSI (Ecole de Bibliothéconomie et des Sciences de l’Information) à l’Université de Montréal et candidate au doctorat et Carole Tisserand-Barthole, rédactrice en chef de BASES et NETSOURCES.
Nous plongerons au coeur de l'enseignement de la formation à la veille et l'infodoc au Canada, ainsi que dans les meilleures pratiques "d'auto-formation".