SERVEURS
• Les évolutions d’Orbit
• Les petits soucis du lancement de STNext
A LIRE • « Les dirigeants face à l’information », l’ouvrage qui interroge les professionnels de l’information en entreprise
COMPTE-RENDU DE CONFÉRENCE • Internet Librarian 2017
TENDANCES • Gratuité de l’information pour la veille : la fin d’une époque ?
ACTUALITÉ • L’actualité de janvier 2018
INDEX • Index BASES
Déjà abonné ? Connectez-vous...
La réunion parisienne des utilisateurs d’Orbit a été l’occasion de faire le point sur les nouveautés déjà opérationnelles ou proches de leur mise à disposition.
Une première tendance a été fortement mise en avant, qui est celle des différentes analyses possibles des résultats en fonction d’une multitude de critères avec toujours plus d’options de visualisation, en particulier de coloriage pour une analyse plus facile.
Si l’on a souscrit à l’option Platinum, on dispose même de près d’une vingtaine de graphes prédéfinis, avec, parmi eux, un graphe indiquant les dépenses brevets d’un ensemble de sociétés.
Déjà abonné ? Connectez-vous...
Il est rare que la mise en ligne d’un nouveau logiciel ne génère pas quelques soucis. STNext n’y a pas échappé. En effet, on rencontre un problème lorsque l’on utilise une parenthèse avec un clavier AZERTY car cette parenthèse efface le caractère précédent.
Par exemple, si l’on tape S (un terme) le S est effacé et la commande ne peut être exécutée. On ne peut donc faire que des stratégies de recherches qui ne comportent pas de parenthèse ce qui est évidemment très restrictif.
Pour pallier cet inconvénient, il y a plusieurs solutions : utiliser un clavier QWERTY, ou bien utiliser Command Window accessible à partir de la flèche en bas à gauche de l’écran si l’on veut rester sur STNext.
Sinon, on peut bien sûr utiliser STN on the Web ou STN Express.
Autre «détail» à prendre en compte si l’on utilise STNext : il faut penser à récupérer le transcript avant de se déconnecter, contrairement à ce qui se passe avec STN on the Web où l'on accède au transcript après la déconnexion.
Pour ceux qui n’ont pas de contrat forfaitaire, cela augmente inutilement les coûts.
Pascal Junghans, docteur en sciences de gestion et directeur de la Prospective d’Entreprise & Personnel, vient de publier dans la collection “Information et stratégie” de l’ADBS un ouvrage intitulé « Les dirigeants face à l’information », issu de son travail doctoral.
Ce livre constitue à notre sens une plongée rare dans une sphère jusqu’ici très peu explorée et mystérieuse : la relation à l’information du décideur au plus haut niveau de l’entreprise et au cœur du processus décisionnel.
Le sujet en effet, - les recherches de l’auteur l’ont montré, - a très peu été traité, que ce soit par les chercheurs, les journalistes ou les dirigeants eux-mêmes, à l’exception de Jack Welsh et Carlos Ghosn, les mythiques patrons de General Electric et Renault/Nissan respectivement.
A cette rareté de la démarche s’ajoute la dimension particulière de la culture informationnelle de l’entreprise française et du dirigeant français. C’est en effet le schéma mental, cognitif et décisionnel du grand patron français qu’a choisi d’analyser Pascal Junghans, sur la base de ses travaux de recherche et d’une trentaine d’entretiens avec les dirigeants de grandes entreprises (présidents, PDG, DG et membres de comités exécutifs).
Et c’est une incroyable et formidable mécanique d’acquisition, de traitement, d’absorption et d’appropriation de l’information par ce dirigeant, qualifié de « machine à traiter l’information », que met en lumière l’auteur, grâce à une exploration minutieuse et riche en découvertes, des processus mentaux du dirigeant qui concourent à la prise de décision et à l’action.
Déjà abonné ? Connectez-vous...
La version américaine de la conférence appelée « Internet Librarian 2017 » a eu lieu à la même période (du 23 au 25 octobre 2017) à Monterey en Californie. C'est le pendant de la conférence « Internet Librarian International 2017 » à Londres.
Les moteurs de recherche comme Google ont considérablement évolué ces dernières années et, de fait, les méthodologies de recherche les plus adaptées pour répondre à une question, ont également évolué. Plusieurs présentations ont été consacrées aux dernières tendances et évolutions de la recherche Web dont celles de Mary Ellen Bateset Marydee Ojala, deux figures historiques de l’infodoc outre-Atlantique.
Mary Ellen Bates a ainsi consacré sa première présentation à la recherche sur le Web et aux dernières astuces à connaître pour réaliser la recherche la plus performante possible.
Déjà abonné ? Connectez-vous...
L’information est au cœur du processus de veille. Si l’on n’est pas en mesure d’identifier les bonnes sources et par la suite les informations les plus pertinentes sur un sujet donné, toute analyse et recommandation stratégique en découlant sera incomplète, avec tous les risques que cela entraîne.
L’information produite par les médias, qu’il s’agisse de presse nationale, locale ou même spécialisée est un élément précieux pour la veille quel que soit le secteur d’activité concerné.
Le développement de la presse en ligne il y a une vingtaine d’années ainsi que la prolifération des contenus gratuitement accessibles sur ces sites, parallèlement à l’émergence de Google, a conduit à une croyance trompeuse largement répandue selon laquelle il n’est pas nécessaire de payer pour avoir accès à l’information. Et si l’information ne ressort pas dans Google, c’est qu’elle n’existe pas.
Si la croyance dans le « tout gratuit » a longtemps persisté, la question du retour au payant pour la presse fait aujourd’hui la Une de l’actualité.
C’est au début des années 90 que la presse a commencé à s’aventurer sur le Web avec tout d’abord quelques initiatives isolées aux Etats-Unis comme le Chicago Tribune ou le Mercury News. Mais c’est entre le milieu et la fin des années 90 que le phénomène a commencé à prendre de l’ampleur et que des journaux du monde entier ont alors créé leurs propres sites Web avec des contenus plus ou moins proches de la version papier.
En France, ce sont d’abord les titres de presse quotidienne nationale comme Le Monde, Le Figaro, Libération ou Les Echos qui se sont lancés dans la course, suivis par la suite par la grande majorité des médias français.
Il est aujourd’hui assez rare qu’un journal ou magazine ne dispose pas de site Internet.
Cependant, les contenus proposés varient beaucoup d’un site à l’autre, certains proposant simplement une version électronique du support papier, d’autres produisant des contenus complètement différents, d’autres optant pour des modèles hybrides et enfin, certains utilisant leur site comme simple vitrine marchande.
Mais tous ces sites fournissaient et fournissent encore souvent une quantité importante d’articles et actualités gratuites, financés essentiellement grâce à la publicité, et ce même si une partie du site et des contenus est en réalité payante.
Tout cela a contribué à donner l’impression que l’information en provenance des médias était gratuitement accessible à tous.
Or surveiller et accéder aux contenus en libre accès sur le site des Echos par exemple ne revient pas à surveiller l’intégralité des contenus produits par les journalistes des Echos.
Déjà abonné ? Connectez-vous...
Premier événement en date : l’annonce du rachat de CEDROM-SNI, propriétaire de l’agrégateur de presse Europresse par Cision le 20 décembre dernier. On en sait pour l’instant assez peu sur ce qu’il va advenir d’Europresse et de tous ses clients sur le sol français si ce n’est que cela va apporter « une excellente complémentarité stratégique » et « permettra de renforcer l’offre internationale » de Cision. Nous enquêterons donc sur les conséquences à court et long-terme de ce rachat et la nouvelle place de Cision dans le paysage de la veille, qui, rappelons-le, avait déjà racheté l’Argus de la presse cet été.
Autre rachat : celui de Xilopix, l’éditeur du moteur français Xaphir (pour lequel nos tests avaient été peu concluants) par le moteur français également Qwant. Les deux équipes travailleront ensemble pour développer des solutions de recherche adaptées au respect de la vie privée.
Enfin, l’outil de curation de contenus Storify, que certains de nos lecteurs connaissent et utilisent vient d’être acquis par la start-up américaine Livefyre spécialisée dans la curation de contenus et l’engagement d’audiences, elle-même acquise par Adobe en mai 2016. Storify fermera ses portes en mai 2018 et deviendra une fonctionnalité de LiveFyre qui est par contre un outil payant.
La lutte contre les fake news était un des thèmes central de l’année 2017. Et de nouvelles initiatives voient régulièrement le jour.
Facebook a récemment fait le point sur sa première année de lutte contre les fake news et les enseignements qu’il en a tirés.
« Le fait [qu’un article] soit indiqué comme ‘faux’ ou ‘contesté’ ne signifie pas forcément que nous parviendrons à faire changer les personnes d’avis sur sa véracité. Certaines études prouvent même que cela […] peut s’avérer contre-productif et renforcer les convictions de l’utilisateur. »
Finalement, Facebook a décidé de se recentrer sur sa fonctionnalité d’articles liés qui proposent, pour des articles au contenu « discutable » des contenus sur la même thématique mais avec un point de vue différent afin de faire réfléchir les internautes.
Google de son côté, a indiqué qu’il allait exclure de Google news les sites qui masquent ou mentent sur leur pays d’origine.
Et pour le factchecking, on signalera le lancement du site https://factuel.afp.com et du compte Twitter associé @AfpFactuel.
Google vient d’annoncer qu’il allait ajouter plus d’images et de recherches associées (suggestions de recherche effectuées par d’autres internautes) au sein de ses featured snippets.
Rappelons qu’un featured snippet est un mode de présentation de résultats utilisé par Google qui consiste à présenter dans un cadre spécifique une partie ou la totalité de la réponse correspondant à la requête de l’internaute au dessus des résultats organiques traditionnels. Lorsqu’un site figure en featured snippet on parle généralement de rang ou position zéro. Le format de présentation featured snippet est principalement utilisé par Google pour des requêtes de type interrogatif (Qu’est ce que ? Définition…?).» (source : definitions-marketing.com)
Entre les featured snippets qui vont s’allonger, le Knowledge graph qui apparaît parfois à la droite de la liste de résultats (qui est « une base de connaissance utilisée par Google pour compiler les résultats de son moteur de recherche avec des informations sémantiques issues par ailleurs de sources diverses » - Wikipédia) et les recherches associées en bas de la page de résultats, il va rester peu de place pour les résultats naturels du moteur...
D’autant plus que Google vient également d’annoncer que la taille de la description de chaque résultat allait passer de 150/160 signes à 230 environ. On risque donc d’avoir de moins en moins de résultats sur la première page de résultats et toujours moins de visibilité pour ceux qui n’apparaissent pas dans les premiers résultats.
Bing, de son côté, vient d’ajouter des fonctionnalités de « recherche intelligente » qui repose sur le deep learning et les réseaux neuronaux. Dans les faits, cela ressemble beaucoup aux featured snippets de Google, soit un cadre au dessus des résultats qui affiche des éléments de réponse à la question posée. Mais là où Bing se veut plus intelligent que Google, c’est que cette réponse ne repose pas sur une unique source d’information. Il indique ainsi agréger des informations issues de plusieurs sources réputées. Et s’il y a différentes réponses ou points de vue possibles, il s’engage à proposer un carrousel de réponses reflétant ces différences.
Au regard des premiers tests menés par les internautes, il y a encore un peu de travail pour améliorer la solution.
• Search solutions 2017 : tendances et innovations pour la recherche d’information et ses outils
• Au delà de la simple correspondance de mots-clés : recherche sémantique, taxonomie, etc.
• La recherche au défi de la désinformation et des fake news
• Search industry awards
• De la recherche classique à la recherche conversationnelle
• Au delà de la recherche Web
RETOUR D’EXPÉRIENCE • Vera Lúcia Vieira : la pratique de l’information made in Brésil
SERVEUR • Orbit lance le module chimie en Beta
Déjà abonné ? Connectez-vous...
Le 29 novembre dernier, nous avons eu l’occasion d’assister à une journée d’étude riche en enseignements organisée par BCS, The Chartered Institute for IT à Londres. Cette journée d’étude payante appelée « Search Solutions » est organisée tous les ans à la même période depuis 2006 et est limitée à 70 participants afin de privilégier la qualité des échanges.
Mais à l’origine de cette manifestation annuelle, il y avait la volonté de combler le fossé qu’il pouvait y avoir, et qu’il y a toujours d’ailleurs, entre les ingénieurs et informaticiens qui travaillent chez les acteurs des outils de recherche (moteurs de recherche, bases de données, médias sociaux, etc.) et les utilisateurs de ces solutions (et notamment les professionnels de l’information).
Cette année, la journée s’articulait autour de 4 grandes thématiques au cours desquelles chaque intervenant effectuait une présentation de 15 minutes :
BCS, l’organisateur de l’événement, s’adresse avant tout à un public de professionnels de l’informatique.
Déjà abonné ? Connectez-vous...
Les thèmes traités dans cet article sont :
Lire aussi dans notre dossier spécial :
Search solutions 2017 : tendances et innovations pour la recherche d’information et ses outils
La recherche au défi de la désinformation et des fake news
Les Search Industry Awards
De la recherche classique à la recherche conversationnelle
Au-delà de la recherche Web
Déjà abonné ? Connectez-vous...