Claritive Analytics qui a récemment racheté les activités Propriété Intellectuelle de Thomson a annoncé son intention d’investir dans Web of Science en élargissant sa couverture de l’ « Emerging Sources Citation Index ». L’index passera ainsi de 5 000 revues émergentes à 7 500 et ce sont dix années d’archives qui seront également proposées dans le cours de l’année.
Les « fake news » et la désinformation ne cessent de faire la Une des médias en cette période d’élection. Facebook et Google se sont eux-mêmes lancés dans la course au fact checking en proposant un meilleur contrôle du contenu partagé en ligne et en lançant ou en s’associant à des outils et projets de fact checking, en l’occurrence de vérification des informations.
En France, plusieurs initiatives coexistent depuis plusieurs années mais le dernier en date vient d’être lancé par le quotidien Libération. Checknews (http://checknews.fr/), c’est son nom, se définit comme un moteur de recherche humain pour lutter contre la désinformation. Les internautes posent leurs questions sur le moteur : si une réponse à cette question existe déjà, il est renvoyé vers cette réponse. Dans le cas contraire, sa question va être traitée par un journaliste qui va se charger de vérifier les faits et rédiger une réponse.
Seul bémol : Libération ne semble pas avoir anticipé le succès de son moteur qui affiche, quelques jours à peine après son lancement, un message de maintenance car les journalistes sont noyés sous le flux de questions et préfèrent les traiter avant d’en accepter de nouvelles.
Chatbotet intelligence artificielle sont les sujets du moment. Le moteur Bing est actuellement en train de tester un système de chatbot au niveau de ses résultats de recherche. Pour le moment, cela est limité à quelques villes américaines et n’est utilisable que dans le cas d’une recherche de services (restaurants par exemple). Le chatbot est ainsi capable de répondre à quelques questions basiques comme les horaires d’ouverture ou les possibilités de parking à proximité. Reste à voir si dans les années à venir les chatbots seront pertinents et en mesure d’être utilisés dans un cadre professionnel, ce qui est encore loin d’être le cas.
Face à Google et dans une moindre mesure à Bing, quelques moteurs français tentent d’attirer l’attention vers leurs propres solutions, sans grand succès pour le moment. C’est le cas de Qwant, un moteur dont nous avions déjà eu l’occasion de parler dans l’article « Alternatives à Google : est-ce vraiment utile ? » ( Netsources n°125 - Novembre/Décembre 2016). Il ressortait à l’époque que les résultats étaient très proches de ceux de Bing mais avec moins de fonctionnalités de recherche. Peu d’intérêt pour le professionnel de l’information donc !
Mais la start-up a récemment annoncé qu’elle utilisait les supercalculateurs de Nvidia pour développer le machine learning et améliorer la performance de son moteur. Nous retournerons tester le moteur d’ici quelques mois pour vérifier s’il mérite enfin sa place dans la panoplie du veilleur.
D’autre part, un nouveau moteur français vient de faire son apparition : Xaphir qui a été lancé en mars dernier. Son but : faire sortir l’utilisateur de sa bulle de filtre. Le fonctionnement est d’ailleurs original et essaye de sortir de la recherche par mots-clés et du système de PageRank. L’utilisateur est invité à valider les contenus pertinents et supprimer ceux qui ne le sont pas. Nous avons fait quelques tests et les résultats sont pour le moment dramatiquement mauvais... Comme pour Qwant, nous reviendrons le tester dans plusieurs mois...
Il y a quelques mois nous vous annoncions que Google allait séparer son index en deux : l’un pour la recherche sur ordinateur et l’autre pour la recherche mobile. Alors que le lancement était initialement prévu pour bientôt, il semblerait que le projet ait pris du retard. Google parle maintenant de 2018.
Surveiller Twitter sans disposer d’une plateforme de veille payante n’est pas une mince affaire et le plus simple consiste à avoir recours aux flux RSS. Mais Twitter les a supprimés il y a quelques années... Et comme, nous avons déjà eu l’occasion de le mentionner à plusieurs reprises dans Bases, les principaux médias sociaux comme Twitter, Facebook ou encore LinkedIn ne cessent de restreindre l’accès de leurs services à des applications et outils tiers afin que leurs utilisateurs soient obligés de passer par leur plateforme pour la moindre de leurs actions.
Heureusement, de nouveaux services continuent de voir le jour régulièrement. C’est le cas du Twitter RSS Feed Generator proposé par Duplicate (http://bit.ly/2pveqdd) qui permet de créer des flux RSS sur des listes Twitter, des hashtags et même des recherches dans le moteur de Twitter. L’outil est simple et ergonomique. Il ne reste plus qu’à espérer qu’il ne disparaîtra pas d’ici la fin de l’année...
Parmi les outils de veille et de curation dont nous avons régulièrement l’occasion de parler, on note un certain nombre de nouveautés et d’évolutions des fonctionnalités.
Brandwatch, la plateforme de veille sur les médias sociaux à laquelle nous avions consacré un article dans le n°126 (janvier/février 2017) de Netsources vient d’annoncer un « nouveau partenariat stratégique avec Twitter ». Pour le moment, peu de détails mais on sait déjà que Brandwatch disposera d’un accès complet aux données de Twitter, accèdera à l’ensemble des produits développés par Twitter et qu’ils travailleront ensemble pour développer de nouvelles solutions sur le marché.
Comme on l’a dit, les médias sociaux restreignent de plus en plus l’accès à leurs données via des applications tierces. Il peut donc être intéressant de prendre cet aspect en considération dans le choix d’un outil. Rappelons que Brandwatch n’est pas le seul acteur à disposer d’un partenariat avec Twitter : on pourra citer également Sprinklr, Sysomos ou encore Talkwalker.
Parmi les autres nouveautés :
- Le logiciel de veille WebsiteWatcher offre une meilleure prise en compte des flux RSS dans la dernière version de son logiciel. Rappelons qu’il s’agit d’un outil de surveillance de pages Web, peu ergonomique certes mais très efficace et peu coûteux.
L’ouverture des données en France continue sa route.
La SNCF qui s’était lancée dans l’aventure en 2012 vient d’ajouter une centaine de jeux de données. La plateforme Open data https://ressources.data.sncf.com propose donc désormais presque 200 jeux de données différents.
Depuis le 1er mai, l’administration fiscale rend accessible au grand public les données contenues sur son service en ligne Patrim dédié aux transactions immobilières. Créé en 2013, il recense les informations essentielles, mais anonymisées, de toutes les transactions immobilières. La recherche est désormais gratuite mais il faut cependant renseigner son numéro fiscal et son revenu fiscal de référence pour y accéder.
Quelques mois après la promulgation de la loi pour une République numérique, le service public de la donnée fait ses débuts avec les premières bases de données de référence et le lancement d’un espace dédié sur la plateforme data.gouv.fr : www.data.gouv.fr/reference.
Neuf bases de données sont pour le moment disponibles :
Le secteur de l’énergie en France semble s’intéresser de près à l’Open Data avec plusieurs projets en cours.
D’une part, Engie va prochainement ouvrir les données de son parc éolien de Haute-Borne dans la Somme.
D’autre part, RTE et GRTgaz ont annoncé le lancement de la plateforme opendata.reseaux-energies.fr qui donne accès à « un ensemble de données de production et de consommation d’énergie au niveau national mais aussi local ».