Lorsque la liste de ses abonnements ou de ses abonnés s’allonge, un utilisateur de Twitter ou Facebook peut difficilement capter toute l’information de valeur ou filtrer le plus important dans l’ensemble des flux qui s’agrègent. Nuzzel, s’intégrant avec Twitter et/ou Facebook, peut à cet égard apporter une véritable aide, qui permet de visualiser les articles les plus partagés par les communautés d’amis et de leurs followers sur ces réseaux sociaux.
Sur le dashboard de l’outil, quatre options sont disponibles, la visualisation des news partagées par ses amis, la visualisation des news des amis de ses amis, la suggestion de news éventuellement ratées lors de la consultation des news (ici l’algorithme de sélection n’est pas limpide) et le rappel des news lues récemment.
Ce type de filtrage a l’avantage d’apporter une première caution ou tout au moins une première validation dans la mesure où la rediffusion par un certain nombre de personnes peut être considérée comme une certaine reconnaissance de l’intérêt d’un article - a fortiori par les comptes d’experts.
Déjà abonné ? Connectez-vous...
France Labs, une startup fondée en 2011 par trois anciens de SAP, met sur le marché son nouveau moteur de recherche d'entreprise, Datafari 1.0. L’une de ses particularités est d’être un moteur open source clé en main, de la configuration à l’usage, en passant par l’administration web.
Dafatari annonce permettre aux entreprises de retrouver leurs données où qu’elles soient, et se situe résolument dans le contexte de la recherche des données à l’ère du cloud et du big data. L’entreprise peut retrouver ses données, généralement éparpillées et provenant de multiples sources, en connectant les flux souhaités au moteur de recherche.
De nombreux connecteurs de sources de données sont ainsi proposés, incluant Sharepoint, les emails, Dropbox, les partages de fichiers, ou encore Alfresco.
Datafari indexe ainsi les partages de fichiers, gère de nombreux formats (ppt, xls, html, jpeg, doc, open office ...), et peut également récupérer les emails, les données des applications de GED, CMS ou portails. Enfin, Datafari peut aussi indexer des bases de données, des sites web, des réseaux sociaux. La philosophie de l’éditeur est de laisser très ouverte pour les utilisateurs l’indexation de sources et formats encore non connus.
Sources :
De nombreux articles et contenus de qualité utiles aux professionnels de l’info-doc sont publiés sur le Web au quotidien. Encore faut-il avoir le temps de suivre ces blogs et sites spécialisés et de lire leurs nombreuses publications…
Nous avons donc sélectionné pour vous nos meilleures lectures de mars et avril.
L’information grise est un des sujets récurrents du monde de l’info-doc. Pour autant, quelques rappels et éléments de synthèse ne peuvent pas faire de mal... C’est ce que Frédéric Martinet vient de faire en publiant un article sur ce sujet sur son blog Actulligence (l’article a été également publié dans le numéro 1 de I2D de mars 2015, Information Données et Documents, la revue éditée par l’ADBS). Il revient sur ce qui caractérise cette information grise, sur la notion d’éthique qui en découle, sur les liens entre l’information grise et les réseaux sociaux, etc.
Nous avons régulièrement l’occasion d’aborder la question des thèses (françaises et internationales) et plus particulièrement les sources et méthodes pour les obtenir en texte intégral. Cet article rédigé par Sébastien Goulard, un docteur en économie est plutôt un appel à développer la publication de thèses en ligne mais on y trouve également des éléments concernant des études et statistiques sur le sujet, ainsi que des liens vers des ressources et dépôts de thèses en ligne (principalement à l’étranger).
Le blog Sérendipidoc a récemment publié un billet à propos d’un article paru dans la Revue Dalloz Avocats n°3 de mars 2015. Cet article (qui est téléchargeable en PDF gratuitement depuis le blog) présente la fonction documentation au sein d’un cabinet d’avocat. Deux documentalistes, Stéphane Jacquier (Cabinet Allen et Overy) et François-Xavier Mérigard (Cabinet Alérion) ont répondu aux questions de Marie-Eve Charbonnier à propos de leur métier. L’article, comme le billet de blog permettent ainsi d’avoir accès à deux retours d’expérience intéressants et mettent en évidence les nouvelles orientations de notre métier dans le domaine juridique.
Toujours dans la catégorie des retours d’expériences, on trouve sur le blog de recherche éveillée une interview d’une chargée de veille de la Région Languedoc- Roussillon, qui explique et décrit son processus de veille uniquement à partir d’outils gratuits comme Tiny Tiny RSS, Yahoo Pipes et Mailchimp.
Le 5 mars dernier, le GFII a organisé une journée d’étude en partenariat avec l’Institut Pasteur, intitulée « Les nouvelles formes de l’Intelligence Economique pour la recherche ». On retrouve sur le site du GFII le programme complet ainsi que les présentations « diffusables » parmi lesquelles :
Dans le monde anglo-saxon cette fois-ci a eu lieu le 24 avril dernier le meeting annuel du CRL (Center for Research Libraries) aux Etats-Unis. Les slides des différentes présentations (comme notamment « Faculty and student access to major news databases », « Newspaper digitization and preservation: an update on the World Newspaper Archive and area materials projects efforts » ou encore « Prospects for access to broad- cast collections » ainsi que les vidéos des conférences sont accessibles sur le site.
L’ENSSIB a récemment ajouté sur son site une étude de repérage sur les interfaces documentaires innovantes réalisée en 2014 dans le cadre d›un partenariat avec le réseau des Bibliothèques municipales de Grenoble. On y trouve une typologie et une présentation détaillée d’interfaces documentaires innovantes comme Bibliocommons, Data BNF, JocondeLab, etc. Le document de 116 pages est téléchargeable gratuitement au format pdf ou epub.
Il est très rare qu’un moteur de recherche explique dans le détail son fonctionnement technique interne. C’est pourtant l’objet d’un billet publié sur l’un des blogs du moteur Bing, à propos de son moteur d’images. L’article est agrémenté de nombreuses captures d’écran, de schémas et de graphiques. Très intéressant !
L’analyste Nathan Safran a récemment mené une étude sur les comportements des internautes en matière de recherche sur le Web. Il publie ses résultats sur le blog de son entreprise. On y découvre par exemple qu’une personne fait en moyenne 129 recherches par mois sur le Web, que le nombre de mots utilisés par les internautes dans leurs recherches est faible (29 % avec 2 mots seulement, 20 % avec 3 mots et le pourcentage diminue avec l’augmentation de nombre de mots) ou encore que 27 % des internautes entrent leur requête sous la forme d’une question.
La Sérendipité, cette activité qui consiste à découvrir des informations de manière accidentelle en naviguant d’informations en informations et de sites en sites, tout le monde ou presque en fait l’expérience régulièrement. L’article revient sur l’histoire de ce terme, le rôle d’Internet dans son développement et se pose la question : « naviguons-nous vraiment au gré du hasard ? ». Sommes-nous guidés sans le savoir par les algorithmes et les filtres mis en place par les moteurs ou les outils Web que nous utilisons quotidiennement ?
Les faux profils sur les réseaux sociaux ne sont pas nouveaux mais leur nombre est sans cesse en augmentation. Le billet de blog présente à la fois un article paru dans le Figaro sur le sujet avec des statistiques à l’appui et donne accès à un article qui doit paraître dans la revue Communication sur les faux profils et les raisons qui peuvent pousser des personnes à se faire passer pour d’autres.
Twitter est devenu une source d’information incontournable pour les professionnels de l’information. Pour autant, il est souvent sous-exploité car il est difficile de se repérer au milieu de ces milliards de tweets et de comptes pour en extraire les informations réellement utiles.
Après les twittlistes dédiées aux transports publics puis au luxe, nous avons choisi de nous intéresser cette fois-ci à un domaine qui concerne tous nos lecteurs : l‘info-doc.
Le nombreux professionnels, blogueurs, revues spécialisées, universitaires, etc y sont présents et publient des contenus de qualité. Nous avons fait le choix de nous focaliser sur les twittos francophones mais également anglophones (très nombreux et pas forcément très connus du public français).
Nous avons sélectionné uniquement des comptes qui publient très régulièrement des informations et qui se concentrent exclusivement sur le monde de l’information et de la veille. Pour les identifier, nous avons eu recours à plusieurs méthodes. La première a consisté à identifier des comptes de référence en effectuant plusieurs recherches par mot-clé dans le moteur de Twitter puis en consultant les comptes répondant à ces différents critères. Dans un second temps, nous avons sélectionné plusieurs comptes particulièrement intéressants (presse spécialisée notamment) et avons analysé la liste des comptes qu’ils suivaient (rubrique following).
NB : Cette liste n’a pas vocation à être exhaustive.
Déjà abonné ? Connectez-vous...
PANORAMA • Blogs : comment les identifier et évaluer leur crédibilité ?
MEDIAS SOCIAUX ET ENTREPRISE • Information et média sociaux :règles de bon usage pour les sociétés cotées
SURF SUR LE NET
• Google avance dans l’intégration des flux d’informations non traditionnels
• La SNCF ouvre l’accès aux données horaires des TGV
• Monitory
• Filter
SOURCING
• Le Meilleur des blogs de Janvier-Février 2015
• La Twittliste du luxe
VEILLE • Curation et veille en entreprise et dans les collectivités
Déjà abonné ? Connectez-vous...
S’il y a bien une information qui est passée complètement inaperçue au cours des derniers mois, c’est celle de la disparition du moteur de blog de Google, « BlogSearch », qui permettait d’effectuer sa recherche sur un index uniquement composé de blogs et non sur l’index général du moteur.
Cette disparition est-elle le fruit d’une désaffection des internautes pour les blogs, les blogs ont-ils perdu de leur singularité au point qu’il n’est plus nécessaire de les différencier des autres types de sources ou bien est-ce simplement un pas de plus dans la stratégie de simplification du géant américain qui effectue un grand ménage de printemps dans ses services tous les ans à la même période (iGoogle, Google Reader, etc) ?
Dans tous les cas, cette disparition est pour nous l’occasion de faire le point sur l’intérêt des blogs pour la veille et la recherche d’informations en ce début d’année 2015, sur les outils et méthodes pour les identifier mais également sur la difficulté et les méthodes pour évaluer ces sources à part.
Déjà abonné ? Connectez-vous...
Face au développement rapide de la communication sur les réseaux sociaux, l’Autorité des marchés financiers (l’AMF) a décidé d’établir des règles de bon usage pour les sociétés cotées.
Après l’étude de l’impact sur la communication financière de l’utilisation, d’internet et des réseaux sociaux par les sociétés cotées, et après consultation de différents acteurs, l’AMF a publié en décembre dernier une recommandation relative à ce sujet. Celle-ci a pour objectif d’accompagner les sociétés cotées dans la gestion de leur site internet corporate comme outil de communication et dans l’utilisation des réseaux sociaux (tels que Facebook, Twitter, LinkedIn) pour la diffusion d’informations.
Ces informations sont stratégiques puisqu’elles ont une influence directe sur les opérations boursières et contribuent aux manipulations de marché. C’est pour cette raison que l’AMF est venue avec un véritable guide de communication 2.0 afin de définir un cadre clair pour ce type d’action.
Déjà abonné ? Connectez-vous...
Google dispose désormais d’une nouvelle section intitulée « Dans l’actualité ».
Par rapport à l’ancien encart « actualités » qui se contentait de présenter dans l’onglet de recherche les premiers résultats de Google News, cette nouvelle section présente un ensemble de médias (articles, mais aussi blogs, vidéos youtube ou posts issus de réseaux sociaux) liés aux dernières nouvelles et qui ne sont pas nécessairement indexés par Google Actualités.
L’objectif affiché du moteur de recherche est de présenter aux internautes des résultats pertinents en rapport avec l’actualité récente mais non-disponibles dans les médias classiques.
L’annonce par le journal américain Bloomberg de la réactivation du partenariat entre Google et Twitter qui devrait permettre aux tweets d’être affiché comme des résultats dans le moteur de recherche s’inscrit lui aussi résolument dans cette stratégie d’ouverture des résultats de recherche en lien avec l’actualité à des sites web ne faisant pas partie de la presse « classique ».
Il reste maintenant à voir si ce nouveau système permettra réellement au moteur de recherche de faire remonter des résultats qui ne seront pas issus de médias traditionnels. En effet, la section « Dans l’actualité » n’affiche que trois résultats qui, lors des quelques tests que nous avons effectués, sont systématiquement « trustés » par des médias traditionnels ainsi que des agences de presse.
La présentation du « plan digital » de la SNCF le 10 février 2015 a été l’occasion pour la société d’aborder la question de l’Open Data, notamment concernant les horaires de ses TGV.
Bien que la généralisation du wifi dans les gares et les trains de la SNCF ainsi que l’application unifie aient été les deux annonces les plus médiatiques de cette présentation, le groupe ferroviaire a aussi annoncé l’ouverture de toutes ses données concernant les horaires des TGV.
Pour l’instant, seuls les horaires des TER, Transilien et Intercités sont librement accessibles par les usagers, un oubli du TGV qui avait notamment été remarqué par la fondation « Open Knowledge », spécialisée dans l’Open Data et connue pour son classement annuel des meilleurs pays en la matière (la France se classe à l’heure actuelle en troisième position des pays les plus ouverts en matière de données).
Cette ouverture des données concernant les TGV devrait, d’après la SNCF, être effective au premier semestre 2015 et s’accompagner de la mise en place d’API (Application Programming Interface) qui permettra à n’importe qui de développer ses propres applications en utilisant les données offertes par la SNCF.
Néanmoins, tempère le directeur digital de la SNCF,Yves Tyrode, l’accès à ces API sera limité par des barrières tarifaires.
Concrètement, les particuliers et les start-up utilisant peu de données ne « paieront pas ou peu » leur utilisation, tandis que les plus grosses sociétés, faisant parfois une utilisation intensive de ce type de données, devront payer un prix qui reste encore inconnu.
Monitory est un outil de veille à la fois particulier et très spécialisé, puisque son objectif est de surveiller le statut d’un site internet.
Très simplement, on commence d’abord en créant son compte puis en indiquant les sites internet que l’on veut placer sous surveillance.
Lorsqu’un crash serveur ou tout autre facteur entraine l’arrêt du fonctionnement du site, Monitory prévient l’utilisateur par le biais d’un email, d’un tweet ou même d’un sms.
Outre sa simplicité de fonctionnement, Monitory dispose de plusieurs autres atouts.
Déjà abonné ? Connectez-vous...