Les collectivités territoriales (aussi appelées collectivités locales) produisent de nombreux contenus qui peuvent revêtir un intérêt stratégique pour les décideurs. Par collectivités territoriales, nous parlons aussi bien des communes, métropoles, communautés de communes que des départements ou encore des régions.
Pendant de très nombreuses années, les contenus produits par ces organismes et pourtant voués à être rendus public, étaient très difficilement accessibles ou uniquement aux habitants du secteur en question (journal de la commune par exemple ou délibérations affichées dans le hall de la mairie). Quand l’on souhaitait recevoir une copie d’un document administratif, il fallait alors faire une demande écrite, ce qui prenait un temps considérable quand la demande n’était pas tout simplement refusée pour des motifs plus ou moins valables.
Le 1er avril, de nombreux sites de presse ou blogs jouent le jeu du poisson d’avril en rédigeant des articles plus ou moins farfelus. Certains pièges sont facilement détectables, d’autres beaucoup moins. Ce qui est sûr, c’est que ce jour-là, notre vigilance est accrue et on a tendance à se poser plus de questions quant à la véracité de ce que l’on lit.
Mais notre vigilance baisse à nouveau dès le lendemain et c’est là que les problèmes commencent ... En effectuant une recherche d’informations des semaines, des mois ou des années plus tard, il n’est pas impossible de tomber sur des actualités complètement fausses publiées un 1er avril et de ne même pas s’en rendre compte.
Créé en 2011, Visibrain se présente comme une plateforme de veille de médias en ligne. Sa particularité est qu’elle s’appuie sur Twitter uniquement pour pouvoir surveiller l’ensemble des médias et des blogs, hormis les forums.
Pourquoi Twitter ? D’après les mots de l’un des cofondateurs de la société, Jean-Christophe Gatuingt, ce réseau social est le « système nerveux du web » expliquant par-là que se retrouvent sur une même plateforme des personnes aux profils très différents (médias, journalistes, influenceurs, communautés, etc.) qui s’expriment de manière illimitée et relaient en volumes très importants du contenu de diverses natures (textes, vidéos, photos, audio).
Du côté du géant américain Google, l’actualité ne manque pas aussi bien au niveau du moteur de recherche que de ses autres services.
L’entreprise travaille actuellement sur un algorithme pouvant deviner où une photo a été prise même quand l’utilisateur a désactivé la géolocalisation (et notamment supprimé les données exif qui fournissent ces informations de localisation). Pour le moment, le système arrive à reconnaître le continent dans 48% des cas, le pays dans 28 % des cas, la ville dans 10% et la rue dans 3.6% des cas. Il faudra encore un peu de travail avant que le concept présente un réel intérêt.
Sur le moteur Google images, les internautes peuvent désormais bookmarker les images qui les intéressent (seulement aux Etats-Unis pour le moment).
Enfin, YouTube a ajouté une nouvelle fonctionnalité permettant de flouter des zones sur une vidéo. Cette fonctionnalité n’est bien sûre accessible qu’aux personnes propriétaires de la vidéo souhaitant la charger sur YouTube.
On le sait, Google indexe les documents au format PDF, mais ce que l’on sait moins, c’est qu’il les met peu souvent à jour (c’est-à-dire qu’il ne retourne pas souvent pour crawler un même document) car il considère que les documents PDF sont des documents « stables » qui sont rarement modifiés ou mis à jour. Ce n’est donc pas en passant par Google que l’on pourra surveiller efficacement les changements sur un document PDF.
PANORAMA • Blogs Corporate : source d’information stratégique ou simple instrument de com ?
MÉTHODOLOGIE • Quand la presse se contente de reprendre une dépêche ou un communiqué : comment faire le tri ?
DOSSIER « VEILLE MÉDIAS SOCIAUX » • Un radar hi-tech pour surveiller le web social
A LIRE • La revue du web de janvier-février 2016
AGENDA • Créativité et Innovations dans les pratiques de veille et recherche d’information (Conférence I-Expo – le 24 mars)
L’ACTU EN BREF • L’actualité des moteurs et du Web 2.0
Les blogs font partie de notre quotidien depuis maintenant des années et plus personne ne conteste leur intérêt en tant que sources d’information.
Il est évident que tous ne se valent pas et qu’il convient de regarder précisément qui en est l’auteur pour en évaluer la fiabilité, mais ils apportent généralement un éclairage différent de celui que l’on peut trouver sur des sources plus classiques comme la presse notamment.
Or quand on pense blog, on pense généralement aux blogs d’experts, de particuliers, d’associations, de journalistes, etc. et on a souvent tendance à oublier les blogs d’entreprises (appelés en anglais corporate blogs).
Que ce soit pour une veille ou une recherche d’informations, la presse reste une source privilégiée.
Néanmoins, on constate fréquemment que de nombreux articles de presse se contentent de reprendre le contenu d’une dépêche ou d’un communiqué de presse soit à l’identique, soit en modifiant le titre et en reformulant quelques phrases.
Or, s’il peut être intéressant pour un service communication de visualiser l’ensemble des retombées sur un sujet (événement, actualités de l’entreprise, etc.), dans la majorité des autres cas, il n’y a aucun intérêt à visualiser des dizaines voire des centaines d’articles répétant strictement la même chose. C’est même une perte de temps…
Radarly est un outil de surveillance du web qui a vu le jour en 2012. Il a été conçu par la société Linkfluence qui depuis 2006, s’est fait connaitre en tant qu’institut d’étude « 2.0 », pionnier de l’analyse sociologique du web, à une époque où le concept-même de web social était encore balbutiant.
Radarly arrive régulièrement dans le top des meilleurs outils de social monitoring. Certains blogueurs l’ont même qualifié de « Rolls-Royce de la veille sur le web social »1 Et de fait, l’un des principes qui ont présidé à sa conception est d’extraire « le meilleur de la veille et de l’IE » pour la collecte et l’analyse des données et « le meilleur du web » pour l’interface et le design.
En tentant de résoudre cette problématique, Camille Alloing revient sur l’aspect interactif d’Infomous (outil permettant de générer des cartes sémantiques) et sur la manière dont il structure en « clusters sémantiques » les données des flux. Il met d’ailleurs à disposition une cartographie sémantique et interactive nourrie de près de 96 comptes d’enseignants, chercheurs, doctorants et docteurs en science de l’information et de la communication, personnalisable à cette adresse : http://infomous.com/node/59371. Il évoque toutefois les limites de l’outil, en particulier un algorithme sémantique calibré seulement pour la langue anglaise ou encore l’ignorance de l’utilisateur sur la fréquence de mise à jour des flux. Il présente également sa méthodologie de recherche, sans omettre ses limites, dont les principales étapes sont : la sélection des comptes, l’utilisation de TwitRSS.me pour générer un flux RSS et la fusion des flux en un seul grâce à l’outil RSSfusion.org qui est utilisé par la suite dans Infomous.