L’outil a été lancé en 2009 et se présente comme une « plateforme de veille stratégique, e-réputation et intelligence économique » qui surveille aussi bien des sources classiques que les médias sociaux.
L’entreprise est basée à Angers et a été fondée en 2004 par son dirigeant actuel, Mickaël Reault.
Sources gratuites / payantes : sources gratuites mais possibilité de connecteurs avec des sites / bases de données pour lesquels le client a déjà un abonnement (notamment via Europresse, Factiva, LexisNexis et Kantar Media).
Déjà abonné ? Connectez-vous...
Synthesio se définit comme un outil d’analyse et de surveillance des médias sociaux.
L’entreprise a été fondée en 2006 par deux français, Thibault Hanin et Loic Moisan et dispose aujourd’hui de quatre bureaux répartis entre New-York, Londres, Paris et Singapour.
Typologie des sources du corpus de Synthesio :
L’outil surveille plus de 600 millions de sources (forums, blogs, journaux, réseaux sociaux…). De nouvelles sources sont rajoutées quotidiennement.
Sources gratuites / payantes : gratuites uniquement
Déjà abonné ? Connectez-vous...
La DILA (direction de l’information légale et administrative) réalise une avancée notable dans l’ouverture des données publiques en France en mettant en ligne le données de trois de ses bulletins officiels particulièrement intéressants pour les entreprises du point de vue des informations économiques qu’elles contiennent.
- le BODACC (bulletin officiel des annonces civiles et commerciales) depuis 2008 avec une mise à jour journalière ;
- le BOAMP (Bulletin officiel d'annonces des marchés publics) depuis 2005 avec une mise à jour journalière ;
- le BALO (Bulletin des annonces légales obligatoires) depuis le 1er avril 2005.
Les mises à jour pour les deux premiers sont quotidiennes et ont lieu 3 fois par semaine pour le BALO.
Déjà abonné ? Connectez-vous...
On attend la diffusion gratuite (article 19 de la loi Macron) des données du registre national du commerce et des sociétés (RNCS), données qui sont collectées en amont par les greffes des tribunaux de commerce et dont la diffusion gratuite, par voie électronique, est confiée à l'Institut national de la propriété intellectuelle (INPI).
Ce registre est constitué à partir des données d'entreprises collectées lors de dépôts d'actes.
Ces données sont depuis 1986 diffusées de façon payante par les greffiers, réunis dans le groupement d'intérêt économique Infogreffe, qui regroupe les 135 greffes des tribunaux de commerce de France. Un extrait de Kbis – document officiel attestant l'existence juridique d'une entreprise – vaut ainsi actuellement 3,12 euros sur place, 3,90 euros par voie électronique et 4,01 euros par courrier.
La copie des statuts ou des comptes annuels d'une société coûte, elle, de 11,51 à 11,70 euros.
Qui n’a pas rêvé de trouver, en un clin d’œil et de façon certaine, sans reconstitution à partir de déductions hasardeuses, l’adresse mail d’une personne potentiellement intéressante. Cela peut se faire de façon relativement simple avec des outils gratuits.
Les outils payants comme www.emailfinder.com sont certainement plus performants mais couvrent un ensemble de besoins la plupart du temps trop larges par rapport au besoin immédiat que l’on a la plupart du temps.
FindThatLead le propose à partir de Linkedin, qui a priori est un très bon terrain de chasse, avec une application qui s’intègre sous Chrome (autres navigateurs non annoncés).
Il suffit de se logger sur linkedin, de cliquer sur le contact souhaité et d’activer le bookmarklet FTL qui s’affiche sur le navigateur et FindThatLead produit rapidement une adresse email qui pourrait être la bonne.
Il faut reconnaître que le système marche particulièrement bien – on l’aurait parié - quand on est au premier niveau de relation avec une personne.
Le second niveau donne des résultats assez bons.
Mais pour des personnes avec lesquelles on n’est pas en relation, le résultat est nettement plus erratique , FTL essayant systématiquement, sous des formes qui varient, de coller le prénom, nom de famille et raison sociale pour reconstituer l’adresse.
Cela aura au moins le mérite de donner des idées quand on cherche un email.
Déjà abonné ? Connectez-vous...
METHODOLOGIE
• Les spécificités de la recherche d’information dans les pays émergents
OUTILS DE VEILLE
• La fin de Yahoo Pipes : quelles alternatives ?
SOURCING
• Le meilleur du Web de Mai-Juin 2015
• La Twittliste du tourisme
L’ACTU EN BREF
• L’actualité des moteurs, de la veille et du Web 2.0
Déjà abonné ? Connectez-vous...
Les pays émergents bouleversent aujourd’hui le paysage économique et politique mondial. Les entreprises occidentales ont tendance à se tourner de plus en plus vers ces nouvelles destinations, qui présentent à la fois des perspectives importantes de développement et des enjeux multiples.
Nous avons décidé de partager avec nos lecteurs notre expérience en termes de recherche d’information, d’intelligence économique et de gestion de risques liés à certains pays émergents.
Nous allons nous référer aux pays émergents de manière générale, établis par les institutions internationales en fonction de leurs performances macroéconomiques et pas seulement aux pays de la catégorie BRICS (Brésil, Russie, Inde, Chine et Afrique du Sud), qui sont des marchés en fort développement. Cette catégorie peut inclure des pays producteurs de pétrole tels que l’Angola, le Nigéria, le Ghana, les pays à fort potentiel tels que l’Indonésie, le Vietnam, le Mexique ou encore certains pays d’Asie Centrale.
Comprendre les marchés émergents implique d’aller plus loin que les données. Ces marchés sont à aborder avec nuances, en tenant compte de la culture stratégique spécifique et de leur développement en matière d’information.
On notera que certains pays des BRICS tels que la Russie et laChine ont développé depuis longtemps une bonne culture de l’information, qui appuie la stratégie et le choix de leurs entreprises, voire de leurs gouvernements. Le processus de mondialisation des marchés contraint les autres pays des BRICS tels que le Brésil, l’Inde et l’Afrique du Sud à se mettre aussi à l’intelligence stratégique. Ils créent des ressources globales d’information pour pousser leurs entreprises à s’étendre mondialement.
Globalement ces pays sont bien couverts par les bases de données internationales (EMIS, Factiva, Dun & Bradstreet, ...) et en termes de données macroéconomiques, ils disposent de services statistiques très performants. Les BRICS ne sont pas concernés par le problème de disponibilités des données, bien que leur fiabilité puisse parfois poser question. Les données les concernant sont largement disponibles, mais on constate que la plupart des difficultés sont d’ordre linguistique et d’interprétation.
Selon Pwc, plus d’une acquisition sur deux n’aboutit pas dans les pays émergents. Cela est dû premièrement à un manque de transparence des informations financières, qui peut prendre plusieurs formes : les entreprises donnent moins d’informations car, culturellement, les besoins locaux sont moindres en termes de reporting financier, l’information n’est pas partagée à cause d’une politique défensive et de confidentialité, l’information peut être présentée différemment, etc. La bonne information financière doit être comparable dans le temps et dans l’espace, ce qui signifie d’une année à l’autre et d’une entreprise à l’autre. Mais le modèle de gouvernance d’entreprise dans ces pays n’est pas identique à celui des pays développés et certaines mesures de précautions doivent être prises.
En ce qui concerne la deuxième catégorie de pays émergents, notamment les pays africains cités ci-dessus, la situation est totalement différente à cause d’un manque ou d’un faible développement de la culture de l’information. Sur le plan économique et business, l’information s’avère déterminante à plusieurs titres : comment peut-on entreprendre dans un environnement peu ou mal connu ? Comment investir dans des territoires pour lesquels on ne possède aucune donnée ?
Notons que les acteurs de la production de données se sont diversifiés ces dernières années. En Afrique, ce sont en particulier les entités privées qui se chargent de mener des études de terrain afin de produire les données et l’information qualifiée : les sociétés spécialisées en intelligence économique et intelligence pays de type Quantec (http://www.quantec.co.za), les fondations américaines et internationales (GAVI Alliance, Fondation Gates, Fund for Global Human Rights, Amnesty International ...), les cellules spécialisées au sein de grandes entreprises et également les agences de développement américaines et internationales (USAID, l’USADF, etc).
L’existence de cette information privée est essentielle et dans la plupart des cas vient compenser ou compléter les données publiques produites par des gouvernements pas toujours transparents. Les gouvernements consacrent souvent très peu de moyens à l’élaboration de données fiables et actualisées et dans certains cas, les données existantes n’ont pas vocation à être rendues publiques.
Pour combler ce vide en termes de disponibilité des données, une nouvelle initiative a été lancée en 2012 par la Banque Africaine de Développement. Il s’agit d’une plateforme internet « d’open data » sur laquelle des données macroéconomiques spécifiques à chaque pays sont disponibles gratuitement pour tous, sous forme de graphiques, de tableaux statistiques ou de données chiffrées. Cette plateforme, intitulée « Africa Information Highway » (http://africadata.org), réunit les sites web d’open data de différents pays africains afin d’assurer plus de transparence en termes de données et d’information publique.
Néanmoins, il reste la question de la fiabilité de cette information, sachant que souvent la Banque Africaine de Développement et même la Banque Mondiale reprennent ces données sans les vérifier. Ainsi, un rapide tour sur la page « Open Data » du Burundi nous suffit pour identifier une donnée visiblement fausse : les habitants d’une région du pays sont indiqués comme ayant une espérance de vie de 92 ans… (L’espérance de vie la plus importante au monde se trouve au Japon, et elle n’est que de 84 ans)
Il est important d’avoir recours aux informations primaires obtenues via le réseau personnel, les interviews, le contact direct avec la cible. Cette étape, dénommée « primary research » est absolument nécessaire dans le cadre de missions de due diligence (comprenant toutes les activités visant à évaluer la fiabilité d’un partenaire potentiel, notamment à l’étranger) et d’investigation. Néanmoins, une recherche basée sur des sources ouvertes (notamment sur le web) reste une étape indispensable, que ce soit en préparation de recherches « terrain » ou lorsqu’on désire obtenir une information simple qui peut ne pas nécessiter de passer par une étape de « primary research ».
Dans ce contexte, la recherche d’informations dans les pays émergents pose un certain nombre de problèmes particuliers. Nous en avons isolé deux : la problématique linguistique (peut-on faire une recherche dans une langue que l’on ne maîtrise pas ? Est-ce recommandé ?) et celle de la fiabilité des données. Dans la suite de cet article, nous illustrons ainsi comment une méthodologie rigoureuse et l’utilisation d’outils adaptés peut permettre de surmonter une partie des difficultés de la recherche d’informations sur les pays émergents. En utilisant l’exemple de la Chine, nous montrerons aussi l’importance que représente la prise en compte de la législation locale dans les missions de recherche d’informations.
Déjà abonné ? Connectez-vous...
Un facteur à prendre en compte lorsque l’on réalise une recherche d’information est celui de la législation locale.
Cette problématique, importante quelle que soit la région, peut devenir cruciale lorsque la recherche se réalise dans des pays aux systèmes juridiques complexes, voir opaques.
Dans certains pays émergents, le gouvernement a ainsi mis en place une série de règles et de réglementations spécifiques afin d’éviter que l’information stratégique ne finisse entre les mains des acteurs étrangers.
Déjà abonné ? Connectez-vous...
C’est le 4 juin dernier que Yahoo a annoncé sur son blog la fin de son service Yahoo Pipes, utilisé par de nombreux professionnels de l’information.
La fermeture se fera en deux temps : à partir du 30 Août, il ne sera plus possible de créer de nouveaux pipes mais leur lecture restera possible. Le 30septembre, le service fermera définitivement ses portes.
Cette annonce n’est pas véritablement une surprise au regard de la nouvelle stratégie de Yahoo et de l’annonce de la fermeture d’autres services au cours des derniers mois. Il ne restait qu’à savoir quand Yahoo allait prendre cette décision.
Revenons maintenant quelques années en arrière… Yahoo avait lancé l’outil le 7 février 2007, en plein âge d’or du RSS. L’outil était puissant, extrêmement puissant même, mais pas forcément évident à prendre en main pour des personnes peu familières avec la programmation informatique. Néanmoins, l’outil avait rapidement été utilisé par de nombreux professionnels de l’information pour certaines tâches bien spécifiques notamment liées à l’usage des flux RSS. Contrairement à de nombreux outils qui avaient vu le jour à la même période mais qui avaient très vite disparu du paysage, l’outil de Yahoo représentait alors une solution pérenne.
Mais en huit ans, le Web a considérablement changé et les flux RSS, même s’ils n’ont pas complètement disparu, sont en constante régression au profit des réseaux sociaux comme Twitter, Facebook ou encore LinkedIn. On ne compte plus le nombre de sites (notamment d’actualités) qui ont tout simplement supprimé les flux RSS ou alors les ont tellement bien cachés que cela prend plusieurs dizaines de minutes pour les retrouver.
Chez les professionnels de l’information, Yahoo Pipes présentait l’immense avantage d’être un outil à la fois gratuit et puissant. Il était majoritairement utilisé pour mixer des flux RSS entre eux, les filtrer par mots-clés ou bien créer des flux RSS sur des pages qui n’en possédaient pas. Les fonctionnalités/opérateurs les plus utilisés étaient ainsi les suivants :
D’autres internautes utilisaient également cet outil pour gérer et optimiser des données XML, des modules de recherche, des champs de saisie, des boucles, des compteurs, des modules de traduction, la possibilité de géolocaliser les informations…
Déjà abonné ? Connectez-vous...
De nombreux articles et contenus de qualité utiles aux professionnels de l’info-doc sont publiés sur le Web au quotidien.
Encore faut-il avoir le temps de suivre ces blogs et sites spécialisés et de lire leurs nombreuses publications…
Nous avons donc sélectionné pour vous nos meilleures lectures de mai et juin.
Au sommaire de ce mois-ci, ce sont deux articles anglophones traitant de l’intelligence économique qui ont attiré notre attention.
Le site d’informations américain Information Management a publié au mois de mai un article sur l’influence du Big Data sur la veille et l’intelligence économique.
L’article s’intéresse notamment aux entreprises qui profitent du lucratif marché des big data et vendent une partie de leurs données, données qui peuvent ensuite être utilisées par des concurrents dans le cadre d’une veille concurrentielle.
Selon une étude citée dans l’article, cette pratique de vente de données serait néanmoins plus développée en Asie qu’en Europe ou même aux Etats-Unis.
L’intelligence économique ne devrait pas se limiter à la surveillance de ses concurrents, c’est en substance la thèse de l’article paru sur le site de Harvard Business Review au mois de Mai.
On y découvre notamment une initiative de l’entreprise Mars (datant d’il y a quelques années) menée alors par la directrice de l’intelligence économique qui consistait à faire des jeux de « simulation concurrentielle » avec les équipes locales de l’entreprise un peu partout dans le monde (Russie, Mexique, Turquie, Royaume-Uni, etc). Il ne s’agissait pas de simples simulations sur ordinateur mais bien de jeux de rôle complexes et menés dans des conditions réelles et qui ont notamment permis aux dirigeants de l’entreprise de voir leur marché sous un angle différent et inhabituel.
D’autres pistes sont également évoquées pour mener une stratégie d’intelligence économique efficace.
Un article paru dans la revue britannique Research Information d’Avril/Mai 2015 et librement accessible en ligne s’intéresse à la façon dont la technologie a changé notre façon de rechercher et d’utiliser l’information sous l’angle des éditeurs scientifiques et de leurs plateformes.
Les récents développements, les challenges rencontrés et les futures tendances impactant ces plateformes y sont détaillés. On y trouve des témoignages de Semantico, Highwire, Emerald, etc.
Sur le site du cabinet Kleiner Perkins Caufield & Byers (KPCB), on trouve une longue présentation de 196 pages de Mary Meeker sur les tendances d’Internet en 2015. On y trouve des statistiques sur le marché et les utilisateurs d’Internet, les dernières tendances, les marchés à forte croissance, des données sur la publicité sur le Web et les dernières nouveautés, les changements et évolutions du Web qui impactent le monde de l’entreprise, etc.
Au début de l’année 2015, Laure Tarrade, une professionnelle de l’information, avait questionné les abonnés de la liste de diffusion Juriconnexion sur leurs pratiques en matière de Knowledge Management. A la suite de ces échanges, elle a réalisé une synthèse des réponses obtenues, qui a récemment été publiée sur le site Sérendipidoc. La synthèse aborde la question des spécificités du KM dans le domaine juridique, les différentes solutions techniques proposées et des préconisations (étude des besoins, cahier des charges du logiciel, procédés de récupération et mise à jour des données, validation de l’information, soutien des associés et reconnaissance de l’activité KM, sensibilité et sécurité des données).
Le 28 Mai dernier, l’ADBS Bretagne, le CFCB et l’URFIST ont organisé à Rennes une journée sur le « Big & Open Data : conséquences et compétences pour le professionnel de l’information ». On peut d’ores et déjà retrouver sur le site de la conférence les supports de présentations suivants :
Le site renvoie également vers les séquences vidéos et les tweets publiés lors de la journée d’étude.
Effectuer un sourcing sur une thématique précise requiert un temps non négligeable. Alors quand certains internautes ou professionnels s’en sont déjà chargés et ont publié la liste des sources identifiées, il serait dommage de s’en priver. Ce mois-ci, nous avons identifié trois sites et blogs ayant publié leurs listes de sources : une sur la twittosphère Datascience Française, une sur les sources parlementaires et une sur les blogs Tumblr à suivre dans le domaine de la datavisualisation.
On connaissait IFTTT, un petit outil gratuit et très pratique permettant d’automatiser certaines tâches sur le Web (comme par exemple, sauvegarder automatiquement ses images sur Dropbox ou republier automatiquement sur LinkedIn ou Facebook ce que l’on vient de publier sur Twitter, etc) mais nous avons découvert Zapier (un outil similaire mais beaucoup plus puissant selon certains). La présentation de 28 pages présente les deux outils, l’auteur décrit les différentes utilisations qu’il en fait au quotidien et présente les différences et les complémentarités entre les deux outils.
Google CSE est un outil puissant proposé par Google depuis 2006 qui permet de créer ses propres moteurs de recherche personnalisés. Il existe deux versions : une gratuite et une payante. Steve Rath propose un tutoriel très détaillé publié sous la forme de deux billets : un premier publié en janvier dernier et le second au cours du mois de mai.
Il n’est pas rare de devoir effectuer des recherches sur les réseaux sociaux professionnels comme LinkedIn ou Viadeo. Malheureusement, leurs moteurs de recherche interne ne sont généralement pas très perfectionnés et ne permettent pas d’effectuer de requêtes complexes. Cet article présente dans le détail différentes méthodes et astuces pour interroger Linkedin en utilisant Google.
A l’origine, cet article et le guide pratique qui lui est associé s’adressent aux journalistes pour les aider à vérifier leurs informations dans un monde où l’information circule à vitesse grand V et que tout le monde recherche la course aux scoops. Le « guide de la vérification » (traduit du guide anglais « Verification handbook ») se présente sous la forme de 10 chapitres et aborde les thématiques suivantes :