C’est une question qui revient régulièrement : retrouver la trace d’une personne décédée aux siècles précédents dans le but d’identifier dans quel cimetière elle a été enterrée, retrouver des informations pour comprendre les raisons de son décès, garder une trace d’un fait divers pour l’inclure et illustrer un dossier documentaire ou une biographie, etc.
Toutes ces demandes ont un point commun : elles nécessitent d’entrer dans le monde des archives et dans l’idéal même le monde des archives en ligne, ce qui évite de se déplacer.
On sort alors complètement des sources que l’on peut avoir l’habitude d’interroger sur le Web et ce type de requête demande une démarche spécifique.
Lire aussi :
Tous les outils pour rechercher dans les archives du Web (02/2022)
La recherche d’information appliquée aux personnes (04/2019)
Dans cet article, nous retraçons la méthode à suivre mais aussi les sources à connaître quand il s’agit de retrouver la trace de personnes ayant vécu avant l’arrivée d’Internet.
Nous prendrons comme exemple une demande qui nous avait été envoyée par un lecteur : trouver le lieu de sépulture de Victor-Napoléon Vuillerme-Dunand, un des marionnettistes les plus connus du 19e siècle, fidèle disciple du créateur du théâtre de Guignol à Lyon qui est né en 1810 à Turin et serait décédé le 4 mai 1876.
Ce sont donc les seules informations dont nous disposons à ce stade de l'investigation.
Déjà abonné ? Connectez-vous...
Linkedin a une place de plus en plus importante pour les professionnels de la veille et les derniers déboires de Twitter ne font que renforcer sa place comme source d’information incontournable. D’où la nécessité de trouver des outils et méthodes pour l’inclure au mieux dans ses processus de veille.
Hélas, la plateforme de LinkedIn propose peu de fonctionnalités de recherche, encore moins de veille, et son API extrêmement restrictive limite considérablement le nombre d’outils qui pourraient permettre de rechercher, analyser ou encore récupérer des données issues de LinkedIn.
Dans ce contexte, le récent lancement de WhatsIn, une extension Chrome, qui permet d’analyser et d’évaluer de manière visuelle un profil LinkedIn constitue une vraie nouveauté et ouvre un éventail de possibilités jusqu’alors inaccessibles au veilleur. Nous l’avons testée pour vous.
Lire aussi :
Réussir à utiliser LinkedIn pour la veille et la recherche d’information (06/2022)
Le veilleur face au défi de la représentation des données (12/2022)
Quelles dataviz tout au long du process de veille ? (12/2022)
L’outil a été créé par François-Xavier Nion, le créateur de l’outil de veille Wabtch. On a donc ici un outil et par extension un créateur, qui, même s’il ne s’adresse pas uniquement au veilleur, comprend les problématiques spécifiques de la veille et les besoins d’informations qui en découlent.
Nous avions eu l’occasion de parler de Watch dans l’article « Wabtch, entre bookmarking et recommandation de contenus » (cf. NETSOURCES N°155, Novembre 2021)
L’outil existe en version freemium. Sa version payante est de 30 euros pour 100 profils mais on peut tester avec 10 crédits, puis 5 crédits gratuits par mois.
Cet outil va pouvoir jouer un rôle à différents niveaux en permettant notamment de :
Déjà abonné ? Connectez-vous...
Depuis le rachat effectif de Twitter par Elon Musk en octobre dernier (après des mois de tergiversations et de retournements en tous genres), le volume d’information et d’articles publiés à propos de Twitter a été très important avec une grande diversité de thèmes abordés : changements au niveau de la politique, licenciements massifs, avis négatifs et positifs sur le rachat, prospective sur l’avenir de ce réseau social, nouvelles fonctionnalités ou disparition de fonctionnalités existantes, etc.
Mais avec l’annonce il y a quelques semaines du départ d’Elon Musk du poste de PDG, même s’il reste propriétaire de Twitter, le soufflé médiatique est rapidement retombé.
Maintenant que la situation se stabilise, il est temps de se pencher sur ce qui a changé chez Twitter au cours des derniers mois surtout en termes de services et de fonctionnalités. Car il y a eu de nombreux changements, souvent éclipsés par les nombreuses polémiques et ces changements viennent modifier certaines pratiques de veille et de recherche d’information que l’on pouvait avoir sur Twitter.
Ce dernier est quoi qu’on en dise toujours à ce jour le réseau social le plus important pour les professionnels de l’information, que ce soit en termes de contenus ou de fonctionnalités.
Elon Musk n’est pas connu pour proposer des transitions en douceur ni de changements progressifs et c’est exactement ce qu’il a fait avec les fonctionnalités et services de Twitter au cours des trois derniers mois. Il a ainsi supprimé pratiquement du jour au lendemain un certain nombre de fonctionnalités, dont certaines avaient un réel intérêt pour le professionnel.
Alors que ces dernières années, Twitter avait choisi de diversifier ses contenus au-delà des tweets classiques avec des espaces audio, un service de newsletter, etc., Elon Musk a pris le chemin inverse en se recentrant sur les tweets.
Déjà abonné ? Connectez-vous...
Le ministère de l’Économie et des Finances a annoncé il y a quelques semaines l’arrivée d’un nouvel annuaire des entreprises, officiel. Ce dernier a été créé par Etalab, le département d’ouverture des données de la Direction Interministérielle du Numérique, et la Direction Générale des Entreprises.
Trois filtres de recherche sont proposés : la zone géographique, le nom du dirigeant et la situation administrative (état administratif/type de structure/labels et certificats/Domaine d’activité/Code NAF ou APE).
Ils permettent de retrouver les données publiques détenues par l’administration sur une entreprise, une association ou une administration.
Les conventions collectives ;
Cet annuaire est toutefois plus utile aux entreprises qu’au professionnel de l’information car il permet à celles-ci d’intégrer plus facilement leurs justificatifs dans une API afin de les rendre publics. Pour le veilleur, en revanche, cet annuaire n’a pas de valeur ajoutée en comparaison de Pappers, le moteur open data gratuit qui ne cesse de s’améliorer.
Le moteur de recherche décentralisé Presearch a lancé récemment une option de géolocalisation au choix, une pratique essentielle pour identifier des sources et rechercher des informations au niveau international.
Depuis l’arrêt de l’option de localisation des recherches chez Google il y a quelques années, le plus simple pour localiser sa recherche où on le souhaite consistait souvent à utiliser des VPNs ou petites extensions spécialisées comme Geolocalized Search, USearch from… (« Sortir de la recherche géolocalisée sur Google », BASES n° 395, septembre 2021).
D’autres moteurs, récemment lancés, intègrent également directement cette fonctionnalité comme Kagi Search ou encore Neeva.
En un clic, il est possible de spécifier explicitement un pays pour recevoir les résultats de recherche locaux au lieu de se limiter aux résultats en fonction de sa connexion réseau.
La localisation au niveau des villes sur Presearch est également possible, mais semble plus aléatoire : la capitale malaisienne « Kuala Lumpur » a ainsi été reconnue comme une ville… en Indonésie. Mais les médias des résultats de recherche étaient bien malaisiens.
Au cours des derniers mois, Facebook a retiré une multitude de fonctionnalités intéressantes pour le pro de l’info, souvent après à peine un an d’utilisation : les newsletters « Bulletin » qui devaient concurrencer Substack, le moteur d’offres d’emploi, les podcasts, et même l’onglet Facebook News semble sur la sellette après l’annonce en novembre dernier du remplacement des journalistes en charge de la curation par des algorithmes.
En France, le contrat de Facebook avec une filiale de l’AFP pour la vérification des informations s’est aussi arrêté. Les médias, dont le contenu n’est vu que par 3 % des utilisateurs, ne seraient pas rentables pour la plateforme. D’autant qu’en France Facebook rémunère la diffusion des contenus en provenance des médias au titre des droits voisins.
On peut donc craindre que la recherche ou la surveillance de l’information sur Facebook perde en fiabilité pour le veilleur.
En conséquence, l’intérêt d’inclure Facebook dans sa veille et la recherche d’information diminue.
Ne résiste finalement que le cœur du réseau social avec des contenus et fonctionnalités très grand public : les pages des professionnels qui s’adressent au grand public (BtoC), comme les commerçants locaux, à surveiller dans le cadre d’une veille concurrentielle, ou d’e-réputation.
Depuis la mise à jour du moteur en juillet dernier (et le remplacement de son interface), nombreux sont les professionnels qui regrettent l’ancienne interface.
Qu’à cela ne tienne, Légifrance a procédé à quelques améliorations récemment au niveau de la recherche. Outre une dizaine de corrections de bugs, on notera les nouveautés suivantes :
Pour une analyse complète et détaillée du nouveau Légifrance, nous vous conseillons la lecture de l’excellent billet d’Emmanuel Barthe « Le nouveau Légifrance : analyse raisonnée de la nouvelle version ».
Un des gros manques pour le veilleur sur Légifrance, c’est l’absence de flux RSS. Même si ce n’est pas parfait, on notera tout de même l’initiative d’un internaute qui a créé un petit outil permettant de créer des flux RSS sur Légifrance (https://legifrss.github.io/) ainsi qu’un bot Twitter (qui publie les mises à jour Légifrance).
Nul n’a pu y échapper. Dans les médias, au bureau… on ne parle que de cela : ChatGPT est-il en train de ringardiser Google ?
Au regard de la recherche d’informations, ChatGPT n’est pourtant pas assez fiable pour être utilisé de façon professionnelle. D’ailleurs, ce bot conversationnel n’a pas vocation à devenir un moteur de recherche. En revanche, son impact sur la recherche d’information est réel et il est intéressant d’explorer dès maintenant les usages en la matière, en ce qu’ils préfigurent ceux des années à venir.
Difficile de résumer ChatGPT, un bot gonflé à l’intelligence artificielle, à une seule fonctionnalité : créateur de contenu (et de code), moteur de réponse, traducteur, générateur de résumé… ChatGPT fait tout cela à la fois. Il peut donc être utilisé à chaque étape de la veille, qu’il s’agisse de l’identification des besoins, du sourcing, ou de l’analyse.
Pourquoi est-il populaire ? Du fait de son interface de dialogue simplifiée, à laquelle on accède après inscription. Une fois cette formalité établie, une barre de dialogue s’ouvre en bas de page. C’est là que l’on pose ses questions. L’outil y répond en haut et la conversation défile, comme une conversation avec n’importe quel chatbot.
Les capacités de synthèse et de rédaction de ChatGPT, basées sur un puissant réseau de neurones artificiels, sont deux autres atouts pour le professionnel de la veille. Ses algorithmes ont été entraînés à partir de textes collectés sur Internet, notamment en provenance de CommonCrawl et de Wikipédia.
De nombreux articles ont été écrits pour voir ce que ChatGPT avait à offrir aux professionnels de l’information, et à ceux de la veille en particulier : analyse sémantique pour la recherche de mots clés, génération de requêtes booléennes, identification d’acteurs majeurs, collecte de flux, synthèses d’études et même rédaction d’analyses SWOT, Pestel ou autre. À tel point que ChatGPT ne semble avoir pour limite que notre propre imagination !
Déjà abonné ? Connectez-vous...
Contenu d’un nouveau type, parfois éphémère, mais qui s’affirme comme un media d’information « puissant », le podcast d’information est issu à 65 % de la presse écrite. Il est alors conçu soit comme un canal complémentaire, soit comme un véritable produit d’information avec un contenu original (dit natif), que l’on ne retrouve nulle part ailleurs.
En tant que professionnel de l’information, le veilleur est à l’affut de toute information, quel que soit son format. Avec le podcast, il se heurte à une variété de contenus et d’accès dont dépendra la collecte.
Il faut non seulement le collecter, mais aussi le traiter et l’intégrer à sa production documentaire ou à son livrable de veille.
Voir « Les nouveaux formats des médias appellent de nouvelles méthodes et outils de recherche », NETSOURCES n°150, janvier-février 2021
L’intégration des podcasts dans le produit final de la veille constitue un défi spécifique, face à une double difficulté, à la fois technique (pour trouver et utiliser les outils d’export et d’intégration adaptés) et intellectuelle (pour intégrer ce format de façon à la fois homogène et rapidement appréhendable par le destinataire).
Nous avons donc relevé le défi et exploré quatre façons d’intégrer le podcast à ses livrables.
Déjà abonné ? Connectez-vous...
L’intégration de l’IA dans les outils de recherche est le grand sujet de ce début d’année 2023. Et cela s’applique également au monde des moteurs de recherche académique.
Il y a quelques mois, nous présentions Elicit, un moteur innovant qui se présente comme un assistant dopé à l’IA
Voir notre article « Elicit, un nouveau moteur scientifique au banc d’essais » - BASES n°404 - juin 2022
Dans la même veine, nous nous intéressons maintenant à un nouvel outil : Consensus dont nous allons analyser les capacités, les forces, les faiblesses et la valeur ajoutée pour le professionnel de l’information.
Consensus est un moteur académique qui a été lancé courant 2022 par une startup américaine du même nom.
Comme beaucoup de moteurs/assistants à base d’IA, l’internaute entre une question en langage naturel et l’outil extrait des réponses dans les documents qui composent son corpus.
Déjà abonné ? Connectez-vous...