Produit documentaire classique, la newsletter a su devenir incontournable pour proposer des services, mais aussi valoriser des activités et l’image du service documentaire. Nous avons expérimenté deux outils de création et diffusion de contenus, Flashissue et MailChimp.
La newsletter fait partie des produits documentaires « vitrine » du service. Elle permet de communiquer auprès des utilisateurs sur divers sujets : nouvelles acquisitions du fonds documentaire pour les bibliothécaires et documentalistes, actualités du service, voire un panorama de presse dans le respect du copyright, sans oublier la valorisation de son expertise et image.
Utiliser un outil dédié permet non seulement de gagner du temps sur la mise en page, mais aussi de professionnaliser la production de la newsletter.
L’un des avantages majeurs d’un outil professionnel est de pouvoir créer un modèle de newsletter que l’on pourra conserver et dont le graphisme et le logo joueront un rôle important dans l’identité du service.
Les deux outils proposent différents templates, mais l’utilisateur aura aussi la possibilité de partir d’une page blanche. Le modèle sera, quoi qu’il en soit, totalement personnalisable. Depuis l’emplacement et le nombre de blocs jusqu’à la couleur de la police, en passant par les informations contenues dans le pied de page.
Autre avantage majeur : l’ajout de contenu avec mise en page automatique. Par un « glisser/déposer » (« drag and drop »), l’utilisateur peut structurer sa newsletter : texte, image ou vidéo, nombre de colonnes, boutons d’action, renvoi vers les comptes de ses réseaux sociaux. Il peut aussi choisir de positionner le texte à gauche et une illustration à droite, ou bien l’inverse, ou encore une présentation en deux colonnes. Avec une mise en page propre, l’expéditeur renvoie ainsi une image professionnelle de son service.
Figure 1 : Sur Flashissue, les blocs de contenu sont présentés dès la page d’accueil.
Pour chaque bloc, l’utilisateur a accès à un éditeur de texte en mode « wysiwyg » (what you see is what you get). Il est possible d’ajouter différents types de contenu : texte, image ou vidéo, boutons d’actions et de partages… Pour le texte, on choisit la taille et le format, on peut aussi insérer un lien ou encore copier un texte issu de Word. Sur Flashissue, c’est ici que l’on pourra ajouter un lien « afficher dans le navigateur » (« view-in-browser link »).
Il est aussi intéressant de pouvoir personnaliser les couleurs utilisées dans la newsletter (textes, boutons, fond du template). Elles peuvent par exemple reprendre celles de la charte graphique de la tutelle
Déjà abonné ? Connectez-vous...
Depuis les années 90, l’Open Access, porté par l’essor d’Internet et la philosophie de la science ouverte, a profondément transformé l’accès aux publications scientifiques en démocratisant la diffusion des connaissances.
Cette révolution a été marquée par la création d’archives ouvertes et de moteurs de recherche académiques, facilitant l’accès, libre ou payant, à des articles scientifiques. Elle s’est amplifiée avec la création de plateformes avancées, des initiatives pour l’accès aux citations et résumés, et le développement d’outils dopés à l’intelligence artificielle qui améliorent l’accès, l’analyse, et l’utilisation des données scientifiques.
Tout en gardant à l’esprit les défis notamment en matière de financement et de droits d’auteur, nous avons exploré l’apport de ces ressources ouvertes aux chercheurs, veilleurs et documentalistes et les nouvelles possibilités d’interaction avec les données.
Nous avons également analysé la position de ce nouvel horizon informationnel par rapport aux bases de données scientifiques payantes traditionnelles, qui ont longtemps été considérées comme des piliers essentiels de la recherche au sein des services de documentation en raison de leurs capacités de recherche avancée et de leurs vastes volumes de données.
Pendant longtemps, ces deux mondes, libre et payant, ont évolué indépendamment. Les services d’information privilégiaient les bases de données payantes pour répondre aux besoins de leurs clients internes, chercheurs et ingénieurs. L’avènement d’outils disruptifs comme Google Scholar a progressivement rendu ces utilisateurs plus autonomes, les incitant à explorer d’abord le web scientifique ouvert avant de recourir aux services d’information. Et la boucle est bouclée : les professionnels de l’information, soucieux d’une recherche exhaustive et aussi des coûts, se tournent de plus en plus vers des ressources en accès libre.
Il faut revenir aux années 90 pour voir émerger le mouvement de la science ouverte, principalement sous la forme de l’« open access », porté par la volonté de donner un accès libre et gratuit aux publications scientifiques.
Cela va se matérialiser au départ sous la forme d’archives ouvertes. L’archive ouverte ArXiv avec ses preprints, une des pionnières en la matière, a été créée en 1991.
La deuxième phase de développement se situe ensuite dans les années 2000 avec l’essor de l’Internet grand public. L’archive ouverte française HAL est ainsi lancée en 2001.
Beaucoup plus récemment, le développement des plug-ins d’accès à la littérature scientifique a permis de repérer beaucoup plus simplement un article disponible en libre accès quelque part sur le Web, éventuellement sous forme de preprint ce qui n’était pas toujours évident.
Par ailleurs, quand on parle d’open access, il faut bien distinguer :
● D’une part l’accès gratuit au document primaire (l’original);
● D’autre part l’accès à une plateforme ou à un moteur permettant de rechercher puis de visualiser gratuitement uniquement des références d’articles et de proceedings et aussi parfois de chapitres de livres.
Ces outils proposent, en général, un lien vers l’article qu’il soit en open access, dans une archive en ligne ou en accès payant. C’est le cas avec PubMed lancé en 1996 et Google Scholar en 2004.
On a, depuis, vu apparaître de nouveaux moteurs académiques comme Semantic Scholar (2015), The Lens (en 2000 pour la partie brevet, en 2017 pour la littérature académique), Dimensions (2018). Puis sont apparus des outils de recherche par réseaux de citations et d’auteurs (avec ou sans dataviz) comme Connected Papers, Inciteful, Research Rabbit (voir notre article Les nouveaux outils de dataviz pour explorer la littérature scientifique, dans BASES n° 414, mai 2023) et maintenant des outils de recherche IST dopée à l’IA comme Consensus, Scispace, RDiscovery, etc. (voir notre article La vague d’outils IA pour l’Information Scientifique et Technique (IST) dans BASES n° 420 décembre 2023).
Pour rappel : L’Open Citations Initiative (I4OC) est une collaboration entre des éditeurs universitaires, des chercheurs et d’autres parties prenantes pour promouvoir la disponibilité sans restriction de données structurées, séparables et ouvertes sur les citations savantes.
L’Initiative for Open Abstracts (I4OA) est une collaboration entre des éditeurs universitaires, des organisations d’infrastructure, des bibliothécaires, des chercheurs et d’autres parties prenantes qui défendent et promeuvent la disponibilité sans restriction des résumés des publications savantes du monde entier.
Le nombre d’articles en open access a considérablement progressé pour être maintenant sensiblement équivalent au nombre d’articles en accès fermé (c’est-à-dire payants). Les chiffres varient d’une source à l’autre.
Déjà abonné ? Connectez-vous...
Notre habitude est de construire des stratégies complexes, mêlant synonymes, mots écrits de différentes façons (crosslink ou « cross link » par exemple), avec des opérateurs booléens, de proximité, des possibilités d’exclure des thématiques et, enfin, de multiples possibilités de combiner des étapes. Autant le dire tout de suite, ces stratégies ne sont pas transposables en l’état dans ces nouveaux outils.
Pour réaliser nos tests, nous avons donc dû utiliser des stratégies relativement simples qui puissent fonctionner sur tous les outils. Nous nous sommes limités aux références d’articles ou de conférences, incluant les preprints qui sont de plus en plus pris en compte. En revanche nous n’avons pas, dans la mesure du possible, pris en compte les chapitres d’ouvrages et les thèses. Les recherches se font dans le titre, ce qui n’est pas toujours simple, certains systèmes n’offrant pas cette option, obligeant à faire des comptages manuels. Nous avons envisagé de tester une recherche par affiliation mais cette fonctionnalité n'est pas disponible dans tous les moteurs.
Cette comparaison entre les serveurs et les outils gratuits ne pouvant se faire que sur des stratégies simples, on laisse de côté la puissance de recherche et le confort d’utilisation pour ne comparer que le nombre de réponses. Par ailleurs, il est évident que ces tests n’ont aucune valeur statistique et que l’on ne peut rien généraliser à partir de leurs résultats.
interoperable
» dans le titre de documents publiés en 2024. Nous avons choisi ce terme car c’est une requête très simple sur des outils aux fonctionnalités parfois peu avancées. De plus ce terme est souvent utilisé dans de nombreux domaines scientifiques.cross language information retrieval
» dans le titre pour des documents publiés en 2023 et 2024. Ici nous avons une requête de test sur une expression. Venons-en maintenant à l’analyse des résultats dans les différents outils.
C’est un des moteurs dont on parle beaucoup actuellement et qui de plus répond bien, cependant, dans notre premier exemple quelques réponses proviennent de IEEE Xplore (voir plus loin) où elles étaient publiées déjà l’année précédente. On note une référence originale de l’université de Ljubljana. On suppose que la recherche se fait, par défaut, sur l’ensemble de la référence et le texte de l’article. On peut classer les réponses par pertinence ou par date.
Déjà abonné ? Connectez-vous...
En France, pays champion européen de l’open data, on parle souvent des startups qui parviennent à exploiter des données accessibles en accès gratuit, pour en faire des services, avec parfois une option payante, à l’instar de Pappers ou Doctrine.
Depuis la démocratisation de l’IA amorcée il y a plus d’un an avec la mise à disposition au public de ChatGPT, suivie depuis par d’autres IA génératives et services afférents, comment le traitement des données ouvertes a-t-il évolué et surtout, est-il davantage accessible à un utilisateur sans formation technique particulière en amont ? Exploration, étape par étape, du traitement des données, de l’extraction à la publication.
Première étape : la collecte des données. Celle-ci peut se faire de deux façons : en téléchargeant un dataset ou en procédant à l’extraction des données sur un document. C’est dans ce second cas que les outils IA interviennent. S’offrent alors deux possibilités d’extraction de données :
● Avec un outil IA où l’on importe un fichier de données.
● Avec un tableur habituel, auquel on ajoute un module IA.
Les outils IA qui permettent d’importer gratuitement des documents à traiter ne prennent pas en charge les formats de bases de données, mais uniquement les formats textes et PDF. Dans ce cas, extraire les données d’un document pour les récupérer sous forme texte ou de tableau est un jeu d’enfant.
Prenons par exemple ce document https://sante.gouv.fr/IMG/pdf/ListeESvolontaires2013.pdf qui dresse une liste des hôpitaux en France en 2013, trouvé par une requête Google « liste hôpitaux en France PDF
».
Figure 1 : L’extraction de données ave DUST. Sur simple demande.
La différence entre ces outils réside non seulement dans la qualité de l’extraction, mais surtout dans les formats de documents importables et exportables.
Déjà abonné ? Connectez-vous...
L’année 2023 a été marquée par la démocratisation des IA génératives. Cette technologie de pointe, qui a émergé sur le marché en 2020, était alors réservée à quelques experts qui payaient une API. Amorcée par la mise sur le marché de l’interface gratuite ChatGPT d’OpenAI, dont la plupart des produits sont devenus payants dans les mois qui ont suivi, cette démocratisation pourrait néanmoins perdurer grâce au développement de modèles de langage sous licence ouverte (ou « open source »).
Cette licence permet en effet d’exploiter un modèle de langage pré-entraîné à moindres frais (moins de 500 dollars dans la plupart des cas et avec des ressources de calcul modestes), ouvrant ainsi l’accès à un large éventail de chercheurs, de développeurs et d’organisations.
Il existe néanmoins quelques freins pour que le veilleur puisse en profiter.
● L’étude du fonctionnement du système et l’inspection de ses composants ;
● L’utilisation de son système à n’importe quelle fin, sans avoir à demander la permission ;
● La modification du système pour changer ses recommandations, prédictions ou décisions afin de l’adapter à ses besoins ;
● Le partage du système avec ou sans modifications, à quelque fin que ce soit.
Disons-le franchement, la confusion règne entre les noms des produits/outils (par exemple, un chatbot), des modèles de langage et des algorithmes. Ils ont parfois le même nom alors qu’il s’agit de trois entités distinctes. Le veilleur, en tant qu’utilisateur final, manipule des outils. Ces derniers reposent sur un modèle de langage (LLM), qui lui-même repose sur un algorithme (et un mode d’apprentissage).
Par exemple, chatGPT est un outil (un chatbot) qui fonctionne avec le LLM propriétaire GPT 3.5, qui désigne aussi son algorithme. Gemini est à la fois un chatbot de Google accessible gratuitement, mais aussi le nom de son modèle de langage (LLM) qui n’est pas en open source non plus, ainsi que de son algorithme !
Enfin, certains outils, comme le moteur de recherche Perplexity, reposent sur un modèle mixte. Il a développé son propre modèle mais il utilise aussi Copilot (outil propriétaire de Microsoft) et LLaMA (modèle ouvert de Meta).
Par ailleurs, malgré une expansion marquée récemment par la success story de Mistral, la startup « française » créée il y a quelques mois et déjà valorisée à deux milliards de dollars pour son modèle de langage open source, cette licence reste minoritaire dans les outils IA du veilleur.
Sur le portail d’outils IA Futurepedia qui recense plus de 5 000 outils (voir notre article en accès libre, Focus IA : notre sélection d’annuaires d’outils IA, BASES N°414, Mai 2023) et dispose d’un filtre Open source
, on note cette proportion :
● 20 générateurs de prompts sur 132 sont en open source
● 15 générateurs de texte sur 294
● 0 outil de réécriture sur 28
● 7 outils de copywriting/aide à la rédaction sur 209
● 2 outils marketing sur 81
Mais dans la dizaine d’outils consultés, rares sont ceux qui précisent leur modèle de langage !
Cette faible proportion d’outils s’explique par le fait que les modèles de langage accessibles en open source s’adressent davantage aux développeurs qu’aux utilisateurs finaux.
Une autre explication réside sans doute dans le fait que les LLM open source manquent encore de fine tuning, ou ajustement. Or, c’est cette phase finale qui assure un niveau de précision suffisant, pour être exploité par un utilisateur final.
Déjà abonné ? Connectez-vous...
● Nombre de titres de presse écrite (2021, Ministère de la Culture) : 3872
● Nombre de radios (2022, Arcom) : + 1000
● Nombre de chaînes de télévision (2022, Arcom) : 30 chaînes nationales
● Classement de médias numériques (2021, Mind Media, par nombre d’abonnés) : Le Monde, L’Équipe, Le Figaro, Ouest-France, Les Échos, Libération, Le Parisien.
Vivendi (V. Bolloré) : Groupe Canal + (Canal+, Canal+ Cinema, Planète+, Canal+ Sport), CNews, C8, CStar), Prisma Media (Géo, Femme actuelle, Gala), Lagardère News (JDD, Europe 1, Paris Match, RFM, Europe 2, Elle International), etc.
NJJ Holding (X. Niel) :
● NJJ Presse : La Provence, Causeur, Les Jours, L’Informé, France Antilles, Paris Turf.
● NJJ Presse/Fonds pour l’indépendance de la presse : Groupe Le Monde (Le Monde, Le Monde Diplomatique, L’Obs, Télérama, Courrier international La Vie, etc.), Groupe Nice Matin (Nice Matin, Var Matin, Monaco Matin).
● Mediawan : AB1, RTL9, Ation, 14 chaînes de télévision, 50 labels de production dont Studio Lagardère.
LVMH (B. Arnault) : Les Échos, Le Parisien/Aujourd’hui en France, Investir, Historia, Challenges, Mieux Vivre Votre Argent, La Lettre de l’Expansion, Sciences & Avenir, Mezzo, Connaissance des Arts, etc.
Czech Media Invest (Kretinsky) : Elle, Marianne, Version Femina, Télé 7 jours, France Dimanche, Ici Paris, Public, Art & Décoration, Libération, Usbek & Rica, Franc-tireur.
Reworld Media : Auto Moto, Auto Plus, L’Auto Journal, Science & Vie, Science & Vie Junior, Marie France, Maison et Travaux, Télé Poche, Télé Star, Biba, Be, Diapason, Psychologies, Pleine Vie, Le Chasseur français, Vital, etc.
● Les éditions régionales des médias nationaux
● Les médias régionaux/locaux mainstream
● Les médias indépendants locaux et hyperlocaux
● Les médias des collectivités
Déjà abonné ? Connectez-vous...
La connaissance des médias est une compétence essentielle du sourcing et de l’analyse dans la veille informationnelle. Pourtant, les professionnels de la veille et des médias ne se côtoient que trop rarement. Or, connaître l’univers - et la diversité - médiatique est justement ce qui permet de constituer un corpus complet, c’est-à-dire qui prend en compte l’ensemble des opinions autour d’une question. Visite guidée, à l’aube d’une prochaine disruption médiatique.
Le paysage médiatique français est constitué d’un grand nombre de titres traditionnels : plus de 5000 titres de presse écrite, radios et chaînes de télévision en 2021, selon les chiffres du ministère de la Culture et de l’Arcom.
Pourtant, le grand nombre de médias ne reflète pas complètement leur diversité : il est régulièrement reproché aux plus importants diffuseurs, ceux qui « font l’opinion », d’appartenir à une trentaine de milliardaires (cf. Figure 1). Et cette structuration du marché français s’accentue par d’importants mouvements de concentration.
Seul le secteur de la radio est très peu concentré : parmi quelque 1000 radios, seuls quatre groupes privés disposent de plus d’une station (NRJ Group, M6, Lagardère et NextRadioTV). Mais les mouvements de concentration sont tels qu’une commission d’enquête a été mandatée par le Sénat en 2021, au regard de son impact potentiel sur le régime démocratique.
En face, les indépendants, souvent locaux, tentent de couvrir les déserts informationnels géographiques avec dynamisme.
Voir notre article « Comment profiter du renforcement de l'information locale pour son sourcing ? », NETSOURCES, décembre 2023.
Figure 1 : Le Monde diplomatique/Acrimed, carte remise à jour tous les ans à l’adresse suivante : https://www.monde-diplomatique.fr/cartes/PPA#partage
Déjà abonné ? Connectez-vous...
Les médias locaux évoluent et cela impacte directement le sourcing et les pratiques de veille. Comment identifier et intégrer ces sources et verticales dans son sourcing ?
Il y a des veilles et des recherches d’information où la dimension locale est primordiale. L’information locale qu’il faut réussir à capter, c’est alors celle fournie par des journaux locaux, radios et TV locales, collectivités locales, mais aussi par des internautes désireux de partager des informations.
Ces différentes sources vont permettre d’obtenir des informations uniques et stratégiques notamment au niveau de la politique et de l’économie locale.
En France, quand on pense information locale, on pense avant tout à la PQR (presse quotidienne régionale) et à la PHR (presse hebdomadaire régionale) et par extension à un secteur touché de plein fouet par les difficultés rencontrées par la presse depuis des années.
On aurait vite fait d’extrapoler et de se dire que la veille locale en France risque d’être de plus en plus compliquée avec des sources et des informations locales moins nombreuses. Mais malgré ce sombre tableau, l’information locale n’a pas dit son dernier mot et se renforce même à différents niveaux et via différents canaux.
Dans cet article, nous explorons cette évolution et examinons ses répercussions sur la veille et la recherche d’informations.
La grande difficulté pour le professionnel de l’information, se situe lors du recensement des médias locaux pertinents, c’est-à-dire au moment du sourcing.
Il y a souvent une première couche de médias locaux faciles à identifier, les médias locaux mainstream qui vont revenir en boucle dans les recensements et outils de recherche et de veille. Il s’agit des journaux locaux ayant le plus de visibilité c’est-à-dire les grands titres de PQR comme Ouest France, Sud Ouest, Le Parisien, La Voix du Nord, Le Progrès, etc. Et une seconde couche à laquelle il est bien plus difficile d’accéder, avec des médias locaux plus « électrons libres » et moins visibles dans le paysage national qu’il va falloir réussir à pêcher.
Regardons les différents outils utilisés classiquement par les veilleurs et leurs capacités actuelles à détecter des médias locaux.
● La majorité des recensements de médias à l’échelle d’un pays, des annuaires de presse, etc. vont se focaliser sur les médias locaux mainstream. Peu de traces des autres médias locaux à l’exception de recensements spécifiquement dédiés aux médias locaux non mainstream.
● Du côté des outils de recherche, Google actualités reste une source importante pour la veille d’actualités notamment quand on a peu de budgets, mais il couvre mal la presse locale et hyperlocale. Il y a bien les principaux titres de PQR, mais la couverture devient vite moins bonne pour la PHR et très mauvaise pour les titres indépendants.
● Les agrégateurs de presse ont quant à eux une couverture locale variable : ceux qui ont une couverture mondiale comme Factiva ou Newsdesk proposent des médias locaux, mais on est là encore surtout sur des médias mainstream même s’il y a parfois quelques pépites. À l’inverse, il existe des agrégateurs de presse qui visent avant tout une couverture nationale et locale, à l’image de Tagaday en France, et ces agrégateurs vont avoir une excellente couverture des médias locaux.
● Du côté des outils de veille, les agrégateurs de flux RSS comme Feedly ou Inoreader référencent surtout les médias locaux mainstream dans leurs annuaires de sources incorporées. Pour les plateformes de veille, il faut regarder au cas par cas dans les corpus, mais la couverture locale française ou d’autres pays est très variable d’une plateforme à une autre. Impossible cependant d’être plus spécifique, car ces acteurs restent très discrets sur ce qui compose leurs corpus clé en main.
Le constat général est donc le suivant : les médias locaux mainstream ne sont généralement pas difficiles à identifier et sont souvent inclus dans les outils professionnels.
En revanche, l’identification des médias locaux indépendants ou de niche reste difficile à réaliser. Nous vous expliquons comment faire.
Déjà abonné ? Connectez-vous...
Les médias des collectivités locales sont des sources essentielles d’informations régionales au rôle bien singulier. Et comme l’intégration de ces ressources dans une veille reste un véritable défi, comment identifier, surveiller et intégrer ces médias à son système de veille.
Parmi les sources utiles pour trouver de l’information locale en France, les journaux des collectivités (communes, communautés de communes, départements ou régions) sont en bonne position. Ces médias ont une place bien à part dans le paysage des médias locaux. Ils ont la forme d’un journal ou d’un magazine, mais sont généralement la voix de l’équipe politique en place, à l’exception des quelques pages réservées à l’opposition.
Une fois que l’on a bien conscience du positionnement et des biais associés à ce type de publication, il n’en reste pas moins qu’on peut y trouver de l’information locale intéressante et parfois exclusive pour sa veille, notamment sous les angles de la politique et de l’économie locale, des acteurs locaux et de l’événementiel local.
Pourtant, réussir à les utiliser pour sa veille est loin d’être simple, car il n’existe à ce jour aucun agrégateur, outil centralisateur pour ce type de contenus et on se retrouve avec une multitude de magazines plus ou moins accessibles aux modalités et formats différents.
Dans cet article, nous verrons comment identifier ces médias, comment les mettre sous surveillance ou effectuer des recherches sur leurs contenus et comment leur trouver une place adéquate dans son système de veille.
Avant de voir comment identifier et mettre en veille ces sources singulières, il convient de s’arrêter sur le positionnement et les dernières évolutions de ces sources. Le comprendre permettra ensuite de mieux les appréhender et mieux savoir où et comment les trouver.
En 2021, Le Courrier des Maires avait consacré un dossier complet aux médias et élus locaux et notamment à la place des magazines municipaux.
On y apprend que nombre de magazines municipaux ont été renforcés ces dernières années et bénéficient entre autres d’une pagination plus importante. Parfois, ce sont même d’anciens journalistes qui sont aux commandes de ces médias réinventés. Certains médias vont encore plus loin dans le développement du média municipal : lancement de hors-série, site dédié au magazine, lancement d’une app dédiée et même parfois lancement de podcast.
C’est par exemple le cas à Villeurbanne où « l’équipe du magazine municipal de Villeurbanne Viva ! a lancé un nouveau podcast “Sauce Samouraï”, qui revient sur une actualité de son territoire avec deux invités en 25 minutes. » (source : festival de l’info locale, mars 2023).
Le positionnement et la parole portée auraient aussi un peu évolué avec les années. Dans l’article, une des personnes interviewées, un consultant en communication, explique qu’« on ne fait plus seulement parler le maire ou ses amis, mais aussi les habitants. Les bulletins municipaux ou communautaires ne sont plus tant une profession de foi permanente qu’une contribution au débat public ». Mais l’article rappelle tout de même que ces médias ne peuvent pour autant pas être mis sur le même plan que la presse locale. Cela reste de la communication, financée par de l’argent public, mais aussi par des entreprises locales qui peuvent faire de la publicité dans le même magazine.
Le secteur des bulletins/magazines des collectivités est visiblement en forme et s’étend avec plus de produits et de contenus. Cela veut donc dire plus de contenus potentiellement pertinents pour la veille. Et comme il y a aussi une diversification des supports, il faudra aussi regarder s’il n’existe pas d'autres produits d'information potentiellement intéressants, comme des podcasts par exemple.
On gardera enfin en tête que même si la parole est peut-être plus donnée aux habitants que par le passé, ces magazines restent des exercices de communication qui n’ont pas vocation à montrer une pluralité de points de vue. On les consultera pour identifier des acteurs, entreprises ou startups locales, rechercher des événements locaux, détecter des projets et les éventuels problèmes liés à ces projets, faire une veille événementielle, mais on ne pourra pas les utiliser dans le but d’avoir une vision impartiale et objective de la politique locale.
La difficulté avec ces médias, c’est qu’il n’existe pas de moteur, agrégateur de presse ou base de données en indexant une majorité. Chaque commune a son propre format et son propre mode de diffusion et de stockage.
Ils peuvent être au format PDF sur le site Web, au format liseuse sur Calaméo, etc. Ils peuvent se trouver dans différentes pages des sites Web (page d’accueil, nos publications). Et il y a encore quelques années, il y avait des bulletins municipaux qui n’existaient qu’au format papier et étaient donc difficilement accessibles pour le veilleur.
Seulement un très petit nombre de médias municipaux sont référencés dans les outils classiques du professionnel de l’information. On peut ainsi tomber sur quelques résultats émanant de ces médias dans Google Actualités.
Si on veut inclure ces médias à sa veille et ses recherches, il va falloir les identifier spécifiquement, les mettre sous surveillance ou se créer ses propres outils de recherche dédiés.
D’emblée, on oubliera l’idée de mettre sous surveillance ou de créer un outil de recherche sur l’ensemble des médias des collectivités en France. Ce serait bien trop chronophage à réaliser, car il faut aller les récupérer un par un et surveiller la sortie de chaque nouveau numéro.
Déjà abonné ? Connectez-vous...