Comment trouver des interlocuteurs qui permettent d’approfondir sa recherche ?
À l’instar de la première étape de veille, le premier réflexe est de réfléchir à son besoin. Voici les questions à se poser :
1. De quelles compétences ai-je besoin, pour faire quoi ? Par exemple : pour enrichir son sourcing local en identifiant de nouvelles sources, mieux évaluer ses sources, décrypter les pratiques commerciales du pays, etc.
2. Quelle est la nature des informations dont j’ai besoin ? Culturelles, professionnelles, techniques ? A-t-on besoin d’être dans le pays ou non ?
Lire aussi :
Fiche pratique : Comment identifier les meilleurs experts ?(payant)
Les obstacles à la recherche d’informations financières d’entreprises à l’étranger
3. Quelles langues je comprends le mieux et/ou puis-je faire appel à un traducteur ?
4. Par quels moyens consulter cette personne ? (Ne pas faire l’économie d’une communication orale)
Ensuite, on privilégiera trois critères de sélection : la proximité de langage afin d’éviter une interprétation erronée et de se sentir plus libre de poser toutes les questions que l’on souhaite, la proximité culturelle et professionnelle et la proximité informationnelle.
Mais attention toutefois, être « sur place » n’est pas le seul gage de crédibilité. Parfois, le recul émotionnel et/ou géographique permet aussi d’analyser les événements avec davantage d’objectivité et de liberté, tout en minimisant le risque de conflit d’intérêts !
Déjà abonné ? Connectez-vous...
Lors de sa veille, il n’est pas rare d’identifier ou de collecter des contenus dans des langues que l’on ne maîtrise pas ou pas parfaitement. Mais ce n’est pas parce qu’on est en mesure de trouver les bons mots-clés dans une langue qui n’est pas la sienne que l'on est capable de comprendre et d' analyser des textes. Et c’est là que la traduction automatique vient jouer un rôle crucial.
La traduction automatique avait fait un bond en avant il y a quelques années avec l’introduction de l’IA et du NLP (natural language processing en anglais, ou traitement du langage naturel en français) dans les outils de traduction tels que Google Translate ou DeepL. La qualité des traductions s’en était alors retrouvée clairement améliorée. Aujourd’hui, c’est l’arrivée de ChatGPT et plus largement des IA conversationnelles qui vient changer la donne et le paysage de la traduction automatique.
Pour cet article, nous avons testé les capacités de ChatGPT et de ses acolytes, à l'instar de Perplexity, par rapport aux outils de traduction plus traditionnels comme Google Translate ou DeepL dans un contexte de veille afin de déterminer quelle était la meilleure méthode pour traduire les informations issues de la veille.
Lire aussi :
Les plateformes de veille internationales peuvent-elles intéresser les veilleurs francophones ?
Les outils professionnels suffisent-ils pour s’aventurer en territoire inconnu ?
Il existe de nombreux traducteurs en ligne, mais cela fait déjà longtemps que deux acteurs sortent véritablement du lot : DeepL, qui se revendique lui-même comme « le meilleur traducteur au monde », ce qui est certes un peu prétentieux, mais qui n’est pas loin de la réalité et Google Translate, qui produit également des traductions de qualité et qui a l’avantage d’être complètement gratuit.
Nous avons testé ces deux acteurs sur plusieurs textes dans différentes langues et le résultat est à la hauteur même si la traduction n’est pas absolument parfaite. Mais dans un contexte de veille, le but est de comprendre le sens du texte en évitant tout contresens et de ce point de vue là, les traducteurs en ligne font très bien ce pour quoi ils ont été conçus.
Nous avons tenté de demander à ChatGPT (version gratuite) et un de ses concurrents Perplexity de nous traduire plusieurs articles en ligne de l’anglais vers le français ou inversement.
Déjà abonné ? Connectez-vous...
La question du multilinguisme intervient également dans la phase de diffusion de la veille quand il s’agit de produire des contenus dans différentes langues : soit en dupliquant les livrables dans différentes langues pour satisfaire les besoins des collaborateurs basés dans différents pays soit pour produire des livrables dans une langue unique que tous les collaborateurs comprennent, dans la majorité des cas l’anglais.
Mais rares sont les veilleurs et professionnels de l’information maîtrisant à la perfection de multiples langues. Et quant à l’anglais, même si nombreux sont ceux qui en ont une maîtrise professionnelle ou avancée, il n’en reste pas moins que produire des contenus dans une langue qui n’est pas sa langue natale prend nécessairement plus de temps et de réflexion.
Comment produire des livrables multilingues et gagner du temps tout en produisant des contenus en « bon anglais » ? C’est ce que nous avons exploré dans cet article.
La première solution consiste à rédiger son livrable dans sa langue natale ou de travail puis de faire traduire le contenu par des outils de traduction automatique comme DeepL ou Google Translate évoqués dans le précédent article. En fonction du format du livrable (fichier, mail, newsletter, etc.), on choisira l’outil ou la fonctionnalité appropriés.
Avec cette méthode, la qualité de la traduction est souvent correcte, mais on arrive facilement à détecter qu’il s’agit d’une traduction « machine » et que ce n’est pas de cette manière qu’une personne « native » rédigerait.
Déjà abonné ? Connectez-vous...
Cette nouvelle rubrique « FICHE DE SYNTHSE» se propose d’aider à comprendre en un clin d’œil les informations clés de chaque numéro de NETSOURCES. La datavisualisation faisant l’objet d’un numéro double, vous trouverez ici un rappel du précédent numéro. Cette rubrique sera également déclinée en version pédagogique « pas à pas » et commentée dans nos fiches pédagogiques « Les essentiels de la veille». Bonne lecture !
Avec l’internationalisation de la vie économique et institutionnelle, le professionnel de la veille doit gérer de plus en plus de langues, du sourcing jusqu'à la production du livrable.
Quelles particularités le multilinguisme ajoute-t-il aux méthodes classiques de veille et que proposent les plateformes de veille et les outils de traduction en ligne ?
Déjà abonné ? Connectez-vous...
La datavisualisation, comme toutes les technologies, transforme les outils, les processus et l’organisation des entreprises. Elle amène à repenser les méthodes et les modes de communication, et le domaine de la veille n’y échappe pas.
Dans la première partie de notre dossier consacré à la dataviz, nous avons exploré comment la représentation visuelle des données pouvait trouver sa place à chaque étape de la veille. Elle apporte une aide puissante à l’expression initiale des besoins, à la construction des différentes briques du dispositif, et à la conception des livrables de veille.
Elle offre ainsi des possibilités de représentation, d’analyse et de synthèse des informations où le veilleur peut exercer sa créativité, et développer de nouvelles interactions avec ses clients et le top management.
Enfin, en permettant une meilleure compréhension des données et une identification des tendances et modèles sous-jacents qui auraient été peut-être plus difficiles à voir à l’œil nu, la datavisualisation contribue à une prise de décision plus éclairée pour l’entreprise.
De la théorie à la pratique, n’est-ce qu’un simple pas à franchir ?
Lorsqu’il s’agit d’analyse des informations textuelles, non structurées, la réalité se révèle souvent complexe. C’est pourquoi nous avons souhaité accompagner le veilleur tout au long de son parcours opérationnel.
La définition des objectifs de la démarche d’analyse des données, la mise en place du process global, la réflexion sur les sources et les données, ainsi que le choix des outils adaptés aux différentes opérations, sans oublier la nécessaire formation - intense ! - pour la maîtrise de ces outils, montrent le défi à la fois stratégique, humain et technique qui nous attend.
Parmi les points critiques, citons la récupération de sources fiables et la préparation de corpus textuels et métadonnées représentatifs de l’objet d’étude, avec la difficulté de récupérer de larges volumes de données due aux restrictions d’accès. De plus, la qualité variable des données et l’hétérogénéité des formats exigent des traitements souvent laborieux pour une exploitation future.
S’il existe de nombreux outils de datavisualisation automatisée pouvant aider à produire rapidement des cartographies, graphes ou tableaux, la création d’une visualisation de données efficace et personnalisée en fonction de l’audience nécessite une compréhension humaine des enjeux, des outils et des techniques de communication.
On le voit donc, la dataviz reste une démarche humaine car elle implique un processus de réflexion, de conceptualisation et de création qui ne peut être entièrement automatisé.
La datavisualisation a un rôle à jouer à toutes les étapes de la veille comme nous avons pu le voir dans le précédent numéro de NETSOURCES. Cela commence dès les premières étapes de la veille avec la définition précise d’un sujet ainsi que le choix des mots-clés et du champ lexical à utiliser pour créer de futures alertes.
Dans cet article résolument pratique, nous avons voulu montrer comment la représentation de données pouvait apporter une aide précieuse dès cette première étape de formalisation du besoin et surtout comment s’y prendre concrètement, avec quelles méthodes et quels outils.
Pour nous aider à déterminer les angles de la veille, les thèmes à surveiller et les termes à mettre sous surveillance, nous avons choisi d’analyser un gros volume d’articles de presse sur le sujet, car même si ChatGPT est apparu récemment dans les médias, le volume d’articles consacré à cette IA est considérable et donc peu assimilable humainement.
Nous partirons donc d’un corpus d’articles de presse conséquent que nous analyserons grâce à plusieurs outils de datavisualisation spécialisés dans l’analyse textuelle et letext mining. Ces outils devraient nous permettre de voir rapidement quels sont les thèmes et les termes clés à prendre en compte. Nous analyserons ensuite la valeur ajoutée de cette démarche par rapport à une démarche classique manuelle, mais aussi ses limites.
Il faut d’abord s’entendre sur ce que signifie « récupérer un corpus de presse ». Il peut s’agir de récupérer un corpus d’articles en texte intégral ou bien un corpus de références d’articles avec les titres d’articles et les premières lignes.
Récupérer des articles en texte intégral permet une analyse plus poussée, mais c’est aussi la méthode la plus complexe et onéreuse.
D’autant plus que si on constitue son corpus sur le Web, il est de plus en plus rare de trouver des articles de presse gratuits et si on utilise des agrégateurs de presse payants, il est fréquent d’avoir une limite dans le nombre d’articles que l’on peut consommer chaque mois. Pour des raisons budgétaires, il est donc peu envisageable d’extraire un corpus constitué de milliers d’articles de presse en texte intégral, corpus qui, dans ce cas précis, ne sert que pour la mise en place de la veille.
Déjà abonné ? Connectez-vous...
La dataviz a un rôle important à jouer dans la réalisation des livrables en permettant notamment de représenter visuellement des informations et des analyses qui auraient pu avoir beaucoup moins d’impact si elles avaient été uniquement restituées sous forme de texte.
Mais utiliser la dataviz dans ses livrables, ce n’est pas appuyer sur un bouton pour récupérer en un clic toute une série de représentations graphiques adaptées à ses problématiques. Ce serait trop beau. C’est en réalité beaucoup plus complexe et fastidieux et nous en avons fait l’expérience à partir d’un exemple concret.
Nous avons récupéré un corpus issu d’une veille concurrentielle réalisée sur le thème des bactéries probiotiques. La veille était réalisée à l’échelle internationale dans des sources diverses et dans différentes langues : presse, blogs, réseaux sociaux, contenus multimédias, etc. Les informations pertinentes étaient ensuite intégrées dans une plateforme de diffusion.
Chaque « pièce d’information » présentait la forme suivante : Titre, descriptif ou résumé, source et date de publication et différents tags pour qualifier l’information et la rendre plus facilement « retrouvable » dans le futur. Parmi les tags, on retrouvait le ou les acteurs concernés, la zone géographique ou encore le type d’information dont il s’agissait, etc.
Imaginons maintenant que nous souhaitons ajouter une dimension plus visuelle et un niveau d’analyse supplémentaire au livrable de veille en y intégrant des dataviz.
Déjà abonné ? Connectez-vous...
La dataviz semble désormais être partout dans notre monde de l’information professionnelle, dans les demandes des clients et… dans les plateformes de veille.
Cette irruption du quantitatif, de l’analytique et du visuel dans des masses d’information documentaire longtemps sous-exploitées est à notre sens extrêmement positive, tant l’extraction et l’interprétation des données, rendue possible par la dataviz, donnent du sens à celles-ci et valorisent le travail de collecte et capitalisation des professionnels de l’information et de la veille.
Mais attention, utiliser la cartographie dans le but d’embellir une présentation ou, pire, en faire un argument de vente à une direction d’entreprise en promettant de générer «automatiquement» du sens via des graphes et représentations diverses, est en soi une aberration trop souvent observée… La dataviz comme pensée «automatisée», voire magique, est un facteur de risque, de contresens et confusion.
L’une des confusions que l’on voit souvent est due à l’absence de réflexion suffisante en amont, sur la nature des données que l’on doit traiter et sur le mode de datavisualisation à choisir. L’enjeu ici est important : l’analyse visuelle des données ne peut se faire sans outil, ni développement de compétences adéquates, et le coût n’est finalement pas neutre.
Pour illustrer cette affirmation, nous partageons l’exemple d’une demande récemment formulée par une lectrice, qui porte sur l’utilisation du fameux logiciel de datavisualisation Gephi pour identifier à partir de Twitter de nouvelles sources d’information sur la santé numérique. L’idée était que les comptes les plus prolixes étaient ceux qui véhiculaient le plus de liens vers des références, potentiellement récupérables via l’extraction des noms de domaine.
Déjà abonné ? Connectez-vous...
Cette nouvelle rubrique « FICHE SYNTHETIQUE » se propose d’aider à comprendre en un clin d’œil les informations clés de chaque numéro de NETSOURCES. La datavisualisation faisant l’objet d’un numéro double, vous trouverez ici un rappel du précédent numéro. Cette rubrique sera également déclinée en version pédagogique « pas à pas » et commentée dans nos fiches pédagogiques « Les essentiels de la veille». Bonne lecture !
Déjà abonné ? Connectez-vous...
Les métiers des professionnels de l’information, - documentation, veille, KM et autres fonctions liées à la gestion de l’information, - ont toujours été en prise directe avec les évolutions du numérique.
Il nous semble que ces évolutions impactent nos métiers de deux façons différentes.
La première est une déstabilisation forte, sous l’effet par exemple de l’arrivée d’Internet hier ou de l’IA aujourd’hui qui « concurrencent » et remettent en cause l’existence même du professionnel.
La seconde agit plutôt comme un moteur de transformation. Elle a pour effet d’élargir les compétences du spécialiste car elle le pousse à intégrer les nouveautés technologiques dans son offre de service et à monter en compétence. On l’a vu par exemple avec les systèmes de GED, et cela nous paraît être aussi le cas de la data.
Depuis une dizaine d’années la data « interroge » les différents profils de spécialistes. Elle pose la question de leur ouverture au monde des données quantitatives, et non plus seulement qualitatives.
L’irruption d’un monde de chiffres bouscule le savoir-faire établi du spécialiste de l’information textuelle, formé aux traitements de nature documentaire sur de gros corpus de textes. En cela elle brouille la représentation des métiers du document et des compétences qui leur sont rattachées. Et il n’est pas si simple d’identifier les techniques d’exploitation et d’analyse de ce nouveau champ numérique.
Si les référentiels de compétences sont nombreux pour les data scientists et autres data managers, nous n’en avons pas vu de convaincants pour les nouvelles compétences des professionnels de l’information. Étrangement, on voit des référentiels ou offres d’emploi de profils « purement data » intégrer des compétences de veille mais l’inverse est loin d’être vrai.
Déjà abonné ? Connectez-vous...