Sélectionner le numéro de "Netsources" à afficher

Maîtriser l’IA, un art au service de l’intelligence humaine

Anne-Marie LIBMANN
Netsources no
177
publié en
2025.08
460
Acheter ce no
Tags
podcast | ChatGPT | Intelligence artificielle
Maîtriser l’IA, un art au service de l’intelligence humaine Image 1
Maîtriser l’IA, un art au service de l’intelligence humaine Image 1

L’intelligence artificielle générative n’est pas qu’un outil de productivité : elle redéfinit notre manière de penser, de créer et d’interagir avec l’information. Elle peut devenir une alliée puissante, à condition de l’aborder comme un levier d’amplification de l’intelligence humaine plutôt qu’un substitut.

Ce nouveau numéro de Netsources explore cette ambition à travers quatre dimensions : la maîtrise du dialogue avec le modèle IA, l’évaluation critique des innovations, la création multimédia et plus essentielle que jamais, la préservation de nos capacités intellectuelles.

D’abord, l’art du dialogue avec l’IA. Véronique Mesguich (« Le prompt, un art pour la veille stratégique et la recherche d’information »), montre que le prompt engineering dépasse la simple formulation technique : c’est une discipline de précision, qui fait du professionnel un véritable architecte de requêtes, capables d’augmenter significativement la performance des résultats générés par les LLM.

La mise à l’épreuve des outils illustre cette exigence. Dans son analyse (« ChatGPT Agent : un collaborateur virtuel pour les professionnels de l’information ? »), Ulysse Rajim teste l’agent autonome d’OpenAI sur des tâches comme l’analyse concurrentielle, l’audit SEO ou le social listening. Impressionnant par sa rapidité, l’outil révèle aussi ses limites : erreurs factuelles, accès bloqué par des paywalls, incertitudes liées à la confidentialité des données.

Cette capacité à dialoguer avec l’IA ouvre également des perspectives créatives. Élodie Charrier (« Optimiser son podcast spécialisé avec l’IA : mode d’emploi ») illustre comment elle peut accompagner la préparation, le son et la diffusion d’un podcast, libérant le professionnel pour ce qui compte vraiment — sa créativité et son lien avec l’audience.

Mais l’usage intensif de l’IA appelle une vigilance critique. Christian Vigne (« Penser par soi-même - êtes-vous “IA Gen sobre” ? »), rappelle les risques de cette facilité apparente. Son concept de « pensée auto-propulsée » questionne notre dépendance croissante à l’assistance algorithmique. Comme l’usage excessif de la voiture a pu atrophier certaines aptitudes physiques, la délégation systématique de la réflexion à l’IA pourrait affaiblir nos capacités cognitives.

Maîtriser l’IA, c’est donc apprendre à la piloter sans lui abandonner notre capacité à penser. L’enjeu n’est pas d’aller plus vite, mais de rester maître du sens.

Le prompt, un art pour la veille stratégique et la recherche d’information (Dossier Netsources en deux parties)

Véronique MESGUICH
Netsources no
177
publié en
2025.08
591
Acheter ce no
Tags
méthodologie | veille technologique | ChatGPT | Intelligence artificielle
Le prompt, un art pour la veille stratégique et la ... Image 1
Le prompt, un art pour la veille stratégique et la ... Image 1

Dans ce numéro, nous publions la première partie d’un dossier complet consacré au prompt engineering. La seconde partie paraîtra dans le prochain numéro de NETSOURCES

Ce dossier a pour objectif de vous accompagner dans la maîtrise du prompt engineering, discipline clé pour exploiter pleinement le potentiel des modèles de langage.

De la compréhension des mécanismes fondamentaux aux techniques les plus avancées, , ces deux articles constituent un guide complet pour maîtriser l’art du prompt engineering et tirer le meilleur parti des modèles de langage actuels et futurs.

Premier article : les fondamentaux du prompt engineering

Ce premier article récapitule les principes essentiels pour optimiser la formulation des prompts:

  • Mécanismes internes des LLM : Rappel des processus clés - tokenisation (découpage du texte), embeddings vectoriels (représentation numérique) et architecture transformer (mécanismes d’attention) - pour comprendre comment les modèles traitent les prompts).
  • Frameworks de structuration : Présentation de méthodologies structurantes combinant contexte, rôle et format de sortie, illustrées par des exemples concrets d’application.
  • Techniques avancées : Exploration de méthodes sophistiquées comme les chaînes de pensées, ainsi que des techniques parfois méconnues comme l’utilisation de délimiteurs.
  • Stratégie de longueur : Faut-il privilégier un prompt long et complet («méga-prompt») ou procéder par itérations successives ? La longueur optimale du prompt est une question cruciale.

Second article à venir : les techniques de pointe

  • Méta-prompts vs méga-prompts : Exploration approfondie de ces deux stratégies avancées et analyse de leur distinction pour choisir l’approche optimale.
  • Stratégies de pré-conditionnement : Maîtrise des techniques de pré-prompt
  • Sécurisation : Découverte des protocoles de protection et mise en œuvre du prompt injection testing.
  • Perspective d’avenir : Analyse prospective de l’optimisation des prompts dans l’écosystème GPT-5.

La qualité et la fiabilité des réponses fournies par un modèle de langage dépendent en partie de la formulation des consignes sous forme de prompt. À mesure que les grands modèles de langage (LLM) continuent de gagner en capacité et en complexité, à l’heure où ces LLM évoluent vers des modèles de raisonnement, et où GPT 5 fait son apparition, quelles sont aujourd’hui les bonnes pratiques de prompt pour la recherche d’informations stratégiques ? Commençons par rappeler quelques principes de base.

Tokens et embedding

Comment un prompt est-il « compris » par un modèle de langage ? Lorsque l’utilisateur saisit un prompt, le modèle de langage ne traite pas directement les mots entiers ; il découpe le texte en petites unités de 3 ou 4 caractères appelées « tokens ». La technique de l’« embedding » permet ensuite de transformer ces tokens en éléments sémantiques. À chaque token correspond un identifiant unique, sous forme de représentation numérique (ou vecteur) positionnée dans un espace à plusieurs dimensions. L’emplacement du token dans la phrase est également pris en compte via un codage de position, qui indique l’ordre des mots dans la séquence. 

Les modèles de langage reposant sur les architectures Transformers mettent en œuvre également des mécanismes d’attention, afin de déterminer l’importance de chaque token par rapport aux autres dans la phrase. Ce mécanisme permet au modèle d’attribuer automatiquement un poids à chaque mot ou token, selon son importance dans le contexte global du texte.

image273682 opt

Printscreen : Un prompt transformé en tokens (via OpenAI Tokenizer)

La longueur maximale d’un prompt est mesurée en tokens. La quantité maximale de tokens que le modèle peut prendre en compte est appelée « fenêtre de contexte ». La limite totale inclut le prompt de l’utilisateur, les réponses précédentes dans la conversation et la réponse à venir. Cela équivaut généralement à environ 120 000 tokens, soit environ 80 000 mots. Cette fenêtre de contexte permet ainsi au modèle de langage de suivre le fil de la conversation, ou d’effectuer des actions à partir d’un même document.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Test complet de ChatGPT Agent : que vaut-il pour la veille, l'analyse concurrentielle et l'audit SEO ?

Ulysse RAJIM
Netsources no
177
publié en
2025.08
509
Acheter ce no
Tags
SEO | veille concurrentielle | ChatGPT | Intelligence artificielle
Test complet de ChatGPT Agent : que vaut-il pour la veille, ... Image 1
Test complet de ChatGPT Agent : que vaut-il pour la veille, ... Image 1

ChatGPT Agent promet de révolutionner l'automatisation des tâches professionnelles. Recherche intelligente, navigation autonome, exécution complète de missions complexes : marketing ou réalité ? Nous avons testé l'outil en conditions réelles sur trois métiers critiques de l'information. Notre verdict sans concession.

Avec le lancement de sa nouvelle fonctionnalité Agent, OpenAI enrichit ChatGPT de nouvelles capacités. En plus des échanges conversationnels, l’outil peut désormais exécuter des tâches complexes en combinant recherche avancée et actions autonomes dans un navigateur. C’est en tout cas la promesse : fusionner les capacités d’analyse de Deep Research et d’action d’Operator pour créer un assistant capable de prendre en charge une tâche de A à Z.

Pour évaluer les capacités réelles de cet agent dans un contexte professionnel, nous l’avons mis à l’épreuve à travers trois cas d’usage concrets : une analyse concurrentielle, un audit SEO et une étude de social listening.

I. Présentation de ChatGPT Agent

Annoncée le 17 juillet 2025, la fonctionnalité Agent de ChatGPT est disponible en France depuis le 8 août pour les abonnés aux forfaits Plus, Pro et Team. Elle est issue de la fusion de deux technologies qu’OpenAI développait en parallèle : d’une part, Deep Research, un système de recherche approfondie capable de parcourir des centaines de sources pour synthétiser des sujets complexes, et d’autre part, Operator, un agent capable de prendre le contrôle d’un navigateur web pour effectuer des actions comme cliquer sur des liens ou remplir des formulaires. En combinant les deux, ChatGPT Agent vise à permettre de déléguer à l’IA des activités plus complexes.

OpenAI n’est pas le premier acteur à proposer un tel agent. Des outils spécialisés comme Devin (pour le code informatique) ou Manus existaient déjà. Cependant, son intégration dans ChatGPT le met à la portée de millions d’utilisateurs, touchant potentiellement plus de 20 millions d’abonnés (estimation du nombre d’abonnés payants ChatGPT en avril 2025). Le quota mensuel dépend de l’abonnement : 40 messages pour le forfait Plus et 400 pour le forfait Pro.

Pour démarrer une tâche, il suffit de se rendre dans le menu « Outils » de ChatGPT et de sélectionner « Mode agent » ou de taper /agent dans la barre de discussion.

II. ChatGPT Agent à l’épreuve

Pour évaluer les capacités de ChatGPT Agent, nous lui avons confié trois tâches, en utilisant des prompts peu directifs afin de tester sa capacité d’initiative. De manière générale, l’idéal est de formuler un prompt de la même manière que l’on pourrait briefer un collaborateur.

Prompt n° 1 : Analyse concurrentielle

Pour cette première tâche, nous formulons la demande suivante à l’agent : « Réalise une analyse concurrentielle complète (offre, positionnement, prix, etc.) des cinq principaux concurrents de l’entreprise LexisNexis, en t’appuyant sur les informations disponibles sur le web et en citant tes sources. Génère ensuite un tableur et un PowerPoint (ou Google Slides) présentant de manière claire, précise et exhaustive les résultats de tes analyses. »

La première impression est celle d’une interface très soignée. Lorsque l’agent démarre, nous observons ChatGPT créer un « ordinateur virtuel » juste pour effectuer la tâche demandée. Après quelques secondes, l’environnement de travail (un navigateur web dans le cloud) est prêt, et l’agent commence immédiatement à travailler. On observe alors toutes ses actions en temps réel, alternant entre « pensées », recherches web et, occasionnellement, l’utilisation du curseur pour interagir avec des sites web.

2.2.interface chatgpt agent

L’agent fait preuve de proactivité. Il identifie correctement les concurrents en consultant d’abord le site Gartner, puis consulte les sites officiels de chacun des cinq acteurs identifiés. En 20 minutes, il effectue 19 recherches et consulte 163 sources au total. Le nombre de « recherches » correspond aux requêtes lancées par l’agent sur un moteur de recherche, tandis que le nombre de « sources » correspond au total des pages web visitées. Nous observons ainsi l’agent démultiplier les recherches et consulter en détail de nombreuses pages web. Après avoir récupéré les informations nécessaires, l’agent commence à écrire du code informatique pour générer les livrables. Celui-ci prend même l’initiative de générer une image de couverture originale pour illustrer la présentation PowerPoint.

Un aspect particulièrement notable du mode Agent est sa capacité à réévaluer ses actions de manière dynamique. Lorsque l’agent se retrouve bloqué, il change son approche et, en présence de nouvelles informations, adapte son plan.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Optimiser son podcast spécialisé avec l’intelligence artificielle : mode d’emploi

Élodie CHARRIERE
Netsources no
177
publié en
2025.08
440
Acheter ce no
Tags
réseaux sociaux | podcast | ChatGPT | Intelligence artificielle
Optimiser son podcast spécialisé avec l’intelligence ... Image 1
Optimiser son podcast spécialisé avec l’intelligence ... Image 1

Monter un podcast ne se fait pas en un claquement de doigts. De la préparation des épisodes à leur diffusion, l’intelligence artificielle peut devenir un allié précieux. Voici comment l’utiliser pour gagner du temps, améliorer la qualité sonore et élargir votre audience.

Lancer un podcast spécialisé, entre nous, ce n’est pas toujours facile. Il faut : trouver une niche, construire un ton, fidéliser une communauté autour d’un sujet précis. Mais comment passer au niveau supérieur quand on n’a ni une équipe de production hollywoodienne ni des journées de 48 heures ? Bonne nouvelle : l’intelligence artificielle (IA) s’invite aujourd’hui dans la boîte à outils des podcasteurs et peut transformer la préparation, la production et la diffusion de votre émission. Voici un guide pratique pour optimiser son podcast grâce à l’IA, sans aucun effort !

L’IA pour préparer et structurer ses épisodes

La première étape d’un podcast, c’est la matière première : les idées. L’IA peut ici devenir un véritable assistant éditorial.

  • Recherche documentaire : plus besoin de passer des heures à compiler articles et études. Des outils comme Perplexity AI (https://www.perplexity.ai/) ou ChatGPT vous aident à synthétiser des sources fiables, résumer des textes longs et dégager des tendances.
  • Plan d’épisode : vous manquez d’inspiration ? L’IA génère des trames d’interview, propose des questions pertinentes pour vos invités et suggère des angles auxquels vous n’auriez pas pensé.
  • Storyboard audio : certaines solutions, comme Notion AI (https://www.notion.com/fr/product/ai) ou Mem (https://get.mem.ai/), aident à structurer vos notes et à transformer une idée brute en plan clair et hiérarchisé.

L’astuce : utilisez l’IA comme un sparring-partner, mais gardez toujours le dernier mot. La pertinence vient de votre expertise et de votre ton, pas seulement d’un algorithme.

L’IA pour améliorer la qualité audio

Un bon contenu perd son impact si le son n’est pas au rendez-vous. Là encore, l’IA peut sauver des enregistrements imparfaits.

  • Nettoyage automatique : des plateformes comme Adobe Podcast Enhance (https://podcast.adobe.com/en/enhance) ou Auphonic (https://auphonic.com/) éliminent les bruits parasites, équilibrent les voix et donnent un rendu « studio » en quelques clics.
  • Montage accéléré : fini, les longues nuits de découpe manuelle. Des outils comme Descript (https://www.descript.com/) transcrivent automatiquement vos pistes, vous permettant de couper un « euh » ou un blanc en éditant… du texte.
  • Voix de secours : il arrive de bafouiller ou d’oublier une phrase clé. Des IA de clonage vocal peuvent recréer votre voix pour insérer un mot manquant. À utiliser avec prudence, mais c’est un gain de temps indéniable.

L’astuce : n’abusez pas des filtres. Un podcast trop « lissé » perd son authenticité. L’IA doit sublimer votre voix, pas la transformer en robot. Gardez cela en tête !

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Penser par soi-même - êtes-vous « IA Gen sobre » ?

Christian VIGNE
Netsources no
177
publié en
2025.08
454
Acheter ce no
Tags
retour d'expérience | ChatGPT | Intelligence artificielle
Penser par soi-même - êtes-vous « IA Gen sobre » ? Image 1
Penser par soi-même - êtes-vous « IA Gen sobre » ? Image 1

Chroniques amusées sur l’intelligence artificielle par Christian Vigne Christian VIGNE

Christian Vigne, anciennement Product Manager chez Google, s’amuse dans ses chroniques à explorer l’impact de l’IA sur nos vies. Il est amené à conseiller les entreprises sur leurs stratégies IA (cadrage, priorisation, formation, conduite du changement).

J’ai découvert Luc Julia grâce à l’excellente série d’Arte intitulée « Silicon Fucking Valley ». Luc Julia est directeur scientifique, co-inventeur de Siri, et tellement français à bien des égards. Son dernier livre, IA génératives, pas créatives — l’intelligence artificielle n’existe (toujours) pas, agit comme une douche glacée pour obliger à reconsidérer l’engouement autour de l’IA générative. Je suis tombé sur un parallèle intéressant (page 168) entre les déplacements « auto-propulsés » et la pensée « auto-propulsée ». L’idée : demain, on nous demandera de faire un usage raisonné de l’IA générative (car elle consomme énormément de ressources) de la même manière qu’on nous demande aujourd’hui d’utiliser nos voitures avec parcimonie (car elles nuisent à l’environnement).

Les déplacements auto-propulsés (à vélo, à pied) étaient un concept populaire à l’époque où je faisais la promotion du vélo au bureau de Google à Paris. Le principe : inciter les employés à utiliser leur propre énergie pour aller d’un point A à un point B, à condition qu’ils en aient la capacité physique (et géographique). Après tout, Paris est une petite ville, et pour ceux qui vivent à proximité, se déplacer sans brûler d’énergie externe est une sage option, avec de multiples bénéfices en termes de bruit urbain, de consommation de ressources, de coûts personnels et de santé. En observant aujourd’hui le nombre de cyclistes en ville, on voit que le concept a pris. Et si, dans les années à venir, la pensée auto-propulsée devenait elle aussi une pratique, comme l’a été le vélo ?

« Faisons une analogie avec la voiture et les transports. Dans notre confort et notre paresse, nous utilisons parfois notre voiture alors que nous pourrions prendre les transports en commun. Ou faire le trajet à pied. Aujourd’hui notre utilisation de la voiture est de plus en plus responsable. Il devrait en être de même pour les IA génératives. »

La paresse est la promesse implicite de l’IA générative - d’autant plus que l’on parle maintenant d’agents qui feraient tout à notre place. Ce n’est pas moi qui le dis, c’est Luc Julia qui le sous-entend. Notre capacité à réfléchir pourrait s’atrophier de la même manière que notre capacité à bouger s’atrophie quand on s’appuie trop sur la voiture et pas assez sur nos moyens de locomotion naturels, autrement dit nos jambes. Nous l’avons déjà tous expérimenté : utiliser un chatbot pour rédiger un contenu prend quelques secondes, contre un effort intellectuel long et pénible - alors pourquoi souffrir ? S’installer confortablement dans sa voiture pour aller chercher du pain au lieu de marcher repose sur le même mécanisme que s’appuyer sur Gemini pour écrire un essai ou une lettre de motivation. Pure paresse.

Mais dans cette analogie, nos mains (qui tapent et écrivent) sont nos jambes. Si nos jambes se contentent de pousser des pédales comme nos mains se contentent d’écrire quelques prompts, il est probable que leurs muscles s’affaiblissent avec le temps. Le succès populaire de ChatGPT & friends est certainement lié à ce que Paul Graham formule ainsi dans cet article : « La raison pour laquelle tant de gens ont du mal à écrire, c’est que c’est fondamentalement difficile. Bien écrire demande de penser clairement, et penser clairement est difficile. »

Pour beaucoup de bonnes raisons, les gens sont dépendants de leur voiture. La technologie automobile s’est banalisée, et le vrai luxe aujourd’hui est de ne pas avoir de voiture, parce qu’on vit dans un centre-ville où l’on dispose de multiples options de transport. Ceux qui vivent dans ces centres profitent d’une plus grande liberté de marcher, de pédaler, donc de maintenir leurs muscles en forme. De la même manière, si vous avez déjà une compétence d’écriture développée, ou simplement avez conscience que c’est important, vous maintiendrez également vos capacités à écrire, donc à penser. Hypothèse : lorsqu’une technologie de pointe est adoptée massivement, elle devient discriminante. Plus les gens délégueront l’écriture à l’IA générative, moins ils sauront écrire, et donc penser.

Pour citer à nouveau le même article : « Un monde divisé entre ceux qui écrivent et ceux qui n’écrivent pas est plus dangereux qu’il n’y paraît. Ce sera un monde divisé entre « ceux qui pensent » et « ceux qui ne pensent pas ».

Restons optimistes : il y a fort à parier que des entrepreneurs lanceront des « writing challenges » inspirés des « walking challenges » devenus populaires lors des confinements.

Et chaque pas sera un mot.

IA générative : l’humain ne doit pas dire son dernier mot

Anne-Marie LIBMANN
Netsources no
176
publié en
2025.06
1463
Acheter ce no
Tags
professionnel de l'information | ChatGPT | IA
IA générative : l’humain ne doit pas dire son dernier mot Image 1
IA générative : l’humain ne doit pas dire son dernier mot Image 1

Imaginez un monde où l’intelligence artificielle générative deviendrait un documentaliste chevronné pour orchestrer vos recherches les plus ardues, un allié incontournable dans toutes vos tâches de traitement et de gestion de l’information, un compagnon d’une humanité confondante sur les réseaux sociaux, - un monde où rédiger une lettre de motivation sans IA s’imposerait comme un acte d’authenticité revendiqué…

Ce monde est déjà le nôtre. À la lecture de ce Netsources, on mesure l’ampleur avec laquelle l’IAG s’est infiltrée dans chaque facette de nos activités intellectuelles .

Dans son « Guide pratique du Deep Research », Véronique Mesguich montre comment l’IA est particulièrement intéressante dans le cas de recherches complexes exigeant l’analyse de sources multiples, et de production de synthèses, redéfinissant — ce faisant — le rôle des experts.

Ulysse Rajim (« Quand l’IA réinvente les réseaux sociaux… ») décrypte comment l’IA redéfinit les interactions sur les réseaux sociaux, complexifie la veille en brouillant l’authenticité de la parole et convertit les plateformes en viviers de données pour nourrir leur apprentissage.

Dans « L’impact de l’IAG sur les métiers de l’infodoc… », Christophe Deschamps , interrogé par Christel Ronsin, nous livre son expérience sur la transformation de la veille et de la gestion des connaissances par l’IAG à chaque étape du cycle, tout en rappelant l’importance de l’esprit critique.

Enfin, Christian Vigne dans sa « Chronique amusée : Love your imperfections », illustre comment l’IAG, en facilitant la rédaction instantanée de contenus comme une lettre de motivation, menace une authenticité humaine irremplaçable, essentielle à préserver pour notre développement et parcours personnels.

Ce nouveau monde soulève des questions existentielles, humaines comme professionnelles. Qui maîtrise quoi, ou, pire, qui maîtrise qui ? Comment préserver notre authenticité et nos liens sociaux ? Comment protéger nos données des IA avides de données et de raisonnement d’humains, exploitées à leur seul profit ? Comment rappeler — pourquoi pas à ses managers… — la responsabilité de l’humain face à une IAG ? Comment peut se redéfinir le rôle d’un professionnel de l’information dans le contexte actuel ?

On le comprend, les réponses à ces questions ne sont pas immédiates, mais chacun des articles de ce nouveau Netsources éclaire le fonctionnement de l’IA générative, incite à se former pour en exploiter tout le potentiel, et guide les professionnels de l’information vers des rôles à nouvelle valeur ajoutée, où l’humain garde toujours le dernier mot.

Le guide pratique du Deep Research 

Véronique MESGUICH
Netsources no
176
publié en
2025.06
1483
Acheter ce no
Le guide pratique du Deep Research  Image 1
Le guide pratique du Deep Research  Image 1

Dans le précédent numéro de Netsources (« Deep Research : l’âge de raison des IA ? », Netsources N° 175 - mars/avril 2025), nous avons décrit et analysé l’irruption et les nombreux développements des outils de Deep Research proposés par les différentes IA.

Passons dans cette deuxième partie à la pratique en présentant et comparant les résultats obtenus avec les différents outils.

Une recherche approfondie pas à pas

Testons à présent la recherche approfondie des IA sur un exemple, en partant du prompt suivant : « Comporte-toi comme un analyste veilleur et rédige un rapport détaillé sur la stratégie et le positionnement des entreprises françaises dans le contexte des droits de douane annoncés par Trump en 2025. Base-toi sur des exemples concrets d’entreprises françaises dans différents secteurs (luxe, automobile, vins et spiritueux) pour étudier et comparer les différents positionnements et stratégies ».

Commençons par la recherche approfondie de ChatGPT (disponible dans la version payante, et depuis peu, de façon limitée dans la version gratuite). Avant d’élaborer son plan de veille, l’IA demande des précisions :

image272087 opt

Une fois les précisions apportées par l’utilisateur, l’IA récapitule la demande et élabore son plan de recherche.

image272094 opt

Le rapport est élaboré en 13 minutes et se base sur une sélection de 20 sources provenant de médias en ligne (on note une prédominance de BFM.tv !) ou de sites de presse professionnelle, le sourcing étant plutôt pertinent, mais assez peu diversifié. Le rapport lui-même est plutôt conséquent et bien structuré, incluant un tableau comparatif des stratégies par secteur et par entreprise. Un panneau latéral, dans l’interface, permet de retracer les étapes de recherche ainsi que la liste des sources utilisées.

Nous allons tester le même prompt sur la recherche approfondie de Perplexity (disponible dans la version gratuite). L’agent ne demande pas de précisions, mais effectue une recherche en sélectionnant 38 sources, qui se révèlent pertinentes, et présente rapidement une synthèse structurée et sourcée. Les différentes étapes de la recherche peuvent être affichées sous forme de bouton latéral à partir du lien « Tâches » (Tasks).

image272104 opt

Comparé au rapport élaboré par ChatGPT, le résultat de Perplexity est plus court et synthétique : le texte peut également être modifié, partagé ou exporté. L’utilisateur a la possibilité de poursuivre la conversation, toujours en mode approfondi, pour obtenir des précisions sur tel ou tel point.

Le même prompt saisi via la recherche approfondie de Perplexity, cette fois en version payante, génère un rapport globalement équivalent, mais basé sur un nombre de sources plus important (environ 60). Cependant, toutes les sources ne sont pas pertinentes pour le sujet.

Testons à présent la fonctionnalité Deep Research proposée par Gemini en version gratuite, toujours à partir du même prompt.

L’agent soumet dans un premier temps son plan de recherche :

image272113 opt

Ce plan détaillé aboutit à un rapport un peu plus court que celui produit par ChatGPT, mais basé sur un grand nombre de sources (une centaine) dont certaines sont pertinentes et récentes, d’autres plus anciennes et hors sujet. Des notes insérées dans le développement renvoient à la bibliographie finale, mais il semble que toutes les sources mentionnées ne sont pas exploitées dans le rapport. Originalité de Gemini : la possibilité de créer à partir de la réponse une infographie ou une synthèse audio sous forme de podcast à deux voix, en français.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Quand l’IA réinvente les réseaux sociaux : décryptage d’une mutation

Ulysse RAJIM
Netsources no
176
publié en
2025.06
1509
Acheter ce no
Tags
veille technologique | médias sociaux | réseaux sociaux
Quand l’IA réinvente les réseaux sociaux : décryptage d’une ... Image 1
Quand l’IA réinvente les réseaux sociaux : décryptage d’une ... Image 1

L’intégration de l’intelligence artificielle dans les réseaux sociaux est une tendance de fond, entamée au début des années 2010 et qui connaît une accélération marquée depuis l’émergence de l’IA générative en fin 2022. Cette évolution redéfinit l’utilité de ces plateformes, leur modèle économique et la nature même des interactions qu’elles hébergent.

Nous explorerons comment l’IA est passée d’un outil d’optimisation fonctionnant en arrière-plan à un rôle de plus en plus central dans nos échanges. Ce changement soulève une question essentielle : à mesure que l’IA prend plus de place, que reste-t-il de « social » dans les médias sociaux et comment cela impacte-t-il nos interactions en ligne ?

I. L’IA en coulisses : l’optimisation comme premier moteur

Pendant plus d’une décennie, l’intelligence artificielle a été le moteur discret, mais essentiel, des réseaux sociaux. Son déploiement à grande échelle répondait à un objectif principal : capter l’attention de l’utilisateur pour maximiser la durée des sessions et, par conséquent, les revenus publicitaires.

La fin du fil d’actualité chronologique

Cette stratégie reposait sur la personnalisation des contenus . Dès 2009, Facebook expérimentait déjà un nouvel algorithme (nommé EdgeRank ) pour remplacer le fil d’actualité chronologique (1). C’est entre 2012 et 2016 que cette tendance se généralise. Durant cette période, la plupart des plateformes de réseaux sociaux abandonnent progressivement le fil chronologique au profit du fil algorithmique . L’objectif n’étant alors plus de montrer ce qui venait d’être publié, mais ce qui était le plus susceptible de provoquer une réaction . Twitter remplace ainsi son fil d’actualité par le flux « Home timeline » en 2016 (2), et TikTok, lancé une année plus tard, érige cette approche en modèle avec sa « For You Page » (3). Aujourd’hui, cette méthode est devenue la norme et les algorithmes n’ont fait que s’améliorer d’année en année. Meta annonçait d’ailleurs en 2023 que ses algorithmes de recommandation étaient responsables d’une hausse de 24 % du temps passé sur Instagram , notamment grâce à la suggestion de contenus issus de comptes non suivis par les utilisateurs (4).

Modération automatisée et prolifération des bots

En parallèle, l’IA servait une autre mission essentielle : la modération des contenus . Face à des millions de publications quotidiennes, l’automatisation s’imposait comme une nécessité opérationnelle pour filtrer les contenus illicites. Des plateformes comme Facebook ont ainsi développé des algorithmes capables de détecter en amont plus de 95 % des contenus haineux (5). Cette tendance se poursuit, Meta prévoyant même, selon un rapport de NPR, de remplacer par l’IA ses modérateurs humains (6).

Alors même que les plateformes intégraient massivement l’IA, elles faisaient déjà face à une prolifération des « bots » . Ces faux comptes pilotés par des intelligences artificielles et conçus pour se faire passer pour des utilisateurs humains étaient de plus en plus utilisés pour de la propagande ou de la manipulation et s’immisçaient dans les conversations pour en influencer le cours.

Que ce soit par l’exposition à ces fils d’actualité façonnés par des algorithmes ou par nos interactions entremêlées avec celles de bots, nous avons été progressivement habitués à une expérience en ligne où l’IA était omniprésente , bien qu’invisible. Cela a, en quelque sorte, préparé le terrain pour l’étape suivante, celle où l’IA ne se contente plus de jouer le second rôle, mais participe ouvertement aux interactions.

II. Quand l’IA brouille les frontières : l’arrivée des interactions hybrides

Début 2023, la démocratisation des grands modèles de langage (LLM) comme GPT-4 ouvre un nouveau chapitre. Après le phénomène ChatGPT, ces modèles d’IA sont très rapidement intégrés directement aux plateformes tout d’abord sous forme d’ assistants IA .

Des assistants aux participants actifs : l’impact sur la veille

Snapchat annonce en février 2023 « My AI », son assistant basé sur ChatGPT (7). En septembre 2023, Meta introduit « Meta AI », accessible dans Messenger, WhatsApp et Instagram (8). A noter qu’en France ce lancement a été retardé à mars 2025 en raison des exigences réglementaires. Ces assistants sont particulièrement utiles, car intégrés directement dans nos applications du quotidien, et alimentés par un contexte spécifique à chaque plateforme. Ce ne sont toutefois guère plus que des équivalents de chabots privés (basés sur le LLM de Meta, Llama) intégrés à votre compte.

Début 2025, une nouvelle étape est franchie avec l’arrivée de l’IA directement dans les espaces de discussion publics . Sur X (ex-Twitter), les utilisateurs peuvent désormais mentionner directement @Grok (l’IA développée par xAI, société sœur du réseau social) pour obtenir une synthèse ou une explication du fil de discussion (9). De même, depuis février 2025, il était possible de mentionner @AskPerplexity (le chatbot de la société Perplexity AI) pour obtenir des réponses contextualisées.

Avec ces nouveautés, l’IA devient un acteur à part entière du débat public. Pour les activités de veille, c’est une rupture : la cohabitation entre humains et IA complexifie la collecte et l’évaluation de l’information sur ces plateformes. Entre les bots se faisant passer pour des utilisateurs humains, les comptes ouvertement IA dont le prompt ( et donc le biais ) n’est pas connu, et même les utilisateurs humains qui utilisent l’IA pour rédiger en partie ou en totalité leurs messages, comment distinguer le signal du bruit ? Comment dénicher les communications authentiques ? Est-ce justement l’un des nouveaux rôles du veilleur ?

Anthropomorphisation de l’IA : des assistants aux compagnons ?

Au-delà de ces initiatives, on peut y voir une ambition plus stratégique : alors que certaines plateformes voient leur base d’utilisateurs stagner ou être délaissée par les nouvelles générations, l’ajout d’IA pourrait être vu comme un moyen de combler ce vide et de dynamiser artificiellement les interactions. Pour favoriser leur acceptation, elles travaillent à les anthropomorphiser. Meta a ainsi annoncé ses AI Characters en septembre 2023, 28 personas IA (incarnés par des célébrités comme Snoop Dogg (10)) conçues pour interagir par messages avec les utilisateurs. En leur donnant une personnalité, Meta encourage ainsi une forme de relation qui brouille les frontières entre humain et IA et remet en question le fondement même de ces plateformes. Ces personas IA ont depuis été retirées de Facebook et Instagram suite à des réactions mitigées du public. L’ambition, clairement affichée par Mark Zuckerberg, est celle d’IA qui deviennent des « amis et compagnons » au quotidien (11), ce qui soulève la question : un réseau peut-il encore être qualifié de « social » si une part croissante des interactions se fait avec des intelligences artificielles ?

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

L’impact de l’intelligence artificielle générative sur les métiers de l’information-documentation : entretien avec Christophe Deschamps Interview de Christophe Deschamps

Christel RONSIN
Netsources no
176
publié en
2025.06
1949
Acheter ce no
Tags
knowledge management | veille métier | intelligence économique
L’impact de l’intelligence artificielle générative sur les ... Image 1
L’impact de l’intelligence artificielle générative sur les ... Image 1

Nous avons souhaité interroger Christophe afin qu’il partage ses observations sur les transformations apportées par l’intelligence artificielle générative. Cet entretien apporte un éclairage sur l’évolution de la veille et du Knowledge Management à l’ère de l’IA.

Christophe Deschamps est depuis 20 ans consultant‐formateur en veille stratégique, intelligence économique et gestion des connaissances. Il enseigne depuis plusieurs années ces matières à l’IAE de Poitiers, à l’ILERI et à OTERIA Cyber School. Il publie régulièrement dans des revues comme Archimag, ou I2D (anciennement Documentaliste - Sciences de l’information). Il est l’auteur de plusieurs ouvrages sur l’intelligence économique et la veille, dont La boîte à outils de l’intelligence économique (Dunod), et l’animateur du blog OUTILS FROIDS .

CHRISTEL RONSIN : Christophe, depuis quand vous intéressez-vous au phénomène de l’intelligence artificielle générative ?

CHRISTOPHE DESCHAMPS : Mon intérêt pour l’intelligence artificielle générative a commencé vers 2017-2018, avec l’émergence des deepfakes . L’une des vidéos les plus marquantes était celle d’Obama, où il était presque impossible de distinguer la vidéo truquée de la réalité. Le mouvement de ses lèvres avait été modifié par l’IA pour lui faire dire des phrases qu’il n’avait jamais prononcées. Cela a naturellement suscité mon intérêt, car ce que redoutent le plus les professionnels de l’information, c'est évidemment de se faire manipuler par de fausses images, vidéos ou textes.

J’ai donc d’abord abordé ces outils sous un angle défensif. J’ai effectué une étude approfondie et dressé un panorama complet de ces technologies, aboutissant à un article intitulé « Les technologies du faux : un état des lieux », publié fin 2021, soit un an avant l’arrivée de ChatGPT. Cet article explorait les diverses techniques de manipulation, incluant la modification d’images, de vidéos, la création de jeux de données fictifs, etc. Un an après la publication de cet article, en novembre 2022, les outils d’Open AI étaient lancés dans le grand public avec ChatGPT et DALL.E.

J’ai commencé à utiliser ChatGPT pour étudier les risques de manipulation et d’influence via la création de faux textes diffusés sur les réseaux sociaux et publié un article de recherche à ce sujet dans la R2IE.

En parallèle de ces usages offensifs, j’ai également exploré les applications potentielles de ces outils dans notre domaine professionnel.

CR : Quels usages positifs de l’intelligence artificielle générative avez-vous identifiés ?

CD : Il y en a plein. À partir de janvier 2023, j’ai commencé à rédiger une série d’articles en suivant les étapes du cycle de la veille : orientation, collecte, exploitation de l’information et diffusion. Pour chacune de ces étapes, j’ai tenté d’expliquer où et comment les modèles de langage (LLM) de type ChatGPT pouvaient être utiles aux documentalistes et aux veilleurs.

Bien que l’orientation ne soit pas l’étape où l’IA apporte le plus, elle peut néanmoins aider à améliorer et valider un plan de veille, en identifiant d’éventuels oublis ou angles d’approche.

En ce qui concerne la phase de collecte, les bénéfices sont nombreux. Les premiers tests que j’ai effectués concernaient l’optimisation des mots-clés.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

« Love your imperfections »

Christian VIGNE
Netsources no
176
publié en
2025.06
1509
Acheter ce no
Tags
retour d'expérience | publicité | marques
« Love your imperfections » Image 1
« Love your imperfections » Image 1
Chroniques amusées sur l’intelligence artificielle par Christian Vigne

Christian Vigne, anciennement Product Manager chez Google, s’amuse dans ses chroniques à explorer l’impact de l’IA sur nos vies. Il est amené à conseiller les entreprises sur leurs stratégies IA (cadrage, priorisation, formation, conduite du changement).

Pour ceux qui ne connaissent pas, Meetic est une application/service de rencontre français qui a lancé en 2014 une campagne de marque, brillante selon moi, intitulée « aimez vos imperfections ». Dans la publicité, une série de scènes montre des personnes en rendez-vous amoureux confrontées à leurs propres imperfections : arriver en retard, ne pas être assez fort, faire des mouvements étranges et ridicules en dansant. Chaque comportement est perçu à travers les yeux de l’autre personne, qui interprète ces imperfections comme des choses touchantes : « Tu cours parce que tu es impatient de me voir, pas parce que tu es en retard. Tu ne montres pas ta force pour me laisser gagner. J’adore ta façon de danser, aussi étrange soit-elle… »

J’ai récemment postulé à un emploi dans une des grandes entreprises spécialisées en IA générative. Oui, je sais, c’est comme essayer de séduire la fille (ou le garçon) la plus attirant(e) de la fête quand tout le monde tente sa chance. Mais qui sait, sur un malentendu… Ce qui m’a frappé en postulant, c’est que cette entreprise, qui développe des modèles d’IA générative de pointe mondialement reconnus, précisait explicitement dans son processus de candidature qu’il ne fallait pas utiliser leurs services ni ceux de leurs concurrents pour préparer la candidature, particulièrement la lettre de motivation. La note indiquait : « Nous souhaitons comprendre votre intérêt personnel pour (XX) sans médiation par un système d’IA, et évaluer également vos compétences en communication non assistée par IA. » Ironique, non ? C’est comme s’ils disaient : « Merci de ne pas utiliser la technologie créée par l’entreprise pour laquelle vous postulez. »

Cela, plus encore que la prouesse technologique de cette entreprise, m’a impressionné. Si une entreprise est suffisamment intelligente pour recommander publiquement de ne pas utiliser une caractéristique centrale de sa propre technologie dans un de ses processus clés (le recrutement), n’est-ce pas le signe d’une certaine humilité face à la technologie et ses usages potentiellement imparfaits ? Si c’est un signe de sagesse, qui ne voudrait pas travailler pour une entreprise sage ? Ou alors, c’est un cri de désespoir des RH submergés de candidatures générées automatiquement. Il existe tellement de services qui réalisent à votre place la recherche d’emploi, l’envoi des candidatures, l’adaptation des CV et lettres de motivation, le tout pour un clic et 2,50$. Oui, j’ai vérifié, c’est tentant, mais je suis persuadé que c’est une impasse.

À ce moment-là, deux options s’offraient à moi : générer automatiquement une lettre de motivation et la retoucher en ajoutant des fautes, des maladresses en anglais et certaines de mes erreurs préférées, ou bien la rédiger moi-même à partir de zéro avec une simple relecture. J’ai choisi la seconde option. La tentation était pourtant grande d’aller vite en sachant que mes chances d’obtenir une réponse étaient proches de zéro. Pourquoi perdre mon temps si rien ne doit en ressortir ? J’ai pourtant décidé d’écrire « du fond du cœur » en exprimant mes véritables motivations, maladroites, mais sincères. Cela a été douloureux, dans une certaine mesure.

Cette expérience illustre la tension entre le « fast-food » et un repas en trois services. D’un côté : un impact rapide, des résultats probables, et la possibilité de multiplier par dix les candidatures envoyées à la chaîne. De l’autre, un peu de sueur pour des résultats incertains, mais une avancée sur l’essentiel : votre « pourquoi » personnel et vos motivations (ainsi qu’un peu de pratique d’écriture en anglais). Une satisfaction rapide exprimée à travers des candidatures envoyées en masse, opposée à des bénéfices durables tirés de l’introspection. Sans oublier le pouvoir créatif de l’écriture, dont je profite en rédigeant ces lignes.

Un autre élément des consignes de candidature a retenu mon attention : « Nous voulons comprendre votre intérêt personnel pour (XX) sans médiation par un système d’IA ». La médiation, c’est ce qui s’interpose entre vous et le recruteur, entre vous et votre cible. C’est ce tiers artificiel inutile qui agit comme un masque. C’est comme si dans un processus de candidature, trois personnages distincts intervenaient : vous, votre recruteur cible, et l’intelligence artificielle. Comme si dans une relation, il y avait trois rôles différents : vous, votre cible et vos artifices. Dans tous les cas, c’est une distance supplémentaire entre votre objectif et sa réalisation. Éliminons définitivement ce tiers et favorisons les vraies interactions directes.

Un peu d’effort (sans génération automatique) et beaucoup d’authenticité sont probablement les meilleurs ingrédients pour la combinaison gagnante : faire de son mieux en étant soi-même. Une pratique perfectionnée exprimée avec toute la profondeur de votre personnalité nécessairement imparfaite, car la perfection est introuvable ici-bas. Efforcez-vous, mais lâchez prise. En même temps.

Ai-je eu une réponse de leur part ? Non. Mais quand je l’aurai, je suis presque certain que l’e-mail de refus aura été « généré par une IA ».

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • ›
  • Fin