Sélectionner le numéro de "Netsources" à afficher

IA générative : qui contrôle qui ?

Anne-Marie LIBMANN
Netsources no
178
publié en
2025.10
324
Acheter ce no
Tags
navigateur agentique | veille technologique | ChatGPT | Intelligence artificielle
IA générative : qui contrôle qui ? Image 1
IA générative : qui contrôle qui ? Image 1

L’intelligence artificielle ne fait plus débat, elle s’installe. Sans fracas, sans résistance visible, elle glisse dans nos flux de travail, nos navigateurs, nos processus d’écriture et d’analyse.

Paradoxalement, l’utilisateur a le sentiment de gagner en puissance et en autonomie, de piloter ou du moins « co-piloter ». Mais cette maîtrise apparente cache peut-être une délégation subtile, où l’humain croit piloter un système qui, déjà, oriente ses choix. L’IA générative n’obéit plus, elle anticipe. Elle résume, organise, « génère », discrètement. Et si, ce faisant, elle prenait le contrôle ?

Dans ce nouveau Netsources, à travers l’analyse rigoureuse du prompting, des navigateurs agentiques, de la détection de contenu généré par IA et des obstacles culturels à son adoption, émerge en toile de fond, plus que jamais, la mutation profonde du rôle de l’humain dans un environnement « de plus en plus infusé par l’IA ».

Poursuivant dans ce numéro son exploration du prompting, Véronique Mesguich le dépoussière : finies les recettes universelles, le prompt efficace est désormais une pratique contextuelle etitérative, taillée sur mesure pour chaque modèle et déjà tournée vers l’ère des agents autonomes, où la maîtrise ne réside plus dans la formule miracle, mais dans la compréhension fine du rôle, des contraintes et le dialogue continu.

Ulysse Rajim, en testant Comet, le navigateur agentique de Perplexity, montre la rupture : l’outil ne répond plus, il agit - résume, ouvre des onglets, remplit des formulaires, réserve - souvent avant même que vous n’ayez validé l’étape. C’est là que le danger surgit : en exécutant sans demander à chaque fois, l’agent devient vulnérable aux instructions malveillantes glissées dans une page ou un résultat, expose vos données personnelles et professionnelles et transforme l’assistance ultrarapide en vecteur idéal de manipulation ou piratage des données.

De l’illusion de maîtrise du prompting à l’agent qui décide avant nous, le même vertige : Élodie Charrière nous révèle que les moteurs, noyés sous l’uniformité trop parfaite des textes IA, punissent désormais la fluidité excessive et font de l’imperfection humaine le dernier gage d’authenticité.

Christian Vigne clôt le numéro sur une pirouette aussi malicieuse que profonde : tant qu’on parlera encore d’« IA et… » (IA et santé, IA et écriture… ), on avouera qu’elle reste un corps étranger, un add-on qu’on saupoudre par-dessus les processus sans jamais le fondre dedans Et si, au fond, ce petit « et » de résistance était la plus belle manière de ne pas la laisser gagner ?

Au fond, la question n’est peut-être plus de savoir si l’IA nous assiste ou nous remplace, mais jusqu’où nous acceptons de lui déléguer sans comprendre. Entre gain d’efficacité et perte de discernement, le risque n’est pas seulement de céder le contrôle, mais d’oublier ce qu’il signifie.

Le prompt, un art pour la veille stratégique et la recherche d’information

Véronique MESGUICH
Netsources no
178
publié en
2025.10
375
Acheter ce no
Tags
veille technologique | OSINT | ChatGPT | Intelligence artificielle
Le prompt, un art pour la veille stratégique et la ... Image 1
Le prompt, un art pour la veille stratégique et la ... Image 1

Dans la première partie de cet article, parue dans le numéro de juillet-août de Netsources, nous avons évoqué les fondamentaux et bonnes pratiques de prompt. Cette deuxième partie apporte un éclairage sur plusieurs notions complémentaires (méta-prompt, prompt injection…). Nous distinguerons des approches différenciées du prompt selon les principaux modèles, et conclurons par une réflexion sur les évolutions à l’ère de l’IA agentique.

Ne pas confondre méta-prompt et méga-prompt

Nous avons évoqué dans l’article précédent le principe du méga-prompt, c’est-à-dire un prompt de grande taille sous forme de texte long, structuré, comportant de nombreuses instructions, contextes, contraintes, rôles ou exemples.

Un méta-prompt est un prompt qui décrit la manière dont un modèle doit générer, améliorer ou analyser d’autres prompts. Le préfixe « méta » indique en effet qu’il s’agit d’une méta-instruction : ce méta-prompt est destiné à créer des instructions précises, sous forme de prompt.

Exemple de méta-prompt : Crée un prompt pour effectuer une veille technologique dans le domaine de l’antibiorésistance.

La pratique du méta-prompt peut constituer une aide pour générer des prompts détaillés à partir d’un objectif un peu vague : le modèle de langage va ainsi réduire « l’angoisse de la page blanche » et générer une série d’instructions précises, que l’utilisateur pourra ensuite utiliser en une seule fois ou bien par itérations. L’usage du méta-prompt inclut également des outils d’auto-amélioration de prompts existants (auto-prompting).

Il convient dans tous les cas de relire et réviser au besoin les prompts proposés : en effet, les modèles de langage (et tout particulièrement ChatGPT) ont tendance à être verbeux et redondants dans leur formulation. Un prompt généré par un méta-prompt aura tout intérêt à être allégé et affiné par l’utilisateur.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

J’ai testé Comet, le navigateur IA de Perplexity

Ulysse RAJIM
Netsources no
178
publié en
2025.10
667
Acheter ce no
Tags
Intelligence artificielle | navigateur IA | sécurité informatique | veille technologique
J’ai testé Comet, le navigateur IA de Perplexity Image 1
J’ai testé Comet, le navigateur IA de Perplexity Image 1

En tant qu’utilisateur de longue date du navigateur Arc, l’annonce de The Browser Company de cesser son développement au profit d’un nouveau navigateur IA payant, nommé Dia, m’a laissé face à un choix. Devais-je revenir vers la familiarité d’un navigateur traditionnel comme Chrome, ou était-ce l’occasion d’adopter l’un de ces nouveaux navigateurs web dopés à l’intelligence artificielle ?

Ces navigateurs IA font actuellement la une. OpenAI vient d’annoncer Atlas, son propre navigateur IA (disponible sur Mac uniquement à ce jour). De son côté, le navigateur de Perplexity, Comet, est maintenant accessible gratuitement. Une opportunité parfaite pour tester cette nouvelle génération d’outils. Peut-il véritablement remplacer mon navigateur habituel ? Booster ma productivité au quotidien ? J’ai décidé de le découvrir par moi-même.

I. Qu’est-ce que Comet ?

Comet est le nouveau navigateur web développé par Perplexity. Initialement réservé aux abonnés de son offre «Perplexity Max» (à 200 $ par mois), il est désormais accessible gratuitement à tous les utilisateurs1. Contrairement aux navigateurs traditionnels auxquels on greffe une extension IA, Comet intègre l’intelligence artificielle au cœur même de l’expérience de navigation.

L’outil se positionne comme un concurrent à Google Chrome, avec la promesse de simplifier la navigation et d’aider l’utilisateur à accomplir ses tâches quotidiennes plus rapidement. Il intègre un assistant personnel IA qui accompagne l’utilisateur sur le web, capable d’interagir directement avec le contenu des pages visitées. Perplexity propose également une offre payante, «Comet Plus» (incluse dans les abonnements Pro et Max, ou à 5 $/mois), qui donne accès à des contenus d’actualité sélectionnés auprès de partenaires médias tels que CNN, Le Monde ou encore Le Figaro. Ces partenariats avec des éditeurs de presse ne sont pas sans rappeler la stratégie employée par OpenAI, qui a multiplié les accords similaires pour alimenter ChatGPT en contenus d’actualité premium.

II. Agents IA et sécurité : de nouvelles capacités, de nouveaux risques

Avant même de commencer ce test, une question essentielle se posait : celle de la sécurité. En tant que professionnel de l’information, je suis attentif aux risques liés aux nouveaux outils, et les navigateurs IA ne font pas exception. En août dernier, j’avais notamment pris connaissance d’un article publié par les chercheurs de Brave2 (entreprise qui développe également un navigateur web), mettant en lumière une vulnérabilité de sécurité dans Comet, nommée «Indirect Prompt Injection».

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Contenu généré par IA : les secrets des moteurs de recherche pour distinguer le vrai du faux

Élodie CHARRIERE
Netsources no
178
publié en
2025.10
278
Acheter ce no
Tags
SEO | fact checking | ChatGPT | Intelligence artificielle
Contenu généré par IA : les secrets des moteurs de ... Image 1
Contenu généré par IA : les secrets des moteurs de ... Image 1

À l’heure où l’intelligence artificielle inonde le web de contenus, les moteurs de recherche redoublent d’efforts pour protéger la fiabilité de leurs résultats. Mais quels indices leur permettent vraiment de distinguer un article authentique d’un texte généré par l’IA ?

L’intelligence artificielle bouleverse la création de contenus en ligne. Articles, vidéos, posts sur les réseaux sociaux : jamais il n’a été aussi simple de générer du texte ou des images en quelques secondes. Mais cette abondance d’informations pose une question cruciale : comment les moteurs de recherche, Google en tête, parviennent-ils à différencier le contenu authentique du contenu produit artificiellement ?

Une priorité : préserver la fiabilité de l’information

Les géants du web savent que leur crédibilité repose sur la pertinence de leurs résultats. Si un moteur de recherche inonde ses utilisateurs d’articles approximatifs ou mensongers, sa réputation s’effondre. C’est pourquoi Google, Bing ou encore Baidu investissent massivement dans des systèmes capables de détecter les textes et images générés par IA.

Leur objectif n’est pas de bannir l’IA, mais de s’assurer que le contenu réponde à des critères de qualité : exactitude, originalité, et surtout valeur ajoutée pour l’internaute.

Les signaux analysés par les algorithmes

Les moteurs de recherche n’ont jamais dévoilé entièrement leurs méthodes - secret industriel oblige. Mais les spécialistes du référencement (SEO) observent plusieurs signaux surveillés de près :

  • La cohérence et la véracité des informations : des IA peuvent inventer des faits (les fameuses hallucinations). Les moteurs les confrontent à des bases de données fiables pour vérifier leur exactitude.
  • Le style d’écriture : les textes générés par IA présentent souvent des tournures répétitives, une neutralité excessive ou un manque de nuances. On remarque une écriture souvent trop linéaire, qui suit une logique algorithmique. La construction est séquentielle et prédictive, ce qui apporte un contenu « fluide, mais monotone, sans rupture de rythme et sans relief ».
  • La structure du contenu : une mise en page artificiellement optimisée, truffée de mots-clés sans réelle profondeur, peut être sanctionnée. Un texte généré par l’IA regorge de transitions parfaites mais manque de variations naturelles. On observe également des répétitions étranges et sauts entre les idées.
  • Les sources citées : un article appuyé sur des références solides (études, chiffres, liens officiels) a plus de chances d’être valorisé qu’un contenu générique.
  • Les signaux d’engagement : temps passé sur la page, partages, commentaires… Les interactions humaines servent de thermomètre pour évaluer la pertinence réelle d’un texte.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Mais où est donc Ornicar ?

Christian VIGNE
Netsources no
178
publié en
2025.10
238
Acheter ce no
Tags
veille innovation | veille technologique | ChatGPT | Intelligence artificielle
Mais où est donc Ornicar ? Image 1
Mais où est donc Ornicar ? Image 1
Chroniques amusées sur l’intelligence artificielle par Christian Vigne

Christian Vigne (Narra Conseil), anciennement Product Manager chez Google, s’amuse dans ses chroniques à explorer l’impact de l’IA sur nos vies. Il est amené à conseiller les entreprises sur leurs stratégies IA (cadrage, priorisation, formation, conduite du changement).

Celui qui a inventé cette formule mnémotechnique pour rassembler en une seule expression les conjonctions de coordination, terme barbare de grammairien, reçoit ce jour la gratitude de celui qui s’en souvient de nombreuses années après son apprentissage initial. Sortes de mots-ponts entre deux éléments de phrase, les conjonctions de coordination associent dans la parole et l’écriture des noms : « Michel et Augustin » ; des objets : « la peste ou le choléra » ; une causalité : « il n’y a pas école donc j’ai droit aux dessins animés » ; une explication : « j’ai droit aux dessins animés car il n’y a pas d’école » ; une justification : « j’ai regardé beaucoup de dessins animés, mais pas de film » ; le désarroi : « je n’ai vu ni Sam le pompier ni les Enquêtes sauvages » ; etc., ad lib. »

Dans le domaine sémantique de l’intelligence artificielle, ces conjonctions de coordination sont omniprésentes. Une en particulier, la conjonction ET. Si vous faites un tour sur les conférences dédiées à la chose, ou si vous lisez la presse business IA, vous constaterez que très souvent l’IA est un objet distinct de son champ d’application via la fameuse conjonction de coordination. L’IA et la santé, l’IA et la finance, L’IA et l’éthique, l’IA pour le secteur public, « L’IA pour les industries critiques ou souveraines », « La logistique à l’heure de l’IA ». Le saupoudrage IA s’est répandu sur toute la surface de l’univers business. L’IA ne semble pas se marier encore tout à fait avec son objet et c’est bien dommage. Mais tout à fait naturel : il faut bien segmenter, guider les attentions vers leur domaine de prédilection, regrouper les industries et les enjeux par thèmes. Ne m’intéressé-je pas à la conjonction « IA et écriture » quand bien même ces deux termes peuvent paraître antinomiques ? 

Le recours à cette conjonction de coordination dit bien la problématique devant laquelle se trouvent nombre d’acteurs du secteur aujourd’hui à l’heure de son adoption. Objet supérieur, « fondationnel », infrastructurel, partout et nulle part, quasi-Dieu, elle échappe au contrôle du langage, elle se dérobe comme un enfant mou qui ne voudrait pas aller dans sa poussette. D’un côté l’IA est déjà présente de manière discrète, mais admise dans les algorithmes de recommandations qu’on connaît tous, les prédictions du marketing digital, les autocompletes dans la rédaction d’emails et pléthores d’autres cas d’usages invisibles à l’œil nu. L’adoption de cette IA-là est induite par l’utilisation du produit ou du service qui y a recours. Qui parmi nous s’est inquiété, voire rebellé contre la généralisation des airbags dans nos voitures ? D’un autre côté, l’IA cherche à être activée… 

… IA qu’on a mise entre les mains des utilisateurs et des entreprises, à qui on demande sa mise en route (prompts, utilisation, intégration dans les processus métiers). L’enjeu de l’adoption de cette technologie est un enjeu d’appropriation. C’est aux organisations, et donc aux hommes et femmes qui les composent, de donner des instructions aux systèmes. Mais quelles instructions et comment les fournir ? Savoir ce qu’on veut est bien plus difficile que de faire ce qu’on a l’habitude de faire. D’où les ateliers, sessions de sensibilisation qui se généralisent en entreprise. D’où les réflexions stratégiques sur la place de l’IA dans l’entreprise, plans, ownership, nouveaux rôles, déploiement, conduite du changement, etc.

Tant que l’IA demeurera un objet distinct de la chose qu’elle veut accélérer ou rendre plus productive, elle sera limitée à un rôle d’add-on agaçant, d’un discours marketing parfois opportuniste, d’une solution qui n’a pas rencontré son problème. Facile à dire, sans doute moins à faire : ne plus utiliser une conjonction de coordination, mais une quadruple conjonction d’adoption : conjonction du problème et de la solution, de la culture et de la compétence, de la donnée et de l’infrastructure, du ROI et de la vision. L’IA sera adoptée quand on n’en parlera plus. Je lance un challenge aux écrivains d’ici-bas : à la manière de George Perec dans La Disparition, rédigez un support marketing vantant les mérites de l’IA en forme de lipogramme. Inutile de vous dire quelles lettres doivent faire l’objet de la disparition ! 

Mais où est donc l’intelligence artificielle ? 

Maîtriser l’IA, un art au service de l’intelligence humaine

Anne-Marie LIBMANN
Netsources no
177
publié en
2025.08
1032
Acheter ce no
Tags
podcast | ChatGPT | Intelligence artificielle
Maîtriser l’IA, un art au service de l’intelligence humaine Image 1
Maîtriser l’IA, un art au service de l’intelligence humaine Image 1

L’intelligence artificielle générative n’est pas qu’un outil de productivité : elle redéfinit notre manière de penser, de créer et d’interagir avec l’information. Elle peut devenir une alliée puissante, à condition de l’aborder comme un levier d’amplification de l’intelligence humaine plutôt qu’un substitut.

Ce nouveau numéro de Netsources explore cette ambition à travers quatre dimensions : la maîtrise du dialogue avec le modèle IA, l’évaluation critique des innovations, la création multimédia et plus essentielle que jamais, la préservation de nos capacités intellectuelles.

D’abord, l’art du dialogue avec l’IA. Véronique Mesguich (« Le prompt, un art pour la veille stratégique et la recherche d’information »), montre que le prompt engineering dépasse la simple formulation technique : c’est une discipline de précision, qui fait du professionnel un véritable architecte de requêtes, capables d’augmenter significativement la performance des résultats générés par les LLM.

La mise à l’épreuve des outils illustre cette exigence. Dans son analyse (« ChatGPT Agent : un collaborateur virtuel pour les professionnels de l’information ? »), Ulysse Rajim teste l’agent autonome d’OpenAI sur des tâches comme l’analyse concurrentielle, l’audit SEO ou le social listening. Impressionnant par sa rapidité, l’outil révèle aussi ses limites : erreurs factuelles, accès bloqué par des paywalls, incertitudes liées à la confidentialité des données.

Cette capacité à dialoguer avec l’IA ouvre également des perspectives créatives. Élodie Charrier (« Optimiser son podcast spécialisé avec l’IA : mode d’emploi ») illustre comment elle peut accompagner la préparation, le son et la diffusion d’un podcast, libérant le professionnel pour ce qui compte vraiment — sa créativité et son lien avec l’audience.

Mais l’usage intensif de l’IA appelle une vigilance critique. Christian Vigne (« Penser par soi-même - êtes-vous “IA Gen sobre” ? »), rappelle les risques de cette facilité apparente. Son concept de « pensée auto-propulsée » questionne notre dépendance croissante à l’assistance algorithmique. Comme l’usage excessif de la voiture a pu atrophier certaines aptitudes physiques, la délégation systématique de la réflexion à l’IA pourrait affaiblir nos capacités cognitives.

Maîtriser l’IA, c’est donc apprendre à la piloter sans lui abandonner notre capacité à penser. L’enjeu n’est pas d’aller plus vite, mais de rester maître du sens.

Le prompt, un art pour la veille stratégique et la recherche d’information (Dossier Netsources en deux parties)

Véronique MESGUICH
Netsources no
177
publié en
2025.08
1302
Acheter ce no
Tags
méthodologie | veille technologique | ChatGPT | Intelligence artificielle
Le prompt, un art pour la veille stratégique et la ... Image 1
Le prompt, un art pour la veille stratégique et la ... Image 1

Dans ce numéro, nous publions la première partie d’un dossier complet consacré au prompt engineering. La seconde partie paraîtra dans le prochain numéro de NETSOURCES

Ce dossier a pour objectif de vous accompagner dans la maîtrise du prompt engineering, discipline clé pour exploiter pleinement le potentiel des modèles de langage.

De la compréhension des mécanismes fondamentaux aux techniques les plus avancées, , ces deux articles constituent un guide complet pour maîtriser l’art du prompt engineering et tirer le meilleur parti des modèles de langage actuels et futurs.

Premier article : les fondamentaux du prompt engineering

Ce premier article récapitule les principes essentiels pour optimiser la formulation des prompts:

  • Mécanismes internes des LLM : Rappel des processus clés - tokenisation (découpage du texte), embeddings vectoriels (représentation numérique) et architecture transformer (mécanismes d’attention) - pour comprendre comment les modèles traitent les prompts).
  • Frameworks de structuration : Présentation de méthodologies structurantes combinant contexte, rôle et format de sortie, illustrées par des exemples concrets d’application.
  • Techniques avancées : Exploration de méthodes sophistiquées comme les chaînes de pensées, ainsi que des techniques parfois méconnues comme l’utilisation de délimiteurs.
  • Stratégie de longueur : Faut-il privilégier un prompt long et complet («méga-prompt») ou procéder par itérations successives ? La longueur optimale du prompt est une question cruciale.

Second article à venir : les techniques de pointe

  • Méta-prompts vs méga-prompts : Exploration approfondie de ces deux stratégies avancées et analyse de leur distinction pour choisir l’approche optimale.
  • Stratégies de pré-conditionnement : Maîtrise des techniques de pré-prompt
  • Sécurisation : Découverte des protocoles de protection et mise en œuvre du prompt injection testing.
  • Perspective d’avenir : Analyse prospective de l’optimisation des prompts dans l’écosystème GPT-5.

La qualité et la fiabilité des réponses fournies par un modèle de langage dépendent en partie de la formulation des consignes sous forme de prompt. À mesure que les grands modèles de langage (LLM) continuent de gagner en capacité et en complexité, à l’heure où ces LLM évoluent vers des modèles de raisonnement, et où GPT 5 fait son apparition, quelles sont aujourd’hui les bonnes pratiques de prompt pour la recherche d’informations stratégiques ? Commençons par rappeler quelques principes de base.

Tokens et embedding

Comment un prompt est-il « compris » par un modèle de langage ? Lorsque l’utilisateur saisit un prompt, le modèle de langage ne traite pas directement les mots entiers ; il découpe le texte en petites unités de 3 ou 4 caractères appelées « tokens ». La technique de l’« embedding » permet ensuite de transformer ces tokens en éléments sémantiques. À chaque token correspond un identifiant unique, sous forme de représentation numérique (ou vecteur) positionnée dans un espace à plusieurs dimensions. L’emplacement du token dans la phrase est également pris en compte via un codage de position, qui indique l’ordre des mots dans la séquence. 

Les modèles de langage reposant sur les architectures Transformers mettent en œuvre également des mécanismes d’attention, afin de déterminer l’importance de chaque token par rapport aux autres dans la phrase. Ce mécanisme permet au modèle d’attribuer automatiquement un poids à chaque mot ou token, selon son importance dans le contexte global du texte.

image273682 opt

Printscreen : Un prompt transformé en tokens (via OpenAI Tokenizer)

La longueur maximale d’un prompt est mesurée en tokens. La quantité maximale de tokens que le modèle peut prendre en compte est appelée « fenêtre de contexte ». La limite totale inclut le prompt de l’utilisateur, les réponses précédentes dans la conversation et la réponse à venir. Cela équivaut généralement à environ 120 000 tokens, soit environ 80 000 mots. Cette fenêtre de contexte permet ainsi au modèle de langage de suivre le fil de la conversation, ou d’effectuer des actions à partir d’un même document.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Test complet de ChatGPT Agent : que vaut-il pour la veille, l'analyse concurrentielle et l'audit SEO ?

Ulysse RAJIM
Netsources no
177
publié en
2025.08
1136
Acheter ce no
Tags
SEO | veille concurrentielle | ChatGPT | Intelligence artificielle
Test complet de ChatGPT Agent : que vaut-il pour la veille, ... Image 1
Test complet de ChatGPT Agent : que vaut-il pour la veille, ... Image 1

ChatGPT Agent promet de révolutionner l'automatisation des tâches professionnelles. Recherche intelligente, navigation autonome, exécution complète de missions complexes : marketing ou réalité ? Nous avons testé l'outil en conditions réelles sur trois métiers critiques de l'information. Notre verdict sans concession.

Avec le lancement de sa nouvelle fonctionnalité Agent, OpenAI enrichit ChatGPT de nouvelles capacités. En plus des échanges conversationnels, l’outil peut désormais exécuter des tâches complexes en combinant recherche avancée et actions autonomes dans un navigateur. C’est en tout cas la promesse : fusionner les capacités d’analyse de Deep Research et d’action d’Operator pour créer un assistant capable de prendre en charge une tâche de A à Z.

Pour évaluer les capacités réelles de cet agent dans un contexte professionnel, nous l’avons mis à l’épreuve à travers trois cas d’usage concrets : une analyse concurrentielle, un audit SEO et une étude de social listening.

I. Présentation de ChatGPT Agent

Annoncée le 17 juillet 2025, la fonctionnalité Agent de ChatGPT est disponible en France depuis le 8 août pour les abonnés aux forfaits Plus, Pro et Team. Elle est issue de la fusion de deux technologies qu’OpenAI développait en parallèle : d’une part, Deep Research, un système de recherche approfondie capable de parcourir des centaines de sources pour synthétiser des sujets complexes, et d’autre part, Operator, un agent capable de prendre le contrôle d’un navigateur web pour effectuer des actions comme cliquer sur des liens ou remplir des formulaires. En combinant les deux, ChatGPT Agent vise à permettre de déléguer à l’IA des activités plus complexes.

OpenAI n’est pas le premier acteur à proposer un tel agent. Des outils spécialisés comme Devin (pour le code informatique) ou Manus existaient déjà. Cependant, son intégration dans ChatGPT le met à la portée de millions d’utilisateurs, touchant potentiellement plus de 20 millions d’abonnés (estimation du nombre d’abonnés payants ChatGPT en avril 2025). Le quota mensuel dépend de l’abonnement : 40 messages pour le forfait Plus et 400 pour le forfait Pro.

Pour démarrer une tâche, il suffit de se rendre dans le menu « Outils » de ChatGPT et de sélectionner « Mode agent » ou de taper /agent dans la barre de discussion.

II. ChatGPT Agent à l’épreuve

Pour évaluer les capacités de ChatGPT Agent, nous lui avons confié trois tâches, en utilisant des prompts peu directifs afin de tester sa capacité d’initiative. De manière générale, l’idéal est de formuler un prompt de la même manière que l’on pourrait briefer un collaborateur.

Prompt n° 1 : Analyse concurrentielle

Pour cette première tâche, nous formulons la demande suivante à l’agent : « Réalise une analyse concurrentielle complète (offre, positionnement, prix, etc.) des cinq principaux concurrents de l’entreprise LexisNexis, en t’appuyant sur les informations disponibles sur le web et en citant tes sources. Génère ensuite un tableur et un PowerPoint (ou Google Slides) présentant de manière claire, précise et exhaustive les résultats de tes analyses. »

La première impression est celle d’une interface très soignée. Lorsque l’agent démarre, nous observons ChatGPT créer un « ordinateur virtuel » juste pour effectuer la tâche demandée. Après quelques secondes, l’environnement de travail (un navigateur web dans le cloud) est prêt, et l’agent commence immédiatement à travailler. On observe alors toutes ses actions en temps réel, alternant entre « pensées », recherches web et, occasionnellement, l’utilisation du curseur pour interagir avec des sites web.

2.2.interface chatgpt agent

L’agent fait preuve de proactivité. Il identifie correctement les concurrents en consultant d’abord le site Gartner, puis consulte les sites officiels de chacun des cinq acteurs identifiés. En 20 minutes, il effectue 19 recherches et consulte 163 sources au total. Le nombre de « recherches » correspond aux requêtes lancées par l’agent sur un moteur de recherche, tandis que le nombre de « sources » correspond au total des pages web visitées. Nous observons ainsi l’agent démultiplier les recherches et consulter en détail de nombreuses pages web. Après avoir récupéré les informations nécessaires, l’agent commence à écrire du code informatique pour générer les livrables. Celui-ci prend même l’initiative de générer une image de couverture originale pour illustrer la présentation PowerPoint.

Un aspect particulièrement notable du mode Agent est sa capacité à réévaluer ses actions de manière dynamique. Lorsque l’agent se retrouve bloqué, il change son approche et, en présence de nouvelles informations, adapte son plan.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Optimiser son podcast spécialisé avec l’intelligence artificielle : mode d’emploi

Élodie CHARRIERE
Netsources no
177
publié en
2025.08
992
Acheter ce no
Tags
réseaux sociaux | podcast | ChatGPT | Intelligence artificielle
Optimiser son podcast spécialisé avec l’intelligence ... Image 1
Optimiser son podcast spécialisé avec l’intelligence ... Image 1

Monter un podcast ne se fait pas en un claquement de doigts. De la préparation des épisodes à leur diffusion, l’intelligence artificielle peut devenir un allié précieux. Voici comment l’utiliser pour gagner du temps, améliorer la qualité sonore et élargir votre audience.

Lancer un podcast spécialisé, entre nous, ce n’est pas toujours facile. Il faut : trouver une niche, construire un ton, fidéliser une communauté autour d’un sujet précis. Mais comment passer au niveau supérieur quand on n’a ni une équipe de production hollywoodienne ni des journées de 48 heures ? Bonne nouvelle : l’intelligence artificielle générative (IAG) s’invite aujourd’hui dans la boîte à outils des podcasteurs et peut transformer la préparation, la production et la diffusion de votre émission.

Voici un guide pratique pour optimiser son podcast grâce à l’IA, sans aucun effort !

L’IA pour préparer et structurer ses épisodes

La première étape d’un podcast, c’est la matière première : les idées. L’IA peut ici devenir un véritable assistant éditorial.

  • Recherche documentaire : plus besoin de passer des heures à compiler articles et études. Des outils comme Perplexity AI ou ChatGPT vous aident à synthétiser des sources fiables, résumer des textes longs et dégager des tendances.
  • Plan d’épisode : vous manquez d’inspiration ? L’IA génère des trames d’interview, propose des questions pertinentes pour vos invités et suggère des angles auxquels vous n’auriez pas pensé.
  • Storyboard audio : certaines solutions, comme Notion AI ou Mem, aident à structurer vos notes et à transformer une idée brute en plan clair et hiérarchisé.

L’astuce : utilisez l’IA comme un sparring-partner, mais gardez toujours le dernier mot. La pertinence vient de votre expertise et de votre ton, pas seulement d’un algorithme.

L’IA pour améliorer la qualité audio

Un bon contenu perd son impact si le son n’est pas au rendez-vous. Là encore, l’IA peut sauver des enregistrements imparfaits.

  • Nettoyage automatique : des plateformes comme Adobe Podcast Enhance  ou Auphonic  éliminent les bruits parasites, équilibrent les voix et donnent un rendu « studio » en quelques clics.
  • Montage accéléré : fini, les longues nuits de découpe manuelle. Des outils comme Descript  transcrivent automatiquement vos pistes, vous permettant de couper un « euh » ou un blanc en éditant… du texte.
  • Voix de secours : il arrive de bafouiller ou d’oublier une phrase clé. Des IA de clonage vocal peuvent recréer votre voix pour insérer un mot manquant. À utiliser avec prudence, mais c’est un gain de temps indéniable.

L’astuce : n’abusez pas des filtres. Un podcast trop « lissé » perd son authenticité. L’IA doit sublimer votre voix, pas la transformer en robot. Gardez cela en tête !

L’IA pour booster la diffusion et l’engagement

Un podcast, aussi bon soit-il, ne vit que s’il trouve son public. Et l’IA est un allié de taille pour élargir votre audience et créer votre communauté.

  • Résumé automatique : générez des descriptions percutantes, des titres accrocheurs et même des chapitrages à partir de votre enregistrement.
  • Contenus dérivés : avec CapCut ou OpusClip, transformez vos extraits audios en vidéos sous-titrées pour TikTok, Instagram ou LinkedIn.
  • Traduction et transcription : les IA multilingues rendent votre podcast accessible à une audience internationale et améliorent votre référencement.
  • Analyse des tendances : en étudiant les retours de votre communauté, des outils d’analyse prédictive suggèrent quels sujets traiter pour garder une longueur d’avance.

L’astuce : n’oubliez pas que l’IA optimise la forme, mais le fond reste roi. Votre communauté s’attache à vos idées, pas seulement à vos hashtags.

L’intelligence artificielle n’est pas là pour remplacer la créativité du podcasteur, mais pour l’épauler. Elle automatise les tâches chronophages, améliore le rendu sonore et amplifie la diffusion, tout en vous laissant vous concentrer sur l’essentiel : votre voix, votre expertise et votre lien avec votre audience.

Penser par soi-même - êtes-vous « IA Gen sobre » ?

Christian VIGNE
Netsources no
177
publié en
2025.08
997
Acheter ce no
Tags
retour d'expérience | ChatGPT | Intelligence artificielle
Penser par soi-même - êtes-vous « IA Gen sobre » ? Image 1
Penser par soi-même - êtes-vous « IA Gen sobre » ? Image 1

Chroniques amusées sur l’intelligence artificielle par Christian Vigne Christian VIGNE

Christian Vigne, anciennement Product Manager chez Google, s’amuse dans ses chroniques à explorer l’impact de l’IA sur nos vies. Il est amené à conseiller les entreprises sur leurs stratégies IA (cadrage, priorisation, formation, conduite du changement).

J’ai découvert Luc Julia grâce à l’excellente série d’Arte intitulée « Silicon Fucking Valley ». Luc Julia est directeur scientifique, co-inventeur de Siri, et tellement français à bien des égards. Son dernier livre, IA génératives, pas créatives — l’intelligence artificielle n’existe (toujours) pas, agit comme une douche glacée pour obliger à reconsidérer l’engouement autour de l’IA générative. Je suis tombé sur un parallèle intéressant (page 168) entre les déplacements « auto-propulsés » et la pensée « auto-propulsée ». L’idée : demain, on nous demandera de faire un usage raisonné de l’IA générative (car elle consomme énormément de ressources) de la même manière qu’on nous demande aujourd’hui d’utiliser nos voitures avec parcimonie (car elles nuisent à l’environnement).

Les déplacements auto-propulsés (à vélo, à pied) étaient un concept populaire à l’époque où je faisais la promotion du vélo au bureau de Google à Paris. Le principe : inciter les employés à utiliser leur propre énergie pour aller d’un point A à un point B, à condition qu’ils en aient la capacité physique (et géographique). Après tout, Paris est une petite ville, et pour ceux qui vivent à proximité, se déplacer sans brûler d’énergie externe est une sage option, avec de multiples bénéfices en termes de bruit urbain, de consommation de ressources, de coûts personnels et de santé. En observant aujourd’hui le nombre de cyclistes en ville, on voit que le concept a pris. Et si, dans les années à venir, la pensée auto-propulsée devenait elle aussi une pratique, comme l’a été le vélo ?

« Faisons une analogie avec la voiture et les transports. Dans notre confort et notre paresse, nous utilisons parfois notre voiture alors que nous pourrions prendre les transports en commun. Ou faire le trajet à pied. Aujourd’hui notre utilisation de la voiture est de plus en plus responsable. Il devrait en être de même pour les IA génératives. »

La paresse est la promesse implicite de l’IA générative - d’autant plus que l’on parle maintenant d’agents qui feraient tout à notre place. Ce n’est pas moi qui le dis, c’est Luc Julia qui le sous-entend. Notre capacité à réfléchir pourrait s’atrophier de la même manière que notre capacité à bouger s’atrophie quand on s’appuie trop sur la voiture et pas assez sur nos moyens de locomotion naturels, autrement dit nos jambes. Nous l’avons déjà tous expérimenté : utiliser un chatbot pour rédiger un contenu prend quelques secondes, contre un effort intellectuel long et pénible - alors pourquoi souffrir ? S’installer confortablement dans sa voiture pour aller chercher du pain au lieu de marcher repose sur le même mécanisme que s’appuyer sur Gemini pour écrire un essai ou une lettre de motivation. Pure paresse.

Mais dans cette analogie, nos mains (qui tapent et écrivent) sont nos jambes. Si nos jambes se contentent de pousser des pédales comme nos mains se contentent d’écrire quelques prompts, il est probable que leurs muscles s’affaiblissent avec le temps. Le succès populaire de ChatGPT & friends est certainement lié à ce que Paul Graham formule ainsi dans cet article : « La raison pour laquelle tant de gens ont du mal à écrire, c’est que c’est fondamentalement difficile. Bien écrire demande de penser clairement, et penser clairement est difficile. »

Pour beaucoup de bonnes raisons, les gens sont dépendants de leur voiture. La technologie automobile s’est banalisée, et le vrai luxe aujourd’hui est de ne pas avoir de voiture, parce qu’on vit dans un centre-ville où l’on dispose de multiples options de transport. Ceux qui vivent dans ces centres profitent d’une plus grande liberté de marcher, de pédaler, donc de maintenir leurs muscles en forme. De la même manière, si vous avez déjà une compétence d’écriture développée, ou simplement avez conscience que c’est important, vous maintiendrez également vos capacités à écrire, donc à penser. Hypothèse : lorsqu’une technologie de pointe est adoptée massivement, elle devient discriminante. Plus les gens délégueront l’écriture à l’IA générative, moins ils sauront écrire, et donc penser.

Pour citer à nouveau le même article : « Un monde divisé entre ceux qui écrivent et ceux qui n’écrivent pas est plus dangereux qu’il n’y paraît. Ce sera un monde divisé entre « ceux qui pensent » et « ceux qui ne pensent pas ».

Restons optimistes : il y a fort à parier que des entrepreneurs lanceront des « writing challenges » inspirés des « walking challenges » devenus populaires lors des confinements.

Et chaque pas sera un mot.

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • ›
  • Fin