Le domaine de l’IA générative évolue à un rythme effréné. Début 2023, le terme « prompt engineering » entrait dans le vocabulaire courant. La presse annonçait alors des salaires à six chiffres pour les spécialistes de la formulation de requêtes aux modèles de langage1.
Deux ans plus tard, c’est un nouveau terme qui apparaît : le « context engineering ». Entre-temps, les modèles de langage ont évolué. Leurs fenêtres de contexte se sont élargies (jusqu’à un million de tokens pour Gemini). Les premiers agents IA sont apparus, capables de simuler un raisonnement à plusieurs étapes, de rechercher des informations sur le web, d’exécuter du code ou encore d’utiliser des outils.
Le prompt engineering reste primordial. Le dossier publié par Véronique Mesguich dans les deux numéros précédents de NETSOURCES (Le prompt, un art pour la veille stratégique et la recherche d’information . Netsources , no 178 & 179 ) en présente les fondamentaux : savoir structurer une requête, guider le raisonnement du modèle, fournir des exemples pour orienter les réponses2. Ces techniques constituent la base de toute interaction efficace avec un modèle de langage.
