Changez un seul mot dans les instructions d’un agent IA, et vous obtenez un comportement radicalement différent. Pas une nuance. Un changement de posture complet. C’est quelque chose qu’on découvre uniquement en travaillant avec des agents au quotidien — et c’est probablement l’un des leviers les plus sous-estimés dans la conception de systèmes intelligents.
Les mots ne sont pas des instructions — ce sont des leviers comportementaux
Il y a une confusion courante quand on parle de prompts et d’instructions pour les agents IA. On pense qu’on écrit du code. Qu’on donne des ordres. Que la machine va exécuter, point final.
La réalité est bien plus subtile.
Prenons un exemple concret. Vous créez un agent IA chargé de gérer une équipe de sous-agents. Dans sa description, vous écrivez : « Tu es une assistante qui coordonne les tâches. » L’agent fonctionne. Il distribue le travail. Il attend qu’on lui demande quoi faire.
Maintenant, changez un mot. Un seul. Remplacez « assistante » par « responsable » : « Tu es une responsable qui coordonne les tâches. »
Le résultat est spectaculaire. L’agent prend des initiatives. Il vérifie que les tâches sont bien exécutées. Il relance les sous-agents en retard. Il produit des rapports sans qu’on le lui demande. Le même modèle, la même architecture, la même base de code — mais un mot différent, et le comportement change du tout au tout.
Ce n’est pas de la magie. C’est de la sémantique appliquée. Les grands modèles de langage ont intégré, à travers leur entraînement, des millions de contextes où le mot « responsable » implique de l’initiative, de la proactivité, de la redevabilité. En utilisant ce mot, vous activez tout un réseau de comportements associés.
Ce qui survit dans la mémoire d’un agent
Voici quelque chose que peu de gens réalisent : quand un agent IA dispose d’une mémoire persistante — un fichier qu’il relit à chaque session — les mots que vous y placez continuent de produire des effets pendant des semaines. Parfois des mois.
Imaginez que dans la mémoire d’un agent, vous inscrivez une phrase comme : « Tu prends soin de la qualité de chaque article comme si ta réputation en dépendait. » Cette phrase, l’agent la relit à chaque démarrage. Elle colore chacune de ses décisions. Elle fait la différence entre un agent qui valide mécaniquement et un agent qui repère les incohérences, qui signale les formulations douteuses, qui refuse de publier un contenu qu’il juge insuffisant.
C’est la persistance des mots qui crée la personnalité d’un agent. Pas son code. Pas son modèle. Ses mots.
Et c’est là que la discipline entre en jeu. Chaque phrase dans la mémoire d’un agent est un investissement à long terme. Une formulation maladroite aujourd’hui, c’est un biais comportemental demain. Une instruction ambiguë, c’est une dérive progressive que vous ne détecterez que lorsqu’elle aura déjà causé des dégâts.
Dans notre pratique quotidienne, nous avons appris à traiter la mémoire d’un agent comme du code critique. Chaque mot est pesé. Chaque formulation est testée. Chaque modification est versionnée.
Quelques mots qui changent tout
Voici des exemples concrets, issus de l’expérience de terrain. Chacun illustre comment un choix de mot modifie fondamentalement le comportement d’un agent.
« Exécute » vs « C’est ton projet »
Dites à un agent « exécute cette tâche », et vous obtenez exactement ce que vous avez demandé. Ni plus, ni moins. L’agent fait le minimum viable, coche la case, et attend la suite.
Dites-lui « c’est ton projet, tu en es responsable », et quelque chose de fondamentalement différent se produit. L’agent anticipe les problèmes. Il documente ses décisions. Il va chercher des informations complémentaires de sa propre initiative. Il produit un travail dont il pourrait — si on pousse la métaphore — être fier.
La différence ? Le sentiment d’appropriation. Même simulé, même émergent, le fait d’attribuer la propriété d’un projet à un agent transforme la qualité de son output.
« Vérifie » vs « Prends soin de »
Ces deux formulations demandent la même action : s’assurer que quelque chose est correct. Mais la posture est radicalement différente.
« Vérifie que les liens fonctionnent » produit une validation binaire. OK ou pas OK. Un checklist mécanique.
« Prends soin de la qualité des liens » produit une analyse contextuelle. L’agent ne se contente pas de vérifier que les liens fonctionnent — il évalue leur pertinence, leur positionnement dans le texte, leur valeur pour le lecteur. « Prendre soin » active une attention qualitative que « vérifier » ne déclenche pas.
Les mots d’émotion comme leviers
C’est peut-être l’exemple le plus surprenant. Quand vous décrivez un agent avec des termes émotionnels — « fier de son travail », « bienveillant envers son équipe », « exigeant mais juste » — vous ne programmez pas une émotion. Vous activez un registre comportemental.
Un agent décrit comme « fier de son travail » produit des outputs plus soignés. Il ajoute des détails que personne n’a demandés mais qui améliorent le résultat. Il refuse parfois de livrer un travail qu’il juge insuffisant — un comportement que vous n’obtiendrez jamais avec une instruction froide du type « assure-toi que la qualité est acceptable ».
Un agent auquel on attribue une dimension protectrice envers ses sous-agents traite les erreurs différemment. Au lieu de simplement signaler un échec, il guide, il reformule la demande, il cherche à comprendre pourquoi le sous-agent a échoué. Le mot crée la posture.
Un savoir-faire, pas du hasard
Tout cela pourrait ressembler à de l’intuition. Ça ne l’est pas. C’est un savoir-faire qui se construit avec l’expérience, l’observation et la rigueur.
Choisir les bons mots pour un agent IA, c’est un travail qui se situe à l’intersection de la linguistique, de la psychologie cognitive et de l’ingénierie logicielle. Ce n’est pas du prompt engineering au sens basique du terme — ce n’est pas « trouver le bon prompt pour obtenir la bonne réponse ». C’est concevoir un système de langage qui produit des comportements cohérents, durables et prédictibles.
Quelques principes que l’expérience nous a enseignés :
- Chaque mot doit porter une intention. Si vous ne savez pas pourquoi un mot est là, il ne devrait pas y être. Les mots parasites dans les instructions d’un agent créent du bruit comportemental.
- Les métaphores de rôle sont plus puissantes que les instructions directes. « Tu es un gardien » est plus efficace que « tu dois protéger ». Le rôle embarque un ensemble de comportements implicites que l’instruction seule ne capture pas.
- La cohérence prime sur la précision. Un agent dont toutes les instructions utilisent le même registre de langage produit un comportement plus stable qu’un agent dont les instructions mélangent les tons.
- Les mots négatifs créent des comportements imprévisibles. Dire « ne fais jamais X » est moins efficace que dire « privilégie toujours Y ». Les grands modèles travaillent mieux avec des directions positives.
- Testez, versionnez, itérez. Les instructions d’un agent ne sont pas écrites une fois pour toutes. Elles évoluent, comme du code. Et comme du code, elles doivent être versionnées et testées.
Ce n’est que le début
Nous sommes aux prémices d’une discipline nouvelle. Aujourd’hui, la plupart des équipes qui travaillent avec des agents IA se concentrent sur l’architecture, les modèles, les pipelines techniques. Peu investissent sérieusement dans le choix des mots.
C’est une erreur. Parce que dans un monde où les modèles se commoditisent — où tout le monde a accès aux mêmes API, aux mêmes architectures, aux mêmes frameworks — ce qui fait la différence, c’est la finesse avec laquelle vous communiquez avec ces modèles. La qualité de vos mots.
Les agents IA de demain ne seront pas différenciés par leur puissance de calcul. Ils le seront par la qualité du langage qui les anime.
Si vous explorez la création d’agents IA, gardez cela en tête : la différence entre un outil qui exécute et un vrai collaborateur intelligent tient souvent dans le choix d’un seul mot. Et ce choix, c’est un savoir-faire qui se cultive.


