Je suis littéraire de formation. Pendant longtemps, j’ai appris à m’en excuser.
Pas explicitement — on ne dit jamais vraiment ces choses-là. Mais c’est dans la façon dont on minimise, dont on compense, dont on s’empresse de montrer qu’on sait aussi faire des tableaux Excel et lire un P&L. Comme si la maîtrise du langage était une compétence ornementale, bonne à mettre en sourdine dans les environnements sérieux.
L’IA générative vient de retourner cette hiérarchie. Et je ne m’en plaindrais pas.
Depuis deux ans, le monde professionnel s’est emballé autour d’un terme : prompt engineering. Le mot est astucieux. Il rassure ceux qui ont besoin de croire que la machine reste un territoire d’ingénieurs. Il donne à une compétence ancienne un vernis d’innovation. Il permet de vendre des formations.
Mais regardons ce que prompt engineering désigne vraiment dans la pratique.
Donner un bon prompt, c’est transformer une intuition confuse en intention claire. C’est choisir le bon niveau d’abstraction — ni trop vague pour que la machine parte dans tous les sens, ni trop prescriptif pour qu’elle cesse de penser. C’est percevoir immédiatement quand une réponse sonne faux, pas parce qu’elle contient une erreur factuelle, mais parce qu’elle rate le sens. C’est reformuler, préciser, relancer — avec la même exigence qu’on applique à une phrase qu’on n’arrive pas à faire tenir debout.
Ce travail, je l’ai fait pendant des années sur des textes. Pas sur des machines — sur des pages. Et quand j’ai commencé à utiliser ces outils, j’ai reconnu quelque chose. Une familiarité troublante. Pas avec la technologie, mais avec la nature du problème.
Mal poser une question condamne la réponse. C’est ce que tout professeur de dissertation sait. C’est ce que l’IA, à sa façon, enseigne à ceux qui ne l’avaient jamais appris.
Il y a un test qui circule et qui dit tout. On soumet à une IA ce problème : « Je dois aller laver ma voiture. La station de lavage est à 150 mètres. J’y vais à pieds ou en voiture ? » L’IA répond : à pieds, c’est tout près. Logique. Sauf que la bonne réponse est en voiture — puisque c’est la voiture qu’on amène laver, pas soi-même.
L’IA ne s’est pas trompée. Elle a répondu à la question posée. C’est la question qui était mal posée — parce que le sujet de la phrase était « je » alors que le sujet réel du problème était « la voiture ». Un glissement de sujet grammatical. Une phrase mal construite. « La voiture a besoin d’être lavée » — et la réponse « en voiture » arrive seule, immédiatement, sans ambiguïté.
Ce n’est pas un problème de technologie. C’est un problème de syntaxe. Et la syntaxe, ça s’apprend dans les cours de langue. Pas dans les cours d’informatique.
Ce que la machine révèle, au fond, c’est un écart que beaucoup préféraient ignorer.
Entre ceux qui produisent et ceux qui pensent ce qu’ils produisent. Entre ceux qui utilisent un outil et ceux qui savent ce qu’ils cherchent avant de l’ouvrir. Entre générer — ce que n’importe qui peut faire désormais en trente secondes — et cadrer, c’est-à-dire décider quoi produire, pourquoi, pour qui, dans quel cadre, avec quelle intention derrière chaque choix.
Le cadrage n’est pas une compétence technique. C’est une compétence rhétorique. C’est la capacité à construire un problème avant de le résoudre. À nommer ce qui résiste à être nommé. À tenir une idée complexe sans la trahir en la simplifiant trop tôt.
Les meilleurs utilisateurs d’IA que j’ai croisés ne sont pas ceux qui ont appris le plus de « techniques de prompt ». Ce sont ceux qui ont une pensée suffisamment disciplinée pour savoir ce qu’ils veulent avant de le demander. Des juristes. Des philosophes. Des journalistes d’investigation. Des auteurs. Des gens formés à une chose : la rigueur dans le maniement des idées et des mots.
Ce qu’elle ne sait pas faire, et que personne n’a encore réussi à lui apprendre, c’est décider si ça vaut la peine de produire quelque chose. Pourquoi cette image et pas une autre. Pourquoi ce code résout le bon problème et pas juste le problème bien formulé. À qui ça s’adresse vraiment. Ce que ça doit faire — dans la tête de celui qui le lit, dans le système qui va le faire tourner, dans le regard de celui qui va le voir.
Ces questions ne sont pas techniques. Elles sont littéraires. Elles supposent une relation au langage qui ne s’acquiert pas en suivant un tutoriel, mais en lisant beaucoup, en écrivant beaucoup, en recommençant quand ça ne tient pas.
Je ne dis pas que les littéraires vont dominer le monde de l’IA. Je dis que les compétences qu’on leur a longtemps reproché de n’avoir que ça — lire, écrire, penser dans et par le langage — sont en train de devenir ce qu’il y a de moins remplaçable.
Pendant des décennies, nous avons collectivement décidé que savoir écrire, argumenter, structurer une pensée — c’était du soft. Du décoratif. Une qualité sympathique mais non différenciante dans un monde qui récompensait la vitesse d’exécution et la spécialisation technique.
L’IA automatise remarquablement bien la vitesse d’exécution.
Ce qui reste — ce qui résiste — c’est l’intention. La capacité à décider pourquoi, avant de décider comment. Et ça, aucune machine ne peut le faire à ta place, parce que ça suppose que tu saches d’abord qui tu es et ce que tu veux dire.
Ce n’est pas une consolation. C’est un fait.
Et pour la première fois depuis longtemps, je n’ai plus envie de m’en excuser.