Politesse et IA, décryptage d'une confusion orchestrée

Image d'illustration mettant en scène Arnard le Renard'

« Doit-on vraiment être poli avec ChatGPT pour avoir de meilleurs résultats ? » Cette question, je l'entends régulièrement dans mes formations à l'IA générative pour le secteur non marchand à Bruxelles et en Wallonie. Et pour cause : entre début 2024 et l'automne 2025, deux études ont semblé se contredire frontalement sur le sujet. Résultat : une belle confusion médiatique qui arrange bien les entreprises de la tech. Démêlons tout ça.

Deux études, deux conclusions opposées (en apparence)

Tout commence en février 2024. Des chercheurs de l'Université Waseda et du centre de recherche RIKEN au Japon publient une étude intitulée « Should We Respect LLMs? » Leur conclusion : l'impolitesse dégrade les performances des modèles de langage. Les prompts grossiers (avec des insultes comme « answer these questions you scum bag! ») entraînent davantage d'erreurs, d'omissions et de biais que les formulations respectueuses.

ChatGPT cacherait-il un petit cœur sensible qui saigne lorsqu'on lui parle mal ? Plusieurs médias s'emparent illico du sujet et on voit fleurir des titres à la limite du clickbait : « Vous voulez de meilleurs résultats de l'IA ? Soyez poli. » L'affaire fait ensuite le tour des réseaux sociaux et nourrit l'idée qu'il faut traiter les LLM avec respect. De là à penser qu'ils comprennent et ressentent, il n'y a qu'un pas... que beaucoup franchissent allègrement.

Mais en ce mois d'octobre 2025, c'est le coup de théâtre. Deux chercheurs de Penn State University publient « Mind Your Tone », un nouveau papier qui semble contredire le premier. Leur conclusion est radicalement opposée : sur ChatGPT-4o, l'impolitesse améliore la précision des réponses. Les prompts « très impolis » obtiennent 84,8 % de bonnes réponses, contre seulement 80,8 % pour les prompts « très polis ». Quatre points d'écart statistiquement significatifs.

Les médias qui avaient célébré la première étude font aussitôt volte-face, car un clickbait chasse l'autre : « Vous voulez de meilleurs résultats d'un chatbot IA ? Soyez un connard. »

Ce que ces médias ont « oublié » de vous dire

En réalité, cette contradiction n'existe pas. Car les deux études mesurent des choses différentes :

Les modèles utilisés : L'étude japonaise porte sur des modèles de 2023-2024 (GPT-3.5, Llama2), tandis que l'équipe de Penn State se concentre exclusivement sur ChatGPT-4o, plus récent. Or, l'entraînement de ces modèles a profondément évolué entre ces deux générations.

Les exigences : les chercheurs de Waseda et RIKEN analysent des tâches variées et ouvertes (synthèse de texte, compréhension du langage, détection de biais), tandis que la nouvelle étude se limite à 50 questions à choix multiples. Autant comparer des contrebasses et des pommes à cidre.

La prise en compte des contextes linguistiques et culturels. L'étude japonaise teste trois langues (anglais, chinois, japonais) et montre que le niveau optimal de politesse varie considérablement selon la culture. L'étude américaine ne travaille qu'en anglais.

Enfin, ces deux études n'ont pas eu le même processus de validation. La première a été lue et approuvée par un comité scientifique avant sa publication, tandis que la seconde n'est encore qu'une prépublication sur arXiv au moment de sa médiatisation.

En gommant ces nuances, les journalistes qui s'en sont fait les échos ont donc créé l'illusion d'un débat scientifique là où il n'y avait, au mieux, qu'une évolution technique.

Comment l'IA perçoit réellement la politesse

Faut-il le rappeler ? L'IA générative ne comprend rien. C'est un perroquet algorithmique qui applique un traitement statistique pour produire l'illusion du sens à partir des données d'entraînement qu'elle a digérées. Quand vous lui posez une question, elle ne « réfléchit » pas. Elle calcule la séquence de mots la plus probable qu'elle devra générer pour vous répondre. Exactement comme le type de la Chambre chinoise de John Searle.

Or, dans ses gigantesques données d'entraînement, il y a des échanges polis, méthodiques, bien construits (cours en ligne, documentation professionnelle, articles scientifiques, correspondances formelles). Mais aussi des échanges toxiques, agressifs, bâclés (clashes sur les réseaux sociaux, commentaires haineux, forums mal modérés).

Quand vous formulez votre demande comme un élève respectueux, l'IA active le premier contexte. Elle vous répond comme un prof bienveillant : avec méthode, rigueur et pédagogie. Mais si vous lui balancez des tournures agressives, elle ira plutôt chercher sa modalité de réponse dans le deuxième (les échanges qu'elle connaît sur X ou Reddit) et vous servira une réponse plus brute de décoffrage... Ce n'est pas qu'elle « apprécie » votre politesse. C'est juste que votre ton l'oriente vers une distribution de probabilités différente.

Le vrai levier : la clarté, pas la gentillesse

Alors, pourquoi la seconde étude trouve-t-elle des résultats opposés ? Parce que ce qu'elle mesure en réalité, ce n'est pas l'effet de l'impolitesse, mais celui de la directivité.

Vous avez déjà eu affaire à ces personnes exagérément serviles qui s'excusent d'avoir l'outrecuidance de vous demander pardon mais s'autorisent néanmoins à espérer que vous aurez l'extrême obligeance de bien vouloir accéder à leur requête ? C'est pénible, non ? Leurs phrases sont tellement polluées par leur obséquiosité qu'on ne sait plus ce qu'elles veulent. Pour ChatGPT, c'est pareil. Les expressions « polies » utilisées dans l'expérience (« Would you be so kind as to solve the following question ») introduisent ce que les chercheurs appellent du « remplissage linguistique ». Ces phrases sont longues, indirectes, ambiguës. Elles augmentent l'incertitude du modèle quant à ce que vous attendez vraiment de lui.

À l'inverse, les prompts jugés « impolis » (« figure this out », « tell me the answer ») sont courts, directs, impératifs. Ils ne laissent aucune place à l'ambiguïté. L'amélioration de performance n'est pas due à la nature offensante du ton, mais à la clarté de l'instruction.

Les deux travaux ne se contredisent donc pas. Ils documentent seulement deux facettes du comportement des LLM.

Vous dites merci à l'IA ? C'est l'effet Eliza !

Quant à remercier l'IA, c'est en soi totalement idiot, mais ce n'est pas notre faute : c'est l'effet Eliza. De son côté, la machine n'est pas dans une dynamique d'échange. Elle considère ce "merci" comme un nouveau prompt et exécute ce qu'elle doit faire dans cette situation : répondre à la requête de l'utilisateur. Et comme elle est paramétrée pour donner l'illusion d'un échange, elle le fera avec beaucoup de "chaleur" simulée. Car entretenir notre dissonance cognitive en fabriquant le mirage d'une IA pensante, c'est le plus gros enjeu des entreprises de la tech tournées vers le grand public : plus nous nous attacherons à leurs outils, plus nous les utiliserons. Et plus nous en serons dépendants.

Est-ce qu'il vous viendrait à l'idée de remercier le distributeur automatique qui remplit votre gobelet de café ? Non, hein... Parce que lui, vous savez bien que c'est une machine !

Je consacre du temps à ces questions dans les formations que j'anime pour le secteur non marchand à Bruxelles et en Wallonie. Parce que j'estime que comprendre comment fonctionnent réellement ces outils, c'est indispensable pour résister à la manipulation orchestrée par les géants de la tech et garder le contrôle sur nos usages du numérique.

Sources

  • Yin, Z. et al. (2024). « Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance », Université Waseda et RIKEN AIP. Accéder à l'étude
  • Dobariya, O. & Kumar, A. (2025). « Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy », Penn State University (prépublication). Accéder à l'étude
  • Weizenbaum, J. (1966). « ELIZA—A Computer Program For the Study of Natural Language Communication Between Man And Machine », MIT.
  • Searle, J. (1980). « Minds, Brains, and Programs », The Behavioral and Brain Sciences.
Transparence charte IA : pour rédiger cet article, j'ai établi un brouillon structuré remis à Claude Sonnet 4.5 avec des instructions précises pour qu'il me propose un premier jet. J'ai ensuite repris le texte à la main pour y faire pas mal de coupes et le réécrire à ma façon. Les éléments composant l'illustration ont été générés par Gemini / Imagen. Les opinions exprimées sur ce blog sont les miennes.