… Et tout à coup, l'IA vous contredit

Illustration : Arnard découvre que son PC lui dit non

Pan sur mon bec. Il y a deux jours, j'expliquais la sycophanie des IA génératives... Et voilà que ce matin, je me fais remballer par Claude ! Non, il n'était pas DU TOUT d'accord avec l'hypothèse que je venais de lui soumettre. Et oui, je me gourais complètement, pour telle et telle raisons. C'était cash, argumenté et assez futé. Je me suis senti comme deux ronds de flan.

Je n'avais pas encore réalisé qu'Anthropic venait de déployer son tout nouveau modèle : Sonnet 4.5. Claude excellait déjà en code et en rédaction. Mais depuis ce 29 septembre, il se surpasse. Et pas seulement parce qu'il a perdu son côté exagérément flatteur — d'où ma surprise matinale.

Le « Context Editing » pour des conversations plus fiables

Vous connaissez ce moment irritant où, après vingt échanges avec une IA, la conversation commence à partir en vrille ? Le chatbot perd le fil, se contredit, ressasse des informations dépassées... C'était l'un des talons d'Achille de tous les modèles conversationnels. Mais avec la fonctionnalité « Context Editing », Claude nettoie désormais son propre contexte en retirant les informations obsolètes au fur et à mesure. L'impression de discuter avec quelqu'un qui perd la boule, c'est fini.

Côté développement, la rupture est encore plus nette. Claude est désormais optimisé pour les agents autonomes. Avec l'Agent SDK, les développeurs disposent d'un outillage complet, et Sonnet 4.5 est immédiatement disponible dans GitHub Copilot, Amazon Bedrock et Google Cloud Vertex AI. Quant aux études de performance, elles sont solides : l'une d'elles rapporte des sessions de travail autonome de trente heures d'affilée sans que l'agent perde le fil !

Trop humain pour être honnête

Mais, même dans son propre environnement — c'est-à-dire lorsqu'on utilise son chatbot grand public —, Claude est impressionnant. Trop impressionnant, peut-être.

Avec la qualité de son fine tuning (sa capacité à ajuster ses réponses en fonction de l'utilisateur) et cette nouvelle faculté à dire « vous vous trompez », il imite encore plus finement les dialogues humains. Donc, il augmente le risque (déjà énorme) d'Effet ELIZA. Un biais cognitif bien connu depuis les années 1960, qui nous incite à croire qu'un algorithme a des pensées et des intentions. Ça fait que les personnes qui se confient tous les soirs à leur chatbot risquent d'y voir un nouvel « ami » encore plus attentif et sincère. Et de s'attacher à la machine, de la même façon qu'une victime sous emprise s'attache au psychopathe qui singe les émotions sans les ressentir lui-même.

Et nos données, dans tout ça ?

Deuxième réserve, et elle est de taille : concernant nos données, même si Anthropic vante son niveau de sécurité ASL-3, leur traitement soulève des questions légitimes. Et comme elles sont hébergées sur des serveurs américains, elles demeurent de toute façon à la vue des agences fédérales étatsuniennes, CLOUD Act oblige. Côté RGPD et IA Act, la plus grande prudence est donc toujours de rigueur !

Transparence charte IA : cet article a été rédigé et vérifié par un humain (moi !), puis relu par Claude Sonnet 4.5 dans un process de double vérification itérative, afin de s’assurer que mes affirmations factuelles sont les plus justes et les plus précises possible. Dans ce cadre, Claude peut également me faire, à la marge, des propositions de corrections (orthographiques ou stylistiques), que je valide ou non. Les opinions exprimées sur ce blog sont les miennes.
Il arrive aussi que je complète mes investigations manuelles par une recherche Gemini Deep Research utilisant la technologie Deep Think. Les éléments composant l’illustration ont été générés par Gemini d’après un prompt produit par Claude Sonnet 4.5 selon mes instructions, puis assemblés dans Canva et exportés avec Gimp.