En bref

  • Une étude MIT révèle : étudiants utilisant ChatGPT pour rédiger → moins engagés ensuite.
  • Délégation aveugle = atrophie cognitive comme un muscle non entraîné.
  • Nuance : l’IA n’atrophie pas d’elle-même — c’est le mode d’usage qui décide.
  • La vraie question : IA comme partenaire d’entraînement ou comme béquille passive ?

Vous déléguez une rédaction à une IA, et poof, votre capacité à écrire disparaît. C’est la peur que tout le monde chuchote. Le MIT l’a mesurée. L’étude « Your Brain on ChatGPT » démontre : les étudiants qui laissent l’IA rédiger leur essai affichent une activité cérébrale plus basse, puis se montrent moins engagés sur une tâche similaire. Le cerveau, comme un muscle, s’atrophie sans usage. Donc : l’IA nous rend paresseux ? Ou nous permet de l’être ?

Le diagnostic : dépendance, pas atrophie

Les chiffres du MIT effrayent, certes. Mais le vrai danger n’est pas l’IA — c’est l’ignorance. Si je délègue sans jamais comprendre le résultat, je crée une dépendance inverse : je ne peux plus juger si la machine s’est trompée. Un médecin qui utilise l’IA sans connaître la médecine ? Désastre. Un médecin qui comprend la causalité, puis valide avec l’IA ? Amplification pure. La dépendance, c’est la délégation aveugle. L’amplification, c’est la délégation informée.

La vraie pente glissante : la confiance circulaire

Pire : la mécanique inverse. Plus je délègue sans comprendre, moins j’ai confiance en mes propres capacités. Moins je pratique, pire je deviens. Plus je régresse, plus je délègue. C’est un cercle vicieux où l’IA n’est que l’accélérateur. On a créé le même phénomène avec les calculatrices (personne ne fait mentalement de mathématiques depuis 40 ans), avec le GPS (personne ne lit une carte), avec les moteurs de recherche (personne ne mémorise). L’IA n’invente rien — elle reproduit le schéma. Sauf que cette fois, c’est de la cognition pure qu’on délègue.

Le contre-argument : amplification, pas atrophie

Mais inversez : un chercheur qui utilise l’IA pour passer 20 heures de lecture à 2 heures, puis investit ces 18 heures en réflexion critique ? Amplification. Un développeur qui laisse l’IA générer le code répétitif, puis écrit la logique métier ? Meilleur code. Un consultant qui demande à l’IA 50 hypothèses, puis sélectionne les 3 pertinentes ? Intelligence décuplée. Le problème n’est pas l’IA. C’est comment vous la positionnez. Outil ou béquille ? Partenaire d’entraînement ou remplaçant ?

La nuance : le rôle de la formation

Le MIT a raison sur un point : il faut former. Pas interdire, former. Un enfant qui apprend avec l’IA dès le CP sans avoir goûté la lutte ? Problème structurel. Un étudiant qui alterne : 50 % réflexion personnelle, 50 % validation par l’IA ? C’est du partenariat intellectuel. La pédagogie change, pas la cognition. Les universités qui interdisent ChatGPT font fausse route. Celles qui l’enseignent (« voici comment valider un résultat produit par l’IA ») ont compris.

Conclusion : le contrôle reste vôtre

L’IA ne vous rend pas paresseux. Vous rendez l’IA paresseuse — en la laissant choisir pour vous. Chaque requête sans réflexion critique, chaque délégation sans vérification, c’est du budget cognitif qu’on transfère. Mais si vous la questionnez, la défiez, la validez ? Vous doublez votre puissance. Le choix est binaire : confort passif ou amplification exigeante. L’IA suit votre ambition, pas l’inverse.

FAQ

Dois-je interdire l’IA à mes enfants pour protéger leur cognition ?

Non. Apprenez-leur à l’utiliser correctement. Les calculatrices à l’école n’ont pas été interdites : c’est l’encadrement pédagogique qui a fait la différence. Le même principe s’applique ici.

Comment savoir si j’abuse de l’IA ?

Un test simple : pouvez-vous refaire la tâche seul après ? Si non, vous avez délégué trop. Si oui, vous avez appris. La capacité à reproduire le raisonnement sans l’outil est le meilleur indicateur.

L’IA rendra-t-elle l’expertise obsolète ?

Non. Elle déplace la barre. Demain, l’expertise consistera à poser les bonnes questions à l’IA, pas à générer des réponses brutes. La dimension cognitive reste centrale — elle change simplement de forme.

Sources : étude MIT « Your Brain on ChatGPT » (2025), travaux du Stanford Institute for Human-Centered AI, analyses cognitives de Daniel Kahneman sur les biais de délégation.