IA : produire plus, apprendre moins ?
Je rebondis sur l’article de Noémy Kra « L’impact social et psychologique de l’IA sur les étudiants » (à lire ici) :
https://blog.mbadmb.com/intelligence_artificielle-etudiants-en-2025/
Son article montre bien comment l’IA est devenue un réflexe quotidien, avec des conséquences sur l’autonomie et la confiance en soi. J’aimerais ajouter une notion à sa réflexion : la dette de compétence, qui apparaît quand l’IA accélère le rendu plus que la maîtrise.
Le rendu progresse plus vite que l’apprentissage
Nous arrivons de mieux en mieux à produire des résultats propres (écrire, coder, résoudre un problème, synthétiser une information, préparer une prise de décision), sans nécessairement développer les compétences qui permettent de les construire, et surtout de les défendre sans aide. À court terme, le gain de temps est réel. Mais à long terme, si nous déléguons systématiquement les parties les plus exigeantes (raisonner, structurer, vérifier, corriger), l’entraînement diminue. Et c’est cet entraînement qui construit la vraie autonomie.
Ce qui change avec l’IA, c’est qu’elle ne se contente pas d’aider à chercher une information. Elle peut prendre en charge une grande partie du travail intellectuel lui-même. Ce phénomène existe déjà avec d’autres outils et technologies (GPS, calculatrice). Quand un outil simplifie une tâche, il peut aussi réduire l’effort personnel, et donc la capacité à fonctionner sans lui. Avec l’IA, le glissement est plus subtil. Il devient facilement de confondre un résultat propre avec une compréhension solide, parce que l’outil sait produire un résultat cohérent même quand le raisonnement de départ est incomplet. C’est là que l’usage bascule parfois « aide » à « remplacement ».
Le piège, c’est que cette progression apparente peut masquer un affaiblissement plus discret : la production s’accélère, mais la capacité à refaire, expliquer ou adapter sans l’outil diminue. C’est exactement ce qui transforme un gain de productivité en dette de compétence.
L’épreuve du « explique-moi pourquoi »
Cette notion de dette de compétence permet aussi de mieux comprendre plusieurs points soulevés par Noémy : le sentiment de l’imposture (« est-ce vraiment mon travail ? »), la dépendance (« impossible de démarrer sans l’IA ») et la pression comparative, avec l’impression qu’il faut utiliser l’IA pour rester dans la course. Lorsque l’IA devient le premier réflexe, l’entraînement diminue : faire face à une page blanche, organiser un raisonnement, accepter un brouillon imparfait, apprendre par l’erreur.
Le plus révélateur, c’est que cette dette de compétence finit par se manifester au moment d’assumer le résultat. Pas nécessairement lors de la remise d’un livrable, mais quand viennent les questions : « explique-moi pourquoi », « modifie ce point », ou « comment es-tu arrivé à ce résultat ? ».
C’est exactement ce qui se produit dès qu’il faut défendre un raisonnement en temps réel. À ce moment-là, ce qui compte n’est plus la qualité de ce qui a été produit, mais la capacité à raisonner en direct, à vérifier et à décider. Et c’est là que le décalage peut faire mal. Les questions posées peuvent s’avérer plus exigeantes que le livrable lui-même, alors que la compréhension approfondie n’est pas nécessairement au rendez-vous.
Déléguer, oui… mais sous contrôle
L’IA devient utile lorsqu’elle joue un rôle d’assistante, pas de pilote. Elle peut absorber tout ce qui prend du temps sans être le cœur du travail : mise en forme, synthèse de dossiers, extraction des points clés, proposition de formulations alternatives, déclinaison de variantes ou première correction. Utilisée ainsi, elle libère de l’énergie pour l’essentiel : approfondir, vérifier, arbitrer, créer.
Le problème commence lorsque l’IA passe d’assistante à décideuse. Lui confier des tâches que nous ne maîtrisons pas encore fait perdre la capacité (et le réflexe) d’évaluer la qualité, et la dette de compétence s’accumule, souvent de manière insidieuse. L’exécution peut être déleguée, pas le jugement. Dès que nous confions à l’IA une tâche que nous ne savons pas faire nous-mêmes, nous validons sans réfléchir, guidés par une apparence crédible. Le risque n’est pas seulement l’erreur, mais l’habitude de ne plus questionner, de ne plus vérifier et de ne plus construire nos propres critères. À terme, nous devenons dépendants d’un outil que nous ne savons plus vraiment évaluer.
Une béquille ou un tuteur ?
En réalité, la différence ne se fera pas entre ceux qui utilisent l’IA et ceux qui ne l’utilisent pas. Elle se jouera entre ceux qui s’en servent pour accélérer leur apprentissage et ceux qui s’en servent pour remplacer l’effort. Utilisée stratégiquement, l’IA peut devenir un outil de formation puissant. Non pas parce qu’elle donne la réponse, mais parce qu’elle peut expliquer, faire pratiquer, nuancer un raisonnement et fournir un feedback.
Nous ne sommes pas face à un dilemme entre « utiliser » et « refuser » l’IA. Le vrai levier, c’est le rôle que nous lui attribuons. Si elle devient un pilote automatique, elle peut nous appauvrir. Si elle devient un tuteur, elle peut nous élever.
La question n’est donc plus « faut-il utiliser l’IA ? ». La question devient : comment l’utiliser comme un assistant qui fait gagner du temps et qui forme, sans déléguer ce qui construit notre autonomie et notre esprit critique ?
Sources
- ChatGPT : “pas la moindre faute d’orthographe”, une enseignante refuse de corriger des copies conçues avec l’IA – Sud Ouest
- AI is changing how students learn, or avoid learning – USC Today
- AI Is Changing How We Learn at Work – Harvard Businss Review
- New Junior Developers Can’t Actually Code – N’s Blog
- La Fabrique à Idiots – Micode