Advanced features available in the app
Au terme de ce chapitre, il est essentiel de prendre du recul et de replacer la pression exercée par les technologies, notamment les modèles de langage (LLM), dans une perspective historique et critique. Cette pression, qui vise à intégrer ces technologies dans les pratiques éducatives, même lorsque les bénéfices pour les utilisateurs finaux (étudiants, enseignants) ne sont pas clairement avérés, s’inscrit dans une stratégie industrielle dont les enjeux dépassent largement le cadre pédagogique.
Les producteurs de LLM poussent agressivement à la recherche d’usages adaptés dans les institutions, telle que l’Éducation nationale, souvent sans preuves solides de leur utilité réelle ni de leur innocuité. Ce phénomène ne doit pas être isolé mais compris dans un contexte plus large d’intérêts industriels et financiers.
Une stratégie similaire a été observée dans d'autres domaines, notamment dans la chimie et la santé publique. Par exemple, dans les années 1950, la firme américaine 3M, pionnière dans la production des polluants éternels appelés PFAS (présents notamment dans les poêles Tefal), a fait la promotion de ces molécules en invitant le public à imaginer de nouvelles utilisations. Ce n’est que plusieurs décennies plus tard que les effets toxiques de ces substances ont été reconnus, malgré la mobilisation de l’industrie pour ralentir et brouiller les conclusions scientifiques.
Cette tactique d’imposer un produit ou une technologie avant même que ses risques soient bien documentés a aussi été utilisée dans les cas du tabac, du trou dans la couche d’ozone ou encore du changement climatique, où des intérêts économiques puissants ont cherché à influencer la science pour minimiser ou retarder la reconnaissance des dangers.
Exemple historique :
Le tabac a été officiellement reconnu comme cancérogène plusieurs décennies après la parution des premières études inquiétantes dans les années 1950-1960.
Dans le contexte des LLM, des publications très récentes (datant de juin, août 2024, etc.) commencent à démontrer l’existence de risques sérieux liés à leur usage pour l’apprentissage. Ces risques affectent notamment la qualité des résultats et l’acquisition des savoirs.
Par exemple, le fonctionnement même des LLM ne garantit pas la fiabilité des réponses produites. Sous le capot, ces technologies ne font pas ce que l’on imagine souvent : elles ne vérifient pas la vérité des informations qu’elles génèrent, ce qui peut induire en erreur les apprenants.
En conséquence, la pression exercée par l’industrie pour intégrer ces outils dans les cursus scolaires et universitaires, alors même que les preuves scientifiques indiquent des effets négatifs potentiels, appelle à la prudence et à une évaluation critique.
Il n’existe pas encore d’étude définitive recommandant d’interdire totalement l’usage des LLM. Ainsi, la responsabilité de décider de leur usage revient aux utilisateurs, notamment aux adultes et aux étudiants, qui doivent se baser sur les travaux scientifiques disponibles pour former un avis éclairé.
Il s’agit donc de:
John Warner, cité dans ce chapitre, souligne que l’émergence des LLM génératifs constitue aussi une occasion de mieux comprendre ce que signifie être humain dans un processus d’apprentissage et d’écriture.
Il pose notamment la question des finalités de l’université et du sens de produire soi-même des écrits : pourquoi rédiger des essais ou des comptes rendus ? Pourquoi apprendre ? Ces questions invitent à ne pas se précipiter vers la technologie sans avoir d'abord construit une pratique personnelle d’écriture.
Citation de John Warner :
« Je crois que construire sa propre pratique d'écriture peut, et peut-être même devrait, être fait avant de se voir imposer cette technologie sur son processus d'écriture. »
De plus, il remarque que les personnes qui utilisent aujourd’hui l’IA générative de façon productive ne l’ont pas fait pendant leur période d’apprentissage, car ces outils n’existaient pas à ce moment-là. Cela suggère que la maîtrise et la compréhension personnelle du travail intellectuel précèdent l’usage bénéfique des LLM.
Il est fondamental de reconnaître la valeur unique de sa propre intelligence et de s’accorder le temps nécessaire pour développer sa pensée. S’autoriser à faire l’effort, à formuler ses idées, à réfléchir profondément est une condition indispensable pour que l’usage des LLM ne nuise pas à l’apprentissage.
Recourir immédiatement à un LLM pour produire un texte, sous pression temporelle ou autre, est peu bénéfique à moyen et long terme.
Lorsqu’on se trouve face à la décision d’utiliser ou non un LLM pour une tâche donnée, il est utile d’évaluer:
Ces intérêts doivent être évalués en s’appuyant sur des critères personnels et des données scientifiques.
Le texte invite aussi à écouter ses propres émotions, doutes et peurs pour guider sa décision. Le développement de ce qu’on appelle le « système 3 » renvoie à une démarche réflexive, critique et éthique dans l’usage des technologies.
La conclusion insiste sur la nécessité d’une posture critique, informée, et réfléchie face à l’intégration des technologies d’intelligence artificielle, en particulier les LLM, dans les pratiques éducatives. Il s’agit de:
[Diagramme]

Cette conclusion invite donc chacun à faire preuve d’esprit critique, d’autonomie et de responsabilité dans l’usage des LLM, afin de préserver la qualité de l’apprentissage et la richesse de la pensée humaine.
