IA et enseignement font-il bon ménage ?

Par Jean-Julien Aumercier, PFC, Louis Paternault.

IA
Ce texte est la trame (et la bibliographie) d'un atelier sur l'intelligence artificielle, animé dans mon lycée avec mes collègues Jean-Julien Aumercier et PFC.
Cet article est aussi disponible en PDF.

L'IA fantasmée

Le fantasme de l'efficacité

On entend dans les médias, sur les réseaux sociaux, dans nos discussions, que les IA génératives font des choses extraordinaires. Mais est-ce vrai ?

Bon nombre des exemples ci-dessous ont été produits par des entreprises produisant des IA. Elles ont donc tout intérêt à exagérer leurs performances pour promouvoir leur produit.

  • ChatGPT se trompe pour une simple multiplication.

    ChatGPT se trompe pour faire une simple multiplication.

    Ce qu'il est intéressant de noter, c'est que le résultat semble correct (bon nombre de chiffres, premiers et derniers chiffres corrects), mais est faux. Donc il faut garder ça en tête lorsqu'on est face à, par exemple, un résumé de texte fait avec une IA générative : ça a l'air correct, ça contient des phrases cohérentes, mais est-ce que c'est correct ?

  • Aux échecs, ChatGPT perd contre un ordinateur de 19771 :

    L’Atari 2600 est sortie en 1977 [...] face à un chatbot très puissant en 2025, pourrait-il l’affronter aux échecs ? Oui, et il le bat. C’est la conclusion de l’expérience de Robert Jr. Caruso, ingénieur chez Critix, qui a partagé ses observations sur Linkedin le 7 juin 2025. L’expérience montre surtout pourquoi ChatGPT n’est pas capable de tout faire, contrairement à des échiquiers qui jouent tout seuls et qui sont conçus pour ça.

  • L'IA a-elle été utilisée avec succès pour déchiffrer un parchemin2 ? Non : seuls 5% auraient été déchiffrés, et les chercheurs refusent de publier leur recherche, ce qui empêche de vérifier leurs affirmations3.

  • ChatGPT a-t-il réussi l'examen du barreau américain4 ? Non : cette affirmation est grandement exagérée5.

  • Une étude affirme que l'utilisation de l'IA a fait exploser le nombre de découvertes scientifiques, la rapidité des résultat, et les profits engendrés67. Cette étude est rétractée quelques mois plus tard8.

  • On entend beaucoup de choses sur l'utilisation de l'IA générative par les informaticien·ne·s. Des chercheurs9 ont observé que :

    les participants qui avaient accès à une assistance par IA produisait du code bien moins sécurisé que ceux qui n'avaient pas accès à une telle assistance. Les participants ayant accès à l'assistance par IA avaient aussi davantage tendance à croire qu'ils avaient écrit du code sécurisé, ce qui suggère que de tels outils peut rendre leurs utilisateurs trop sûrs d'eux à propos des failles de sécurités dans leur code.

Le fantasme du remplacement

On entend souvent l'idée que l'IA va purement et simplement remplacer l'être humain et exécuter à sa place les tâches qui aujourd'hui sont les siennes. Cette idée de remplacement, d'une part engendre de la crainte et d'autre part nous invite à envisager le règne des IA génératives comme une fatalité. Or, en déconstruisant le fantasme de l'efficacité, on montre que le remplacement ne peut pas avoir lieu si facilement. L’IA va plutôt s’inscrire dans des contextes professionnels et existentiels et transformer les activités concernées, on ne congédie pas l'être humain, on transforme son activité, celle de traducteur par exemple. Au lieu de créer lui-même la traduction, le traducteur va procéder à une révision de la traduction par IA, ce qui n'est pas la même tâche mais ce qui ne veut pas non plus dire qu'il n'a plus rien à faire.

Ce que nous montre la philosophie des techniques, c'est que l'usage d'une technique aussi révolutionnaire que l'IA ne pourra pas laisser indemne l'être humain. Ce dernier va se constituer à partir de l'usage de cette technique, il va transformer sa vision du monde, sa pensée et ses pratiques par l'utilisation qu'il fera des IA génératives.

Parmi les effets possibles : une prolétarisation. L'être humain se trouve dépossédé d'un certain nombre de ses capacités et se met au service de la machine. Il perd des savoir-faire, il s'adapte au fonctionnement et au rythme des machines. Cette prolétarisation, que Marx a bien perçu au moment de la révolution industrielle, pourrait-elle connaître une nouvelle forme avec cette révolution de l'IA ? Cette prolétarisation peut être rapportée à un autre concept marxiste : l'aliénation, qui décrit cette situation du travailleur qui ne reconnaît plus l'objet de son travail (une traduction que j'ai corrigée est-elle la mienne ?) et qui, finalement, ne se reconnaît plus lui-même ? Qu'est-ce que l'être humain inscrit dans le monde, par son activité, si l'IA générative engendre ses textes et ses images ? Pour reprendre Arendt, quel « monde » créons nous en laissant l'IA engendrer les productions dont nous étions auparavant les auteurs ?

Le fantasme de l'intelligence

Il accompagne le fantasme de l'efficacité, et nous montre que la perception que nous avons de l'intelligence humaine est certainement réductrice. En quel sens une IA est-elle intelligente ? Qu'est-ce qu'on appelle intelligence ?

Nous avons pu, sous l'effet d'un certain nombre de penseurs du XVIIᵉ par exemple, réduire l'intelligence au calcul. Mais nous avons vu dans la partie précédente que que Chat-GPT est capable de se tromper sur une simple multiplication. Nous pouvons faire l'hypothèse que l'intelligence réside principalement dans l'association cohérente d'idées mais, dans la première partie, nous avons vu que Chat-GPT engendre son texte par une suite de calcul de probabilités qui n'implique pas une vue complète de la phrase produite ou une vision d'ensemble du texte proposé.

Par ailleurs, la place du corps dans la pensée et dans l'intelligence semble décisive, or l'IA n'a pas de corps. Cette absence semble avoir des conséquences nombreuses dont celle d'éloigner radicalement l'IA de l'expérience humaine.

Enfin, l'intelligence humaine peut prendre la forme antique de la métis, cette intelligence des situations, proche de la capacité d'improviser et qui montre comment l'être humain peut lire les situations nouvelles à partir des expériences qui sont les siennes et qu'il a gardées en mémoire. Peut-on dire que l'IA a de l'expérience et qu'elle se sert de cette connaissance acquise par l'usage de la vie ?

L'IA et ses problèmes

Le problème de la valeur de vérité (enjeu épistémologique, moral et politique)

En mai dernier, l'administration des États-Unis a publié un long rapport de santé contenant des références inexistantes, ce qui laisse pensé qu'il a été au moins partiellement rédigé à l'aide d'une IA générative10.

Il faut se méfier du terme « hallucinations » pour décrire les erreurs des IA génératives, car ce terme est trompeur. En effet, il donne l'impression que ces IA disent la vérité, et se trompent parfois, alors que ce n'est pas leur fonctionnement : elle produisent du texte qui ressemble à du texte humain, sans aucune notion de vérité et de mensonge, et cette production mélange vérité et erreurs : toute leur production est hallucinations, et ces hallucinations sont parfois justes, parfois fausses.

Attention : le style de l'IA l'invite à formuler des assertions sans modalisations.

Le problème des biais

Biais accidentels

Notons que cette partie concerne des IA générant des images parce que c'est bien plus parlant, mais le problème est exactement le même sur les IA génératives de textes.

Puisque les IA génératives ne sont que des « perroquets stochastiques » (elles répètent ce qu'on leur a montré, avec un peu de hasard), elles reproduisent les biais des données d'entraînements. Cela peut être amusant pour une montre ou un verre de vin, mais est inquiétant pour des biais racistes ou sexistes.

  • Demander à une IA de produire l'image d'une montre indiquant 4h37 ne produit que des images de montres indiquant 10h10 (car l'immense majorité des photos de montres et horloges représentent cette heure là)11.
  • Demander à une IA de produire l'image d'un verre de vin plein à ras bord produit des verres de vins à moitié remplis, comme sur l'immense majorité des photos trouvées sur Internet12.
  • Le Washington Post a fait un article bien fourni, avec beaucoup d'exemples, pour illustrer le racisme et le sexisme des IA génératives d'images13.

Biais volontaires (?)

Dans les deux cas suivants, la structure proposant l'IA (gouvernement ou entreprise privée) a probablement introduit un biais pour censurer ou promouvoir un thème donné. Toutes les IA génératives sont donc susceptibles d'être manipulées de la sorte.

  • L'IA chinoise DeepSeek refuse de parler du massacre de la place Tiananmen, évènement censuré en Chine14.
  • Grok, l'IA générative d'Elon Musk, se met à promouvoir la théorie du complot du « génocide blanc », ou des argumentaires climatosceptiques1516.

Le problème du pouvoir

Chat-GPT appartient à une entreprise privée. Nous avons certes notre devoir de neutralité, un devoir qui nous engage à ne pas condamner frontalement cet outil pour des raisons idéologiques, mais nous devons également respecter certaines règles, dans le cadre du RGPD notamment (cf. Ce que dit la loi).

Par ailleurs, nous ne pouvons pas rester aveugles aux dangers politiques que représente une telle concentration des pouvoirs. Sans encadrement de la part de l'Etat, les entreprises privées restent libres de collecter les données et de faire évoluer l'utilisation qu'elles en font une fois l'usage des assistants IA bien ancré dans les pratiques.

Ces structures proposant des IA génératives (états et entreprises) dégradent le web, de deux manières différentes.

  • D'une part, pour constituer une énorme base de données (de textes, images, vidéos, etc.) afin d'entraîner ces intelligences artificielles génératives, elles parcourent l'ensemble du web pour tout sauvegarder. Mais elles font cela sans respecter les ressources des hébergeurs de sites web, qui, pour certains, sont davantage visités par des robots au service de ces entreprises que par des humain·e·s, à tel point que certain·e·s informaticien·ne·s passent des heures voire des jours à essayer d'empêcher ces robots de scanner leur site web, pour économiser leurs ressources, ou tout simplement pour éviter qu'ils ne fassent planter leur site web.
  • D'autre part, de nombreuses pages web ou discussions sur des forums sont entièrement générées par IA, ce qui font baisser la qualité du contenu auquel nous, humain·ne·s, avons accès. Le terme anglophone pour désigner ces contenus générés par IA est « AI slop ».

Le problème écologique

L'IA a fait exploser la consommation d'énergie dans le monde, et ce n'est pas la simple continuité de l'évolution de la consommation du numérique : il s'agit bien d'une rupture17.

Meta et Microsoft préparent la mise en place d'un nouveau réacteur nécléaire. OpenAI et le président [des États-Unis] Donald Trump ont annoncé l'initiative Stargate, qui vise à […] construire dix data centers (chacun d'entre eux consommant cinq gigawatts, soit plus que la consommation énergétique totale de l'ensemble du New Hampshire).

[…]

Ce n'est pas simplement la norme dans le monde numérique. C'est propre à l'IA, et une rupture nette avec l'appétit en électricité des géants du numérique de ces dernières années. De 2005 à 2017, la quantité d'électricité consommée par les data centers est restées relativement stable grâce à des amélioration de rendement, malgré la construction d'armées de nouveaux data centers pour fournir l'augmentation des services en lignes, de Facebook à Netflix. En 2017, l'IA commence à tout changer. Des data centers commencent à être construits avec du matériel à forte consommation en énergie conçu pour l'IA, ce qui a mené à un doublement de leur consommation en électricité en 2023.

L'IA à l'école

Désolé, cette partie-là est moins structurée…

On peut voir la délégation de l'écriture comme une rupture civilisationnelle importante. Platon en son temps, montrait déjà comment l'écrit perturbait les pratiques liées à l'oralité qui avaient cours en Grèce antique. Les historiens ont eux-mêmes fait de l'apparition de l'écriture ce moment où cesse la préhistoire et où commence l'histoire. Il ne faut pas négliger l'impact de cette nouvelle révolution numérique et poser rapidement la question de savoir comment nous devons intégrer (ou pas ?) l'outil qu'est l'IA générative dans nos enseignements. Les quelques considérations qui suivent s'appuient sur la littérature scientifique contemporaine mais : appel à la prudence de la littérature scientifique, nécessité d'un recul pour produire des résultats sur l'influence de l'IA sur l'éducation

Quelques articles scientifiques sur les conséquences de l'IA sur l'apprentissage

Cette revue de presse a été faite par Krazy Krêpe18.

  • « L'accès à GPT-4 améliore les résultats de manière significative. Néanmoins, nous montrons que lorsque cet accès est plus tard interdit, les étudiants ont alors de moins bons résultats que ceux qui n'y ont jamais eu accès. »19
  • « Notre étude montre que la forte dépandance [à l'IA] […] a un effet sur les capacités cognitives, les sujets préférant fortement les solutions rapides et optimales à celles plus lentes, contraintes par le pragmatisme »20
  • « Pendant quatre mois, les utilisateurs [d'IA générative] ont eu de moins bons résultats aux niveaux neuronal, linguistique et comportemental. Ces résultats alertent sur les conséquences à long terme de la dépendance aux [IA génératives] dans l'éducation, et souligne le besoin d'études plus approfondies sur le rôle des IA dans l'apprentissage. »21

Attention : cette dernière étude a donné lieu à beaucoup d'articles sensationalistes dans la presse généraliste, mais est grandement critiquée dans la communauté scientifique22, ce qui veut dire : attention aux paniques morales. La recherche sur les conséquences des IA génératives sur le cerveau est l'apprentissage est encore toute récente, donc il faut éviter les conclusions hâtives. Voici quelques exemples de ces gros titres :

  • « ChatGPT ramollit-il notre cerveau ? »23
  • « Utiliser ChatGPT rend notre cerveau paresseux, selon une étude du MIT »24
  • « « Moins de connexions neuronales » : l’impact inquiétant de ChatGPT sur le cerveau selon le MIT »25
  • « ChatGPT rend-il bête ? Une étude dévoile son impact inquiétant sur le cerveau »26
  • « L’utilisation de ChatGPT aurait des conséquences sur le fonctionnement cérébral, selon une étude du MIT »27

Quels sont les usages de l'IA que l'on a constatés ?

Un usage varié, ancré dans les pratiques des élèves. Un certain nombre de témoignages recueillis en fin d'année auprès des élèves montrent que la pratique est ancrée. Les outils utilisés sont variés et leur usage est fréquent. L'intensité de l'usage et la place que prend cet outil est variable. Certains élèves ne se cachent pas, ils utilisent l'IA génératives pour se débarrasser des tâches qu'ils estiment fastidieuses, mais d'autres révèlent des pratiques se développant en soutien de l'activité de révision par exemple, pour imaginer les sujets qui peuvent tomber aux devoirs, compléter les éléments de cours… L'apparente efficacité de ces assistants IA semble inviter les élèves à délaisser les moteurs de recherche au profit de ces outils, les activités de recherche d'informations semblent donc également passer par Chat-GPT.

L'argument « tous les élèves l'utilisent, donc nous devons leur apprendre à s'en servir » est contestable28.

Lors des épreuves techniques en CCF en BTS, les étudiants ont le droit d'utiliser l'IA, et le font. Deux usages sont constatés :

  • Celles et ceux qui ordonne a l'IA, comme à un employé : ils et elles savent comment résoudre le problème, en ont une vision globale, et demandent à l'IA de réaliser les tâches répétitives, sans grand intérêt.
  • Celles et ceux qui obéissent a l'IA, comme à un supérieur : ils et elles demandent à l'IA de résoudre le problème, et mettent en œuvre la solution qui leur est proposée.

L'usage amené par les professeur·e·s

Que faire de cet usage ? Le débat : enseigner avec l'IA comme outil ou refuser purement et simplement l'IA ?

Certain·e·s affirment que l'on peut utiliser « correctement » les IA au lycée (tâches bien précises, usage critique…), mais cet usage légitime l'utilisation des IA par les élèves, mais : « même s’il est effectivement possible de faire des petites IAs éthiques aux impacts moindres, cela participe à l’acceptation générale de toutes les IAs génératives potentielles, dont celles qui ont un impact énorme et sont fort peu éthiques. »29

Attention à ne pas confondre l'IA avec un moteur de recherche :

Ces problèmes n'apparaissaient pas chez les personnes qui utilisaient un moteur de recherche (pour trouver des sources, etc.). C'est une antidote importante à la croyance selon laquelle les [IA génératives] sont juste des moteurs de recherches. Ce qu'elles ne sont pas. Elles dégradent massivement les capacités et le développement mental. Raison pour laquelle ces systèmes n'ont absolument aucune place même près des écoles et des universités.30

Ne pas envisager d'usages de l'IA qui ne soit pas accompagné d'un recul critique important quant aux productions de cet outil ?

Les éducateurs et législateurs devraient inclure l'éducation critique aux médias dans les programmes pour fournir aux étudiants la capacité d'évaluer de manière critique les contenus générés par IA. Cela inclut la compréhension des mécanismes, des biais potentiels et des enjeux éthiques de ces technologies d'IA. Les institutions devraient mettre en œuvre des programmes d'éducation à l'IA qui insistent sur l'usage étique des technologies d'IA, en insistant sur al nécéssité de concerver compétences cognitives telles que l'esprit critique et le raisonnement analytique à l'ère de l'automatisation. Des études ultérieures devraient mesurer l'impact cognitif de l'usage des IA conversationnelles en éducation. De telles études pourront fournir davantage de preuves concrètes pour guider le développement des meilleurs pratiques pour l'intégration des IA dans l'éducation.31

Penser avec l'IA et non pas penser par l'IA

Si apprendre revient à construire des savoirs, alors l'IA générative doit être envisagée comme un support pour cette construction. On ne saurait demander à l'élève qu'il délègue cette opération de conception et de rédaction. Que gagne-t-on à ne pas utiliser l'assistance IA ce qui concerne l'apprentissage ?

Lien entre forte activité cérébrale et traces mémorielles :

Les utilisateurs [d'IA génératives] avaient aussi du mal à citer précisément leur propre travail. Bien que les [IA génératives] procurent un confort immédia, nos recherches soulignent des coûts cognitifs. Pendant quatre mois, les utilisateurs [d'IA générative] ont eu de moins bons résultats aux niveaux neuronal, linguistique et comportemental. Ces résultats alertent sur les conséquences à long terme de la dépendance aux [IA génératives] dans l'éducation, et souligne le besoin d'études plus approfondies sur le rôle des IA dans l'apprentissage.32

L'effet GPS, effet de délégation. Peut-on déléguer son esprit critique ? Si je me sers de l'IA comme d'un moteur de recherche, je m'empêche d'utiliser mon esprit critique sur les résultats proposés.

Le problème de l'évaluation

Attention à rester humble : nous avons du mal à détecter si un devoir a été généré ou non par IA :

Les participants (69 professeur·e·s de lycée, 140 lycéen·ne·s) ont été soumis·e·s à un test d'identification d'IA dans lequel ils ont lu des couples d'essais --- l'un écrit par un lycéen, l'autre par ChatGPT --- et deviné lequel était généré par l'agent conversationnel. La proportion de bonnes réponses était seulement de 70% pour les professeurs, et légèrement moins bonne pour les lycéens (62%). La confiance en soi déclarée n'augmentait pas la justesse, ni l'expérience avec ChatGPT ou l'expertise dans le sujet étudié. Les essais de bonne qualité des étudiants étaient particulièrement difficiles à différencier des textes de ChatGPT33.

Comment évaluer avec l'IA générative ? Faut-il apprendre aux élèves à prompter ? Sommes nous tenus d'évaluer un devoir rédigé tout ou partie avec cet outil ?

  • Le problème de la création d'exercices / d'évaluation IA-proof : Cacher des pièges a IA dans les consignes ?
  • Le problème de l’écriture. Pourquoi écrire et faire écrire ?
    • Nous avons sans doute intérêt à nous interroger sur les raisons qui poussent les élèves à utiliser l'IA générative. Pourquoi choisir de déléguer l'acte d'écriture ?
      • Ecrire s'avère difficile. Les exercices demandés aux élèves sont souvent difficiles pour eux dans la mesure où la rédaction tient une place importante dans de nombreuses tâches scolaires.
      • Les enjeux de l'évaluation pour l'élève. Avec le contrôle continu et Parcoursup, les notes deviennent non seulement l'indication d'un niveau mais également un élément de sélection et comparaison. L'évaluation formative est moins bien acceptée parce que toute note a tendance à devenir une note de bac.
      • Les élèves semblent ne plus percevoir l'intérêt et le plaisir qu'il pourrait y avoir à écrire, à formuler sa pensée, à la mettre au clair pour que l'autre puisse y accéder et, éventuellement, y répondre.
    • Pourquoi garder l'exigence de faire écrire ? Lorsqu'on écrit, non seulement on formule sa pensée mais on apprend à penser. Cet apprentissage ne peut pas se réaliser si l'acte d'écrire est transféré à la machine.34
    • Plus précisément, dans l'acte d'écrire il y a une transformation de celui / celle qui écrit, ielle devient conscient.e de ce qu'elle pense en faisant l'effort de faire comprendre à l'autre ses idées. Il y a une sorte de révélation de soi dans l'écriture. Un travail de clarification dans lequel je fais l'épreuve du confus pour rendre perceptible mes pensées à l'autre.
    • Dans cet apprentissage de l'écriture je deviens également un individu, je me singularise : la question du style3536. Pollution de l'écosystème langagier, l'IA va se nourrir de ses propres productions. L'IA a donc un style moyen, elle n'a pas de style, elle en a mille. Textes surstylés, où l'on ne voit plus l'être humain derrière les mots. L'élève qui persiste dans l'acte d'écrire pourrait trouver son style et avec lui, le plaisir d'écrire.

Ce que dit la loi

Le ministère de l'Éducation nationale a publié un cadre d'usage à destination des professeur·e·s37. L'infographie suivante en constitue un résumé.

Infographie résumant le cadre d'usage sur l'IA à destination des professeur·e·s


  1. Bernard, Hugo (20 juin 2025). « Quand une Atari de 1977 ridiculise ChatGPT aux échecs ». In : Numerama. url : https://www.numerama.com/tech/1990447-chatgptperd-aux-echecs-contre-une-atari-2600-de-1977.html.

  2. Kuta, Sarah (8 fév. 2024). « Un parchemin antique ”illisible” a été déchiffré par une intelligence artificielle ». In : National Geographic. url : https://www.nationalgeographic.fr/histoire/inedit-prouesse-technologique-ai-un-parchemin-antique-illisible-dechiffre-par-une-intelligence-artificielle

  3. Clavey, Martin (27 fév. 2024). « Le rêve d’une IA qui saurait lire les papyrus d’Herculanum et ses difficultés cachées ». In : Next. url : https://next.ink/128699/le-reve-dune-ia-qui-saurait-lire-les-papyrus-dherculanumet-ses-difficultes-cachees/.

  4. Cussac, Inès (15 mars 2024). « ChatGPT : la nouvelle version GPT-4 réussit l’examen du barreau haut la main ». In : Capital. url : https://www.capital.fr/entreprises-marches/chatgpt-la-nouvelle-version-gpt-4-reussit-lexamen-du-barreau-haut-la-main-1463027

  5. Martínez, Eric (mars 2024). « Re-evaluating GPT-4’s bar exam performance ». en. In : Artificial Intelligence and Law. issn : 0924-8463, 1572-8382. https://doi.org/10.1007/s10506-024-09396-9. url : https://link.springer.com/10.1007/s10506-024-09396-9 (visité le 04/07/2025).

  6. Castelvecchi, Davide (déc. 2024). « Huge randomized trial of AI boosts discovery — at least for good scientists ». en. In : Nature 636.8042, p. 286-287. issn : 0028-0836, 1476-4687. https://doi.org/10.1038/d41586-024-03939-5. url : https://www.nature.com/articles/d41586-024-03939-5 (visité le 04/07/2025).

  7. Agrawal, Ajay, John McHale et Alexander Oettl (juin 2024). « Artificial intelligence and scientific discovery : a model of prioritized search ». en. In : Research Policy 53.5, p. 104989. issn : 00487333. https://doi.org/10.1016/j.respol.2024.104989. url : https://linkinghub.elsevier.com/retrieve/pii/S0048733324000386 (visité le 04/07/2025).

  8. MIT Economics (16 mai 2025). Assuring an accurate research record. url : https://economics.mit.edu/news/assuring-accurate-research-record.

  9. Perry, Neil et al. (nov. 2023). « Do Users Write More Insecure Code with AI Assistants ? » en. In : Proceedings of the 2023 ACM SIGSAC Conference on Computer and Communications Security. Copenhagen Denmark : ACM, p. 2785-2799. isbn : 979-8-4007-0050-7. https://doi.org/10.1145/3576915.3623157. url : https://dl.acm.org/doi/10.1145/3576915.3623157 (visité le 04/07/2025).

  10. Gedeon, Joseph (29 mai 2025). « RFK Jr’s ‘Maha’ report found to contain citations to nonexistent studies ». In : The Guardian. issn : 0261-3077. url : https://www.theguardian.com/us-news/2025/may/29/rfk-jr-maha-health-report-studies.

  11. n1k0 (25 juin 2025). url : https://mamot.fr/@n1k0/114762002657644342.

  12. PaulBellow (27 fév. 2025). Why Can’t ChatGPT : Draw a Full Glass of Wine ? url : https://community.openai.com/t/why-can-t-chatgpt-draw-afull-glass-of-wine/1130828/2.

  13. Tiku, Nitasha, Kevin Schaul et Szu Yu Chen (1er nov. 2023). « These fake images reveal how AI amplifies our worst stereotypes ». In : The Washington Post. url : https://www.washingtonpost.com/technology/interactive/2023/ai-generated-images-bias-racism-sexism-stereotypes/.

  14. « ”Parlons d’autre chose” : on a testé l’IA chinoise DeepSeek, qui n’échappe pas à la censure » (28 jan. 2025). In : FranceInfo. url : https://www.franceinfo.fr/internet/intelligence-artificielle/parlons-d-autre-choseon-a-teste-l-ia-chinoise-deepseek-qui-n-echappe-pas-a-lacensure%5C_7041479.html.

  15. Vanian, Jonathan (16 mai 2025). « Musk’s xAI says Grok’s ‘white genocide’ posts resulted from change that violated ‘core values’ ». In : CNBC. url : https://www.cnbc.com/2025/05/15/musks-xai-grok-white-genocide-posts-violated-core-values.html.

  16. Waldman, Scott (28 mai 2025). « Elon Musk’s Grok Chatbot Has Started Reciting Climate Denial Talking Points ». In : Scientific American. url : https://www.scientificamerican.com/article/elon-musks-ai-chatbot-grok-is-reciting-climate-denial-talking-points/

  17. O’Donnell, James et Casey Crownhart (20 mai 2025). « We did the math on AI’s energy footprint. Here’s the story you haven’t heard ». In : MIT Technology Review. url : https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/.

  18. Krazy Krêpe (17 mars 2025). url : https://mamot.fr/@krazykitty/114179509278186690.

  19. Bastani, Hamsa et al. (2024). Generative AI Can Harm Learning. https://doi.org/10.2139/ssrn.4895486. url : https://www.ssrn.com/abstract=4895486 (visité le 04/07/2025).

  20. Zhai, Chunpeng, Santoso Wibowo et Lily D. Li (juin 2024). « The effects of over-reliance on AI dialogue systems on students’ cognitive abilities : a systematic review ». en. In : Smart Learning Environments 11.1, p. 28. issn : 21967091. https://doi.org/10.1186/s40561-024-00316-7. url : https://slejournal.springeropen.com/articles/10.1186/s40561-024-00316-7 (visité le 04/07/2025).

  21. Kosmyna, Nataliya et al. (2025). Your Brain on ChatGPT : Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. Version Number : 1. https://doi.org/10.48550/ARXIV.2506.08872. url : https://arxiv.org/abs/2506.08872 (visité le 04/07/2025).

  22. Dr. Cat Hicks (20 juin 2025). url : https://mastodon.social/@grimalkina/114717549619229029.

  23. Bernard, Hugo (20 juin 2025). « ChatGPT ramollit-il votre cerveau ? » In : Numerama. url : https://www.numerama.com/tech/1995921-chatgptramollit-il-votre-cerveau.html.

  24. « Utiliser ChatGPT rend notre cerveau paresseux, selon une étude du MIT » (24 juin 2025). In : Ouest France. url : https://www.ouest-france.fr/hightech/utiliser-chatgpt-rend-notre-cerveau-paresseux-selon-uneetude-du-mit-452984e2-5100-11f0-8497-38272d0181ee.

  25. Geoffre-Rouland, Aymeric (19 juin 2025). In : url : https://www.lesnumeriques.com/intelligence-artificielle/moins-de-connexions-neuronales-l-impact-troublant-de-chatgpt-sur-le-cerveau-selon-le-mit-n238288.html

  26. Ballongue, Louise (19 juin 2025). « ChatGPT rend-il bête ? Une étude dévoile son impact inquiétant sur le cerveau ». In : Doctissimo. url : https://www.doctissimo.fr/psychologie/mieux-se-connaitre/intelligence/vousutilisez-souvent-chatgpt-decouvrez-son-impact-inquietant-sur-lecerveau-devoile-par-une-etude-388918.htm.

  27. Belot, Laure (1er juill. 2025). « L’utilisation de ChatGPT aurait des conséquences sur le fonctionnement cérébral, selon une étude du MIT ». In : Le Monde. url : https://www.lemonde.fr/sciences/article/2025/07/01/lutilisation-de-chatgpt-pourrait-influencer-nos-capacites-cognitives_6617187_1650684.html.

  28. Cailleaux, Christophe et Amélie Hart (27 fév. 2025). « L’IA, junk food de la pensée ». In : Academia. https://doi.org/10.58079/13E71. url : https://academia.hypotheses.org/60133 (visité le 04/07/2025).

  29. Maraninchi, Florence (16 mai 2025). « Pourquoi je n’utilise pas ChatGPT ». In : Ritimo. url : https://www.ritimo.org/Pourquoi-je-n-utilise-pas-ChatGPT.

  30. Kosmyna, Nataliya et al. (2025). Your Brain on ChatGPT : Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. Version Number : 1. https://doi.org/10.48550/ARXIV.2506.08872. url : https://arxiv.org/abs/2506.08872 (visité le 04/07/2025).

  31. Zhai, Chunpeng, Santoso Wibowo et Lily D. Li (juin 2024). « The effects of over-reliance on AI dialogue systems on students’ cognitive abilities : a systematic review ». en. In : Smart Learning Environments 11.1, p. 28. issn : 21967091. https://doi.org/10.1186/s40561-024-00316-7. url : https://slejournal.springeropen.com/articles/10.1186/s40561-024-00316-7 (visité le 04/07/2025).

  32. Kosmyna, Nataliya et al. (2025). Your Brain on ChatGPT : Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. Version Number : 1. https://doi.org/10.48550/ARXIV.2506.08872. url : https://arxiv.org/abs/2506.08872 (visité le 04/07/2025).

  33. Waltzer, Tal, Riley L. Cox et Gail D. Heyman (juin 2023). « Testing the Ability of Teachers and Students to Differentiate between Essays Generated by ChatGPT and High School Students ». en. In : Human Behavior and Emerging Technologies 2023. Sous la dir. de Zheng Yan, p. 1-9. issn : 2578-1863. https://doi.org/10.1155/2023/1923981. url : https://www.hindawi.com/journals/hbet/2023/1923981/.

  34. Renault, Vincent (25 mai 2025). In : Le Monde. url : https://www.lemonde.fr/societe/article/2025/05/20/ia-dans-l-education-l-outilempeche-de-realiser-l-acte-philosophique-d-elaborer-un-problemeet-d-en-deployer-les-dimensions_6607242_3224.html.

  35. Neveux, Julie (13 juin 2025). In : France Inter. url : https://www.radiofrance.fr/franceinter/podcasts/avec-la-langue/avec-la-langue-de-julie-neveux-du-vendredi-13-juin-2025-4338850.

  36. Desagulier, Guillaume (2 juin 2025). « Vocabulaire et diversité linguistique : comment l’IA appauvrit le langage ». In : The Conversation. url : http://theconversation.com/vocabulaire-et-diversite-linguistiquecomment-lia-appauvrit-le-langage-252944.

  37. Ministère de l’éducation nationale, de l’enseignement supérieur et de la recherche (juin 2025). Cadre d’usage de l’IA en éducation. url : https://www.education.gouv.fr/cadre-d-usage-de-l-ia-en-education-450647