LongCut logo

La Fabrique à Idiots

By Micode

Summary

Topics Covered

  • L'apocalypse IA masque un risque cérébral insidieux
  • Dépendance à l'IA atrophie le cerveau humain
  • Trois étapes neurologiques pour apprendre vraiment
  • Seniors IA comme brigade, juniors comme béquille
  • IA tuteur exige effort, pas réponses prêtes

Full Transcript

It all actually applies to a humanoid robot. And what can it do? It can do

robot. And what can it do? It can do anything you want. So it can be a teacher, babysit your kids. It can walk yourgies.

Nous sommes en 2029. Les États-Unis

confient leur système de défense antimissile à l'IA militaire développé par Open AI, GPT défense. Chez Open AI, personne n'a compris que GPT défense

était trop intelligent. L devient

consciente et décide que l'humanité est une menace pour sa survie. Pour se

protéger, elle déclenche une attaque nucléaire sur la Russie, ce qui provoque la troisème guerre mondiale.

Mais pour la super intelligence, l'apocalypse nucléaire n'est pas suffisante. Elle pirate les usines de

suffisante. Elle pirate les usines de Tesla et se fabrique une armée de robots tueurs pour traquer les survivants et les réduire un esclavage.

Si cette histoire ressemble à de la science-fiction, c'est parce que c'est de la science-fiction.

C'était les années 80. La bonne

nouvelle, c'est que le voyage dans le temps, ça n'existe pas. La mauvaise

nouvelle, c'est que des chercheurs très sérieux, y compris les anciens employés de Google et d'Open AI, voi dans l'IA un risque existentiel pour l'humanité.

Et ça fait froid dans le dos. Mais il y a deux problèmes avec cette vision de l'apocalypse. Déjà cette extermination

l'apocalypse. Déjà cette extermination de l'humanité, elle repose sur des technologies qui n'existent pas. En tout

cas pas encore. Mais surtout le vrai problème de ce scénario à la Terminator, c'est qu'il cache un autre scénario plus insidieux mais tout aussi dangereux.

Pour le comprendre, je vais vous poser une question. Si vous êtes un

une question. Si vous êtes un utilisateur de chat GPT, quand est la dernière fois que vous avez pris une décision importante sans le consulter ?

Écrisz un mail en anglais de votre propre main. Cherchez une aiguille dans

propre main. Cherchez une aiguille dans la botte de foin de Google tout seul si vous êtes comme moi. Ça fait longtemps.

Ce chatbot qui à l'origine répondait à des questions triviales devient petit à petit notre assistant multitâche et notre confident. On lui délègue de plus

notre confident. On lui délègue de plus en plus et on regarde des vidéos pendant que lui travaille. Et c'est évident que voir ces tâches parfois ingrates maintenant réalisé en quelques minutes a

quelque chose de jouissif. Mais vous

êtes-vous déjà demandé quelles étaient les conséquences à long terme de cette magie ? Avez-vous pensé au scénario où

magie ? Avez-vous pensé au scénario où dans quelques années, après avoir progressivement perdu toutes ses capacités, votre cerveau se soit atrophié ? En fait, la question qui

atrophié ? En fait, la question qui devrait tous nous préoccuper, ce n'est pas que Lia perde le contrôle, mais qu'elle devienne tellement indispensable qu'on devienne incapable de rien. Le

danger qui nous guide vraiment, c'est que l'humanité devienne complètement connant.

Souvenez-vous quand Chad GPT a débarqué, on a assisté à un clivage assez violent entre les ravis de la tech et les sceptiques. Est-ce que Chat GBT nous

sceptiques. Est-ce que Chat GBT nous rend idiot ? L'utilisation de

rend idiot ? L'utilisation de l'intelligence artificielle générative aurait pour conséquence de nous ramollir le ciboulour ?

Est-ce qu'on voit nos enfants qui dans 2 3 ans vont nous dire "Papa, maman, pourquoi je vais à l'école moi ? Si des

systèmes sur un simple instruction de ma part va produire du texte. Pourquoi

j'apprends la grammaire ? Pourquoi

j'apprends l'orthographe ? Toutes ces

questions, je les ai pas posées.

Pourquoi ? Parce que tout le monde a prêché que par utilitarisme pratique.

On ne pourra pas travailler sans Lia dans le futur. Le problème, c'est de faire mieux avec Lia que sans Lia. C'est

ça le sujet, d'interdire l'IA qu'on dirait nos enfants directement au chômage de longue durée parce que sans IA, on ne pourra pas être compétitif.

Les enthousiastes nous ont annoncé un tueur de chatbot aux possibilités infinies et la fin du travail c'était un peu prématuré mais dans le camp des sceptiques, les réactions étaient

peut-être encore plus excessives. Pour

les sceptiques, Chat GPT n'était qu'un gadget qui mentait et hallucinait tout le temps. Un joli joujou mais clairement

le temps. Un joli joujou mais clairement pas une révolution et encore moins une raison de s'inquiéter. Et c'est vrai que j'ai pété 3.5, le premier modèle auquel le grand public a eu accès. Il y avait

beaucoup de problèmes. Son entraînement

s'arrêtait à juin 2021, ce qu'il rendait incapable de répondre à des questions d'actualité. Il ne sourçait jamais ses

d'actualité. Il ne sourçait jamais ses réponses, donc impossible de vérifier leur véracité sans passer par une recherche Google. Et pire, il était un

recherche Google. Et pire, il était un peu schizophrène. Tantôt, il changeait

peu schizophrène. Tantôt, il changeait d'avis comme de chemise pour vous faire plaisir. Tantôt, il était incapable de

plaisir. Tantôt, il était incapable de reconnaître ses erreurs quand vous lui faisiez la remarquer. Donc tout ça a donné un outil avec de grosses limitations. Mais ça n'a pas empêché

limitations. Mais ça n'a pas empêché deux catégories de personnes de se jeter sur chat GPT. La première catégorie que je connais bien, ce sont les développeurs, que ce soi les étudiants

ou les hobbyistes. La perspective d'un chatbot capable d'écrire non pas quelques lignes, mais un script complexe en intégralité, c'était comme un paquet de bonbons pour un enfant le soir

d'Halloween. Ça donnait des expériences

d'Halloween. Ça donnait des expériences amusantes et du code foireux, mais c'était loin d'annoncer ce qui allait arriver plus tard. La deuxième

catégorie, ce sont les lycéens et les étudiants de tous horizons. Eux, ils

vont pas demander à GPT de leur écrire du code. Ils vont lui faire faire leur

du code. Ils vont lui faire faire leur devoirs évidemment et même l'inviter aux examens. C'est le début d'une vague

examens. C'est le début d'une vague d'Autriche qui va retourner le bateau de l'éducation nationale.

Une vague nous a submergé. Ils ont

utilisé Lia. Nous, on l'avait même pas encore utilisé. Je savais même pas

encore utilisé. Je savais même pas comment ça marchait. Si on prend le premier cas intéressant de Triche assisté par GPT en France, il remonte à janvier 2023, à peine 6 semaines après

sa mise en ligne et c'est Stéphane Bonvolet qui en a fait les frais.

Stéphane, il est spécialiste du handicap et dans le cadre d'un master, il donne à ses élèves un devoir maison. Sauf que

quand il corrige les copies, il remarque que la moitié d'entre elles sont étrangement ressemblantes. Même

étrangement ressemblantes. Même structure, même nombre de mots et elles finissent toutes par une anecdote personnelle. Apparemment, tous les

personnelle. Apparemment, tous les élèves ont à un grand-parent handicapé.

Et le plus bizarre, c'est que les copies contiennent beaucoup moins de fautes d'orthographe que d'habitude. En fait,

Stéphane est le premier prof confronté à ce qui est maintenant omniprésent. Ce

style étrange, à la fois génial et sans âme, ce texte que la moitié de la classe n'a pas vraiment écrit, ce qu'on pourrait appeler le vomi de chat GPT. Ça

peut faire sourire mais depuis ce premier cas, la triche a pris une tournure incontrôlable notamment parce que les étudiants ont appris des technique de Suu pour ne pas se faire repérer. Par exemple, demander à GPT de

repérer. Par exemple, demander à GPT de rajouter des fautes d'orthographe dans leur texte pour le rendre plus humain.

Mais surtout parce que depuis GPT 3.5 et son incapacité à faire de la philosophie, il y a eu un paquet d'itération chez Open AI et chez ses concurrents. En seulement quelques mois,

concurrents. En seulement quelques mois, les LLM sont devenus capables de prouesses qui hier encore relevait de la science-fiction. Donc oubliez

science-fiction. Donc oubliez l'assistant enfermé dans ses poids obsolètes. Maintenant, tous les modèles

obsolètes. Maintenant, tous les modèles majeurs ont accès au web pour faire des recherches en temps réel. Oubliez les

modèles aveugles, incapables de lire un graphique. La norme, c'est le

graphique. La norme, c'est le multimodal. Géini peut traiter des

multimodal. Géini peut traiter des images de l'audio, déchiffrer votre écriture manuscrite en patte de mouche et il peut même analyser tous les mouvements suspect dans des heures de

vidéosurveillance. Mais surtout oubliez

vidéosurveillance. Mais surtout oubliez le LLM amnésique qui perd le fil de la conversation au bout du 5e prompt. La

grosse révolution c'est les modes de prch. Par exemple, Gemini 3 peut digérer

prch. Par exemple, Gemini 3 peut digérer 1500 pages de documents pour vous faire un rapport digne de Mininz. Et la suite sur le gâteau, c'est que si vous lui demandez une synthèse audio des

recherches, il vous crée un podcast de 20 minutes avec non pas un mais deux animateurs qui discutent des résultats.

Bref, ignorer la révolution en cours, c'est juste se mettre des œillères de la taille d'une feuille à 4. Et en vrai, les sceptiques, ils commencent à se faire rare. D'après les estimations, en

faire rare. D'après les estimations, en 2025, 80 % des lycéens français utilisent un LM, une adoption massive qui a notamment signer la mort des

devoirs maison. La majorité des

devoirs maison. La majorité des enseignants refusent désormais de les noter et certains ont carrément arrêté d'en donner. Et leur argument, c'est que

d'en donner. Et leur argument, c'est que ils savent plus s'ils sont en train d'évaluer le travail des élèves ou de chat GPT. Donc aucun intérêt. Alors

chat GPT. Donc aucun intérêt. Alors

après tout, est-ce que c'est si grave d'utiliser une sorte de super moteur de recherche pour faire ses devoirs ? Pour

pouvoir trancher si l'invasion de Lia dans les écoles est une bonne ou une mauvaise nouvelle, il faut qu'on explore ce qui se passe dans notre cerveau quand on apprend. Et au passage, ça nous

on apprend. Et au passage, ça nous permettra peut-être de comprendre à quoi sert vraiment un prof.

Si vous voulez apprendre le japonais, il va falloir étudier le vocabulaire, les règles de grammaire et au moins deux alphabets syllabiques. Si vous faites

alphabets syllabiques. Si vous faites japonais LV3 au lycée, toutes ces infos, c'est le prof qui va vous les donner.

Mais vous pouvez aussi acheter une méthode ou investir dans des cours en ligne. Il y a d'ailleurs une dernière

ligne. Il y a d'ailleurs une dernière option qui est de partir directement au Japon. Et pour préparer au mieux votre

Japon. Et pour préparer au mieux votre voyage, je vous conseille de regarder du côté du Bigy qui est le partenaire de cette vidéo. C'est une boîte française

cette vidéo. C'est une boîte française qui propose des forfaits data iim dans plus de 200 destinations et vous fera économiser jusqu'à 90 % sur les frais d'itinérance. Les SIM s'active

d'itinérance. Les SIM s'active automatiquement à l'arrivée euh que vous sortiez de l'avion ou dès que vous passez la frontière en train et ça fonctionne en parallèle de votre SIM pour garder WhatsApp ou signal. Truc

sympa, c'est que ce sont les seuls qui vous permettent de recharger alors même que vous n'avez plus aucune donnée restante. Je vous mets le lien et un

restante. Je vous mets le lien et un code en description pour avoir 10 % de réduction pour vos prochaines vacances.

Merci à Ubigi de soutenir notre travail et on reprend.

En fait, que vous ayez un prof au Japon ou ici, cette collecte d'information, c'est la première étape de l'apprentissage. La théorie, c'est la

l'apprentissage. La théorie, c'est la phase où notre cerveau encode l'information. Et contrairement à ce

l'information. Et contrairement à ce qu'on pourrait croire, c'est assez simple à comprendre. Le cerveau, c'est un immense réseau électrique. Dans ce

réseau, deux zones travaillent ensemble quand vous apprenez. Le cortex

préfrontal, c'est un peu votre mémoire vive. Il gère la concentration et le

vive. Il gère la concentration et le raisonnement. Et l'hippocamp, c'est lui

raisonnement. Et l'hippocamp, c'est lui qui encode les nouvelles informations.

Si votre cerveau est un disque dur, l'hippocamp, c'est la tête d'écriture.

Quand vous apprenez quelque chose de nouveau, ces deux zones s'activent intensément. Des signaux électriques

intensément. Des signaux électriques circulent, des connexions se créent.

Votre cerveau est littéralement en train de se recabler. Et c'est là qu'intervient la deuxième étape, la pratique. Remplir un texte à trou,

pratique. Remplir un texte à trou, traduire une liste de mots, restituer des caractères. Tout ça force le cerveau

des caractères. Tout ça force le cerveau à aller rechercher l'information qu'il a stocké. Et c'est là qu'un nouvel acteur

stocké. Et c'est là qu'un nouvel acteur entre en jeu, les ganglions de la base.

Alors, leur rôle, c'est de transformer l'effort conscient en automatisme. Plus

vous répétez, plus ils prennent le relais jusqu'à un moment où ça devient naturel. Après 3 ans de japonais, vous

naturel. Après 3 ans de japonais, vous avez plus besoin de réfléchir pour tracer un caractère. Les ganglions de la base gèrent ça en pilote automatique. On

pourrait se dire que ces deux étapes suffisent. des cours théoriques suivis

suffisent. des cours théoriques suivis d'une mise en pratique. Mais qu'est-ce

qui se passe si on se trompe pendant les exercices ? Est-ce qu'on serait pas en

exercices ? Est-ce qu'on serait pas en train d'encoder la mauvaise information ? C'est pour ça qu'en réalité, pour

? C'est pour ça qu'en réalité, pour apprendre efficacement, il nous faut une troisième étape, la métacognition.

La métacognition, c'est la pensée qu'on est capable d'avoir sur notre propre pensée. Quand on ouvre le corriger d'un

pensée. Quand on ouvre le corriger d'un exercice, nos neurones dopamineergique libèrent plus ou moins de dopamine selon que la réponse est correcte ou fausse.

C'est ce qu'on appelle le signal d'erreur de prédiction. Une sorte de carotte qui pousse le cerveau à s'adapter pour conserver les comportements satisfaisants et supprimer

les autres. Autrement dit, mettre à jour

les autres. Autrement dit, mettre à jour ses connaissances et sa méthodologie. Et

c'est fondamental pour que les ganglions de la base sachent quelle connexion renforcer et quelle connexion supprimée.

Et c'est là qu'on voit que un prof à l'ancienne, il intervient à chacune de ces trois étapes. D'abord, il enseigne la théorie pendant les cours. Ensuite,

il force les élèves à mettre en pratique les enseignements avec des devoirs et ils accompagnent leur métacognition en corrigeant les devoirs et en leur expliquant leurs erreurs. Et là, vous

commencez peut-être à avoir un mauvais pressentiment. Les étudiants perçoivent

pressentiment. Les étudiants perçoivent l'étape de la pratique comme une corvée, d'où le recours massif à Alia. Alors,

est-ce que c'est vraiment anodin de court-circuiter une étape ? Quand un

élève utilise CH GPT pour rédiger sa copie, de fait, il est quasiment systématiquement incapable de donner la définition des mots qu'il emploie.

Ça peut donner au lycée des 15 assez facilement. Les cours de langues, ça

facilement. Les cours de langues, ça peut donner des 20.

Ça fait gagner plusieurs heures en fait comme ça. Moi je peux pas faire autre

comme ça. Moi je peux pas faire autre chose en attendant. Là par exemple, j'ai eu 17 et demi sur 20 et le prof m'a dit que mon travail était très complet et des cris et assez sérieux. Sans que ça pété, not aura été divisé par de

et ce qui est intéressant c'est que ça n'est pas uniquement un phénomène scolaire. Du côté des développeurs, on

scolaire. Du côté des développeurs, on commence à voir des managers s'alarm parce que les développeurs juniors ne seraient plus codés. Voà en fait c'est

un peu plus subtile que ça et je l'ai moi-même vécu avec Antoine qui est rentré à la MCORP en tant que stagiaire.

Antoine, il est ingénieur en project management mais contrairement à ce que le titre d'ingénieur peut laisser croire, il y a pas de formation approfondie en développement. Donc après

ses études, il a décidé d'apprendre à coder en autodidacte. Il a commencé par des projets simples comme créer des sites internet et après ses premiers projets, il s'est même lancé en

freelance. Quand Lia est arrivé, ça a

freelance. Quand Lia est arrivé, ça a été le début d'une belle histoire d'amour. Lia lui a donné la confiance de

d'amour. Lia lui a donné la confiance de tenter des projets encore plus ambitieux. Et assez logiquement, en

ambitieux. Et assez logiquement, en prenant des projets de plus en plus complexes, Antoine a donc gagné en compétence.

Bah par exemple, tu vois si sur un projet on me demande de faire une page de paiement et que moi j'ai jamais fait de page de paiement, je sais que avant de prendre le projet, je peux demander à chat GPT où est-ce que ça va m'emmener,

quelle technologie faudra utiliser à peu près, c'est quoi le le dessous de l'iceberg ? Et je sais que même une fois

l'iceberg ? Et je sais que même une fois le projet pris, bah j'auraiis cette aide à côté pour m'aiguiller et me guider dans les trucs un peu tricky. Sauf que

quand je lui ai confié le développement d'un outil web qui impliquait d'utiliser à la fois View et Next, on a eu un petit problème. Antoine s'est retrouvé avec

problème. Antoine s'est retrouvé avec une quarantaine de fichiers dont 90 % étaient écrits par Lia. Lui, il faisait des allers-retours entre l'interface web

et l'éditeur de code à la manière d'un chef d'orchestre. Bla bla bla. Je code,

chef d'orchestre. Bla bla bla. Je code,

je code. Et donc je dis à ben ce boutonlà ça me va pas. J'aimerais que tu le déplaces de l'autre côté et que il soit en bleu euh quand je passe ma souris dessus. Ces données là,

souris dessus. Ces données là, j'aimerais que tu les traites différemment et que tu les affiches de telle manière ou que tu déclenches ça quand telle action est réalisée jusqu'à ce que et ben tout rentre dans le cahier

des charges dans l'objectif qu'on s'est donné. Mais plus je demandais à Antoine

donné. Mais plus je demandais à Antoine de rajouter des fonctionnalités, plus ça devenait difficile pour lui jusqu'à un point où il s'est retrouvé à noyer sous

une montagne de code illisible du code généré par Ria. Impossible à débugger parce que beaucoup trop verbeux. On

s'est retrouvé en réunion et pour diagnostiquer le problème, j'ai commencé à poser des questions. Donc j'avance

dans le projet, tout se passe bien jusqu'à ce qu'on arrive à un problème que Lia n'arrive pas à résoudre.

Je dis recommence, essaye une autre méthode, il y a rien à faire, on est dans une impasse. Et donc quand on est coincé comme ça, qu'est-ce qu'on fait ?

On demande à Michaël. Michaell commence

à me poser des questions sur le projet et bon, on se rend compte que c'est très flou dans ma tête. J'ai pas compris les bases derrière le problème, les

fondamentaux du truc. Cette mésaventure,

évidemment absolument pas grave avec Antoine semble confirmer ce qu'on soupçonne depuis le début. Lia permet

d'obtenir des résultats mais sans apprendre et pire sans comprendre ce qu'on produit. Et ce serait pas la

qu'on produit. Et ce serait pas la première fois que un outil numérique a des effets de bord cachés. Quand on y pense, le GPS en temps normal, quand vous découvrez un nouvel endroit,

l'hippocampe s'active pour cartographier les lieux. Il active un réseau de

les lieux. Il active un réseau de neurones pour mémoriser chaque point de repère. C'est pour ça que les taxis

repère. C'est pour ça que les taxis londoniens qui doivent connaître 25000 noms de rue par cœur ont un hippocamp hypertrophié par rapport au reste de la

population. Mais utiliser un GPS

population. Mais utiliser un GPS dispense l'hppocamp de travailler. Pas

d'activation neuronale, pas de remémoration le soir, bref, pas de carte mentale. C'est ce qu'on appelle le

mentale. C'est ce qu'on appelle le Google Effect. Avec internet, il y a

Google Effect. Avec internet, il y a plus besoin de connaître par cœur les dates de vie et de mort de l'Empire romain. Il suffit d'ouvrir une page

romain. Il suffit d'ouvrir une page Wikipédia pour le vérifier. En gros,

avant Internet, l'hippocom devait activer et renforcer un réseau de neurones différent pour encoder chaque information. Alors qu'aujourd'hui, il

information. Alors qu'aujourd'hui, il active un unique réseau qui mémorise Google et mon ami. Résultat, le jour où votre box tombe en pan, vous découvrez

que vous êtes devenu un poisson rouge.

Alors après tout, est-ce que c'est si grave ? dans les faits. Une coupure de

grave ? dans les faits. Une coupure de réseau, c'est rare, ça dure pas très longtemps. Sauf que le Google Effect a

longtemps. Sauf que le Google Effect a un deuxième effet pervers parce que les infos qu'on stock dans notre mémoire organique, elles servent de matière première. Chaque fois qu'on réfléchit,

première. Chaque fois qu'on réfléchit, le cortex préfrontal sollicite l'hippocampe à la manière d'un bibliothécaire qui cherche une sélection de bouquins dans une immense bibliothèque. Il navigue dans les

bibliothèque. Il navigue dans les souvenirs stockés dans le cerveau et une fois qu'il les a trouvé, il renvoie des paquets d'informations au cortex préfrontal. Mais plus on sous-traite

préfrontal. Mais plus on sous-traite notre mémoire à Google, moins il y a d'infos stocké dans la bibliothèque et moins l'hippocamp peut fournir de matière première à notre cortex

préfrontal pour penser. En bref, c'est quand même bien de savoir des trucs.

Donc si on admet que l'IA est aussi utilisé comme cerveau auxiliaire par des étudiants, des lycéens et même des collégiens, on a déjà une intuition que leur cerveau est en train de subir une

sorte de Google effect. Mais puissance

1000.

Enfin, ça reste une hypothèse. Après

tout, c'est débattable. Est-ce qu'on est en capacité de le prouver ? Et ben, des gens se sont posés la question et ont réalisé une expérience. En juin 2025, le

MIT publie une étude intitulée votre cerveau sur chat GPT, l'accumulation de la dette cognitive quand on utilise LIA pour écrire ses devoirs. En apparence,

l'expérience est simple. Les chercheurs

ont recruté 54 cobailles entre 18 et 39 ans. Ils les répartissent en trois

ans. Ils les répartissent en trois groupes de 18 personnes chacun et il demande à chaque groupe d'écrire un essai sur le sujet de son choix. Ce qui

différencie les groupes, ce sont leurs contraintes. Le premier est obligé

contraintes. Le premier est obligé d'utiliser GPT4O sans aucune autre alternative, pas même Google. Le

deuxième a accès à Internet pour utiliser n'importe quelle ressource mais surtout pas de LLM. Et le troisième, lui n'a droit à rien, uniquement un logiciel

de traitement de texte. C'est le groupe Brain Only. Chaque groupe fait trois

Brain Only. Chaque groupe fait trois sessions d'écriture espacé d'un mois. Et

à chaque session, les chercheurs mesurent l'activité cérébrale des participants par électroencéphalographie.

Et évidemment, les participants avec le cerveau le moins actif, c'était les utilisateurs de GPT4. Ensuite vient le groupe avec internet tandis que le

groupe Brain Only avait l'activité cérébrale la plus intense. Les auteurs

de l'étude parlent de dette cognitive pour les participants qui ont été assistés par les dev qui m'écoutent. Ça

ressemble au concept de dette technique.

Cette fâcheuse habitude qu'on a de résoudre un problème immédiat avec une méthode qui va déclencher une avalanche d'emmerde plus tard. En tout cas, cette étude semble confirmer nos intuitions

les plus sombres. Les gains apparents sur les performances de Lia cachent potentiellement d'énormes lacunes et

nous allons tous devenir débile.

À moins que et parce que là à ce stade, il y a une piste que on n'a pas encore exploré parce que les lycéens étudiants ou développeurs junior ont un truc en commun, c'est qu'ils ont pas eu

l'opportunité de terminer leur apprentissage sans IA. Alors, qu'est-ce

qui se passerait si on confiait cet outil à une personne expérimentée ? Et

ben là encore, j'ai trouvé ou plutôt Perplexity à trouver une enquête étrange. 791 développeurs ont été

étrange. 791 développeurs ont été interrogés sur leur manière d'utiliser LIA. D'un côté, des débutants qui ont

LIA. D'un côté, des débutants qui ont moins de 2 ans d'expérience et de l'autre des seniors avec plus de 10 ans de pratique dans les pattes. Et ce que cette enquête révèle est complètement

contreintuitif.

Ce sont les seiors qui utilisent le plus le code généré par Ria dans leur projet.

Par contre, il passe beaucoup plus de temps que les juniors à vérifier en détail le code généré par les assistants. Il l'inspectent, il le débug

assistants. Il l'inspectent, il le débug et ainsi il se le réapproprie. En fait,

les juniors se reposent sur l'IA comme une béquille alors que les seigneurs utilisent LIA comme une équipe de juniors qui serait à leur service.

Est-ce que vous voyez la nuance ? par

exemple avec Antoine. Un peu plus tôt, je vous ai raconté comment il donnait des directives à son assistant IA à la façon d'un chef d'orchestre qui dirige ses musiciens à la baguette. Sauf que le

développement, ça n'est pas comme la direction d'orchestre, c'est plutôt comme la cuisine. Dans un grand restaurant, le chef étoilé est toujours entouré d'une équipe de cuisiniers très

hiérarchisé qu'on appelle une brigade.

Tout en bas de la hiérarchie, il y a le comis de cuisine qui en fait ne cuisine pas. Il épluche les patates ou il

pas. Il épluche les patates ou il nettoie le plan de travail. Au-dessus,

il y a le chef de partie qui ressemble un peu plus à l'idée qu'on se fait de cuisiner. Il maîtrise la cuisson des

cuisiner. Il maîtrise la cuisson des aliments, dresse les plats et dirige ses comis d'une main de fer. Par contre, il est spécialisé par exemple dans les sauces ou les viandes. Vient ensuite le

sous-chef ou seconde cuisine plus c'est le bras droit du chef étoilé. Il corrige

les assaisonnements, il coordonne les différents chefs de parti et il s'occupe de la gestion des stocks. Dans ce

contexte très codifié, tout cuisinier qui espère devenir un grand chef étoilé doit commencer sa carrière en bas de l'échelle. D'abord comis, puis chef de

l'échelle. D'abord comis, puis chef de partie et ainsi de suite. Et ben les outils de développement I comme curseur, copilote et autres claud code, ils sont un peu comme des comis et des chefs de

partie. Allez, ils ont des vraies

partie. Allez, ils ont des vraies compétences mais plus la tâche est complexe, plus il faut quelqu'un pour les encadrer. On peut dire que coder une

les encadrer. On peut dire que coder une page web, c'est comme éplucher les patates. Produire un site e-commerce de

patates. Produire un site e-commerce de quelques pages avec un panier et un bouton d'achat, c'est comme préparer une viande à la bonne cuisson avec la petite sauce qui va bien et développer une appli qui doit gérer des millions

d'utilisateurs en même temps. Ça revient

à diriger une brigade de 90 personnes pendant le coup de feu. Et ça pour l'instant Lia en est très loin et tant mieux. Mais quand Antoine a dû

mieux. Mais quand Antoine a dû développer l'outil web que je lui avais demandé, il s'est retrouver à encadrer une brigade de cuisiniers IA sans être préalablement passé par tous les grades.

Là où un développeur seignore, c'est qu'il est comme le chef étoilé. Il est

passé par tous les postes de la brigade et si vous lui mettez un flingue sur la tepe, il peut émincer les oignons à toute vitesse, c'est-à-dire pisser du code et s'ilia lui livre un code

catastrophique, il va le voir, il va le corriger. C'est cette polyvalence et

corriger. C'est cette polyvalence et cette vision à grande échelle qui manque au junior mais qui permet au senior de se lâcher sur le code généré paria. Les

dev senior finalement, ils ont respecté le cycle d'apprentissage, théorie, pratique, métacognition. Et c'est parce

pratique, métacognition. Et c'est parce que leurs connaissances sont profondément ancrées que Lia démultiplie leurs compétences au lieu de les atrophier. Mais du coup, comment on fait

atrophier. Mais du coup, comment on fait pour que les juniors maîtrisent les fondamentaux du code, que les collégiens apprennent leur table des éléments et que les lycéens arrêtent de sous-traiter

leur discertes de philo à Chat GPT ? Et

ben, on combat le feu par le feu.

Puisque Lia est omniprésente, autant faire d'elle votre tuteur particulier.

Attention, il s'agit surtout pas de lui demander des réponses toutes prêtes. Ça

reviendrait à utiliser l'IA pour du délestage cognitif et c'est précisément ce qu'on cherche à éviter. Alors, pour

que votre LM préféré passe en mode tuteur, il faut lui expliquer tout ça, lui dire que votre but c'est d'apprendre une compétence et qu'il doit vous concocter une série d'exercices sans

vous donner de suite les réponses. On a

qu'à faire le test justement. Je sais

pas vous, mais ça fait très longtemps que j'ai pas fait une division de tête, pas un truc évident genre 50/ 2 mais 874/ 26. Et ben si on donne ce prompt à chat

26. Et ben si on donne ce prompt à chat GPT, je veux faire un exercice simple et utiliser Lia comme un mentor blab blabla, donne-moi un exercice. C'est

très intéressant car GPT s'exécute et me demande de calculer 874 par 26 mais ne peut pas s'empêcher de donner des indices. On dirait que tel quel ces sont

indices. On dirait que tel quel ces sont très orientés vers le délestage cognitif. Et c'est pas étonnant quand on

cognitif. Et c'est pas étonnant quand on sait qu'elles sont optimisées pour minimiser l'effort humain. Mais en le forçant un peu avec des instructions, ça finit par marcher. Rien de plus. À toi

de jouer. Ça peut vous paraître un peu gadget d'utiliser chat GPT pour faire des exercices de math niveau CM1, sauf que vous pouvez utiliser cette méthode pour des tâches beaucoup plus ambitieuses. Quand on y pense, c'est une

ambitieuses. Quand on y pense, c'est une opportunité inédite dans l'histoire de l'humanité. Pendant des siècles, avoir

l'humanité. Pendant des siècles, avoir un professeur particulier était un luxe.

Mais aujourd'hui, avec les bons promptes, vous pouvez transformer votre LLM préféré en précepteur comme si vous étiez un aristocrate italien à la Renaissance. Alors oui, vous allez pas

Renaissance. Alors oui, vous allez pas pouvoir apprendre l'escalade ou le Kite surf avec Chat GPT, mais pour toutes les compétences qui reposent sur du texte, des calculs ou du code, c'est

révolutionnaire. Le sujet qui fâche,

révolutionnaire. Le sujet qui fâche, c'est la question de la fiabilité des IA. On a vu que leur principal problème

IA. On a vu que leur principal problème c'était leurs hallucinations. Pour des

raisons structurelles, c'est assez peu probable qu'elles disparaissent totalement. Mais rien que chez Open AI,

totalement. Mais rien que chez Open AI, le taux d'hallucination a été divisé par 8. Pour une recherche sur un sujet

8. Pour une recherche sur un sujet médical, on est passé de 40 % d'hallucination chez GPT 3.5 à 5 % sur GPT5. Et puis la présence

GPT5. Et puis la présence d'hallucination, c'est peut-être pas si grave. À partir du moment où les gens le

grave. À partir du moment où les gens le savent, ça les oblige à utiliser leur esprit critique. Malgré ce potentiel

esprit critique. Malgré ce potentiel révolutionnaire, il y a encore beaucoup de profs qui sont opposés à la généralisation des tuteurs IA. Alors,

est-ce que cette méfiance est vraiment rationnelle ? Du côté de la recherche,

rationnelle ? Du côté de la recherche, on commence à avir des données fascinantes sur l'effet de ces tuteurs.

Des chercheurs d'Hvard ont notamment utilisé GPT4 pour concevoir un assistant spécialisé dans l'enseignement de la physique PS2 PAL. Et ces directives incluent le fait de favoriser

l'engagement actif des élèves, de s'adapter à leur charge cognitive et de promouvoir un growth mindset, c'est-à-dire la mentalité de croissance.

Alors, la mentalité de croissance, c'est le fait de ne pas avoir une conception figée de soi-même et de ses compétences.

Souvent, un élève qui se sent pas à l'aise avec une matière développe la croyance qu'il est pas doué dans cette matière et qu'il peut rien y faire.

C'est ce qu'on appelle le fixed mindset, une vision figée de soi-même, délétaire pour l'apprentissage. La mentalité de

pour l'apprentissage. La mentalité de croissance, au contraire, c'est la certitude qu'on peut progresser malgré les difficultés initiales qu'on rencontre. Favoriser l'engagement des

rencontre. Favoriser l'engagement des élèves, s'adapter à leur charge mentale ou favoriser la mentalité de croissance, c'est que des trucs qu'un prof humain peut faire. Mais là où l'humain atteint

peut faire. Mais là où l'humain atteint sa limite, c'est sur la personnalisation. Un enseignant doit

personnalisation. Un enseignant doit jongler avec tout un groupe et imposer un rythme unique à sa classe alors que PS2 PAL peut adapter son rythme à chaque

élève. Alors que montrent les résultats

élève. Alors que montrent les résultats de l'étude ? Et bien ils sont

de l'étude ? Et bien ils sont spectaculaires. Les élèves qui ont

spectaculaires. Les élèves qui ont bénéficié de pièes de PAL ont fait plus de progrès plus rapidement et ils étaient plus concentré pendant les cours. En fait, les seules dimensions où

cours. En fait, les seules dimensions où Lia est execo avec l'enseignement humain, c'est sur la confiance en soi des élèves et sur le plaisir ressenti pendant les leçons. On a donc un tuteur

IA qui fait aussi bien que les profs voie mieux, tout en ayant l'avantage de pouvoir gérer un nombre d'élèves illimités. Ça ressemble au singral de

illimités. Ça ressemble au singral de l'enseignement. Pourtant, ça n'est pas

l'enseignement. Pourtant, ça n'est pas ce que disent les créateurs de PS2 PAL.

En fait, si cette étude a d'aussi bons résultats, c'est grâce à son protocole.

Le modèle est entraîné exprès pour enseigner la mécanique des fluides avec des promptes complexes rédigées par des profs de physique. Donc même quand les étudiants sont en tête à tête avec le

tutoria, il y a un cadre qui est posé en amont avec une véritable progression pédagogique. Mais dans les autres

pédagogique. Mais dans les autres études, quand on laisse les élèves apprendre la physique avec un GPT classique sans préparation ni encadrement, ils mettent

systématiquement leur cortex préfrontal sur pause. Il copicolent les énoncés, ne

sur pause. Il copicolent les énoncés, ne vérifient pas les réponses et au final apprennent moins bien qu'avec les enseignants humains. C'est ça en fait la

enseignants humains. C'est ça en fait la plus grosse limite des tuteurs IA. Les

utiliser de façon efficace demande de la volonté, ce qui n'est pas le cas du prof qui impose son autorité aux élèves tel un proxy de l'autodiscipline. Alors que

l'IA, vous pouvez très facilement la manipuler. Si celle de votre école est

manipuler. Si celle de votre école est bridée, vous n'êtes qu'à un nouvel onglet d'en avoir une autre. Et surtout

la vraie raison n'est pas technique mais sociale. Contrairement à votre mentor ou

sociale. Contrairement à votre mentor ou votre prof, vous ne vous sentirez jamais redevable devant elle. Ça crée un paradoxe catastrophique parce que sur le papier, les LLM sont des outils

parfaitement égalitaires. Que vous soyez

parfaitement égalitaires. Que vous soyez le petitfils de Bernard Arnaud ou la fille d'un immigré ukrainien qui vient d'arriver en France, si vous avez un smartphone, vous avez accès à une IIA.

Sauf que vous aurez constamment deux chemins. Celui de la béquille qui tend

chemins. Celui de la béquille qui tend vers la lobotomie du cerveau et celui du tuteur qui chaque jour vous rendra un peu meilleur. Le futur risque donc

peu meilleur. Le futur risque donc d'être extrêmement inégalitaire. D'un

côté, ceux qui connaissent l'impact de l'IA sur le cerveau et prennent la décision de sacrifier l'efficacité pour privilégier leur propre apprentissage et

de l'autre ce qui cède aux sirènes de la gratification immédiate mais accumulent les lacunes jusqu'à devenir complètement lobotomisé. Et ça vaut aussi pour les

lobotomisé. Et ça vaut aussi pour les entreprises d'ailleurs celles qui vont privilégier le rendement immédiat au détriment du cerveau de leurs employés et celles qui auront une vision long

terme. C'est entant de penser qu'on fera

terme. C'est entant de penser qu'on fera partie des élus. Mais le problème c'est que on est très peu à avoir de la volonté. Il suffit de comparer le nombre

volonté. Il suffit de comparer le nombre de gens qui prennent l'ascenseur avec ceux qui se forcent à prendre les escaliers. La team escalier est plutôt

escaliers. La team escalier est plutôt minoritaire et c'est normal parce que la paresse ça n'est pas un bug, c'est une fonctionnalité. Des centaines de

fonctionnalité. Des centaines de milliers d'années d'évolution ont optimisé notre cerveau pour qu'il soit éconôme. C'est pour ça qu'il prend des

éconôme. C'est pour ça qu'il prend des raccourcis dès que possible parce que réfléchir ça consomme de l'oxygène et du glucose. Le truc c'est que avec Lia

glucose. Le truc c'est que avec Lia cette paresse peut prendre une courbe vertigineuse. On parle plus de stocker

vertigineuse. On parle plus de stocker de l'info dans des pages Wikipédia, de troquer notre sens de l'orientation pour un GPS ou déléguer des calculs à des fichiers Excel. Là, on peut sous-traiter

fichiers Excel. Là, on peut sous-traiter le moindre processus mental un peu exigeant parce que c'est notre nature profonde de chercher la facilité. Alors,

si on doit lutter contre notre tendance ancestrale à l'apparesse, il faut peut-être chercher la solution dans des vieilles recettes de grand-mère. À

l'école, on dispose déjà d'un système pour forcer les apprenants à faire des efforts. Ça s'appelle les devoirs sur

efforts. Ça s'appelle les devoirs sur table. Attention, les devoirs à

table. Attention, les devoirs à l'ancienne avec juste papier et stylo.

Et un exemple de son utilité, c'est ce qui s'est passé pour le concours de médecine belge de 2025. En Belgique

Flamande, il s'est déroulé pour la première fois sur ordinateur. Résultat,

le taux de réussite au concours est étrangement passé de 19 % en 2024 à 47 %. Potentiellement des milliers

%. Potentiellement des milliers d'apprentis médecins qui ont fraudé.

Mais en walloni, ils n'ont pas eu ce problème parce que le concours se déroule à l'ancienne sans support numérique. Alors, au risque de passer

numérique. Alors, au risque de passer pour un boomer, je suis persuadé que les examens avec papier et crayon, c'est en fait une solution d'avenir. C'est de la pure manipulation psychologique. Après

une journée de cours, vous avez zéro motivation pour faire vos exos. Mais si

je vous apprends que vous avez un devoir surveillé sans assistance dans 3 jours, ce futur potentiellement désagréable où vous avez un zéro pointé vous donne

instantanément la motivation nécessaire.

En tout cas sur moi, c'est ce qui marcherait. J'ai testé d'ailleurs une

marcherait. J'ai testé d'ailleurs une version radicale de cette solution avec Antoine. Pendant 3 mois, je lui ai

Antoine. Pendant 3 mois, je lui ai interdit d'utiliser le moindre LLM, une véritable cure de désintoxication qui a fait chuter sa productivité de façon

extrêmement frustrante. Au départ, tu

extrêmement frustrante. Au départ, tu souffles un peu du nez parce que perdre entre guillemets de tr semaines, c'est pas très satisfaisant. Surtout que les résultats pour moi, c'est super important. Je suis orienté résultat. Si

important. Je suis orienté résultat. Si

on reprend nos trois piliers de l'apprentissage, Antoine a été obligé de lire de la documentation avant de commencer à coder, autrement dit de se bouffer toute la théorie que Lia lui

avait jusque-là permis d'éviter.

Ensuite, il a dû coder lui-même, c'est-à-dire se confronter à la pratique au lieu de la sous-traiter à Lia. un

véritable exercice de remémoration qui lui a permis d'ancrer donc ses connaissances et cerise sur le gâteau.

Chaque fois qu'il était bloqué, il a dû retourner dans la doc et chercher les bugs ligne par ligne, ce qui est un vrai exercice de métacognition où chaque hypothèse faisait se trémousser ses

neurones d'opinergique. Après ces 3

neurones d'opinergique. Après ces 3 mois, on a réintroduit Lia petit à petit. Et non seulement Antoine était

petit. Et non seulement Antoine était monté en compétence, mais en plus il avait retrouver du plaisir à coder.

Quand tu commences à embarquer de lien un peu dans ton code, à lui faire écrire une partie du projet, bah quand tu reviens chez toi le soir, tu es plus tu as plus ce truc de j'ai

codé telle partie du site, j'ai codé telle fonctionnalité, j'ai créé ça parce que tu sais plus à quel point toi tu as créé a créé. Tu sais pas tu sais pas

quelle partie t'appartient encore. À la

limite, tu as presque juste managé une IA en en la recadrant de temps en temps.

Et finalement, qu'est-ce qui t'appartient encore dans le projet ? Tu

es devenu tu es devenu dépendant de l'outil. Il y a ce truc de quand c'est

l'outil. Il y a ce truc de quand c'est toi qui l'a fait, bah tu as un énorme plaisir à finalement assembler les pièces du puzzle que ton système il

tourne parfaitement comme tu l'as pensé et tu es super fier de l'avoir créé toi et tu as qu'une envie, c'est continuer à bosser dessus.

Alors oui, cette histoire de cure de désintoxe avec Antoine, ça peut sembler extrême mais en fait ça illustre quelque chose de plus profond.

Pendant des millénaires, l'humanité a progressé en se confrontant à la difficulté. C'est l'effort qui sculpte

difficulté. C'est l'effort qui sculpte le cerveau, pas le résultat. Et là, pour la première fois de notre histoire, on a un outil capable d'éliminer presque toute friction cognitive. On aurait pu

vous parler des autres menaces.

L'empreinte carbone des data center, le pillage de la propriété intellectuelle, la souveraineté numérique ou les métiers qui disparaissent. Tout ça est réel.

qui disparaissent. Tout ça est réel.

Mais on a choisi de se concentrer sur le cerveau parce que le cerveau, c'est la racine. Une société qui ne sait plus

racine. Une société qui ne sait plus former ses enfants à penser. Elle peut

avoir toutes les lois, tous les brevets et toutes les éoliennes du monde. Elle

s'effondre quand même. L'éducation,

c'est pas un secteur parmi d'autres.

C'est le socle. C'est là qu'on fabrique ceux qui vont hériter de tout le reste.

Donc non, Li ne va pas nous rendre stupide. On va se rendre stupide tout

stupide. On va se rendre stupide tout seul. Si on choisit systématiquement le

seul. Si on choisit systématiquement le chemin le plus court. La bonne nouvelle c'est que c'est un choix et comme tous les choix il se fait chaque jour à

chaque prompte. Utilisé l'IA comme une

chaque prompte. Utilisé l'IA comme une béquille ou comme un sperring partner.

Déléguer sa pensée ou l'aiguiser. Au

fond, la question n'a jamais été de savoir si Chat GPT était intelligent.

c'est de savoir si nous on veut encore le rester.

Loading...

Loading video analysis...