02 Jean-Gabriel Ganascia - Le chat GPT parle-t-il vraiment et doit-on lui donner sa langue ?
By CSEN - Conseil scientifique
Summary
Topics Covered
- Le mot « intelligence » a au moins quatre sens différents
- Les concepts d'il y a 60 ans sont toujours utilisés dans ChatGPT
- Les machines ne savent pas mordre le monde
- ChatGPT nuit à la mémorisation selon une étude du MIT
- Les gains de productivité de l'IA servent à supprimer des emplois
Full Transcript
Bien, je je suis Emmanuel Sander.
Bonjour à toutes et à tous et j'ai le plaisir d'accueillir Jean-Gabriel Gana qui nous fait l'honneur d'ouvrir cette conférence. Jean-Gabriel, c'est à vous.
conférence. Jean-Gabriel, c'est à vous.
Et d'abord, je suis très honoré de faire cette conférence d'ouverture sur l'intelligence artificielle dans le cadre de ce colloque sur l'utilisation
de l'IA en éducation. Et je vais essayer donc de commencer pour expliquer un peu ce qu'est l'intelligence artificielle et quelles sont les limites de l'intelligence artificiel. Est-ce que on
l'intelligence artificiel. Est-ce que on doit lorsqu'on est enseignant donner sa langue à l'intelligence artificielle au chat GPT he pour
enseigner ? Je ne crois pas. C'est ce
enseigner ? Je ne crois pas. C'est ce
que je vais essayer de vous expliquer.
Alors, tout d'abord euh donc rappelez hein, moi je suis enseignant d'informatique spécialiste d'intelligence artificielle. J'ai
d'intelligence artificielle. J'ai commencé il y a il y a très longtemps à travailler dans ce domaine ce qui veut dire que ça n'est pas une discipline
neuve que l'intelligence artificielle.
Et on va revenir dessus, ça a été déjà évoqué par Joel Prou. Euh donc
spécialiste d'intelligence radicielle et puis il se trouve que ces dernières années ayant une formation initiale de philosophe, je me suis inquiété des questions d'éthique lié au développement
du numérique et de l'intelligence artificielle. Et à ce titre, j'ai
artificielle. Et à ce titre, j'ai présidé différents comités d'éthique et entre autres, je préside un comité qui certainement correspond à des préoccupations qui sont les votes. C'est
le comité d'éthique de Docapost. Vous
savez que Docapost, c'est la filiale de la Poste qui a racheté Pronote et bien sûr qui joue un rôle important dans le
secteur de l'éducation. Et là, il y a des propositions faites par les enseignants qui me semblent quelquefois positives, quelquefois un tout petit peu inquiétantes et je pense ça doit demander réflexion hein. Je crois que
cette journée justement, elle doit vous engager, à vous poser des questions sur ce que l'on peut déléguer à l'intelligence artificielle. Quand
l'intelligence artificielle. Quand est-ce qu'il faut lui donner sa langue et quand est-ce qu'il ne faut surtout pas lui donner sa langue ? Hein ? Par
exemple, hein, il y avait des propositions pour faire des outils euh euh de remplissage de bulletins scolaires avec de l'intelligence artificielle, hein. Je pense que il faut
artificielle, hein. Je pense que il faut qu'en tant qu'enseignant, vous revendiquiez quand même un certain nombre de tâches qui sont les vôtres, même si c'est fastidieux, hein, mais il faut euh je crois euh euh se demander
qu'est-ce qu'on peut faire avec. Donc
voilà un peu le sens de cet exposé.
Alors, j'ai prévu euh cinq parties.
D'abord, qu'est-ce que c'est que l'intelligence artificielle et surtout qu'est-ce que c'est que l'intelligence de l'intelligence artificielle ? Alors
bon, las Joël Prost bien sûr ont beaucoup réfléchi à cette notion là, mais je crois qu'il importe de le rappeler. Et puis ensuite, je voudrais
rappeler. Et puis ensuite, je voudrais faire une double histoire, histoire ancienne de l'intelligence artificielle au 20e siècle et puis ensuite histoire au 21e parce que tout s'accélère hein et je vais très rapidement bien sûr euh
vous raconter tout cela. C'est une belle histoire. Je crois que ça doit faire
histoire. Je crois que ça doit faire partie de la culture de tous et en particulier des des enseignants. Et puis
ensuite bien sûr hein, on va se demander qu'est-ce que c'est que chap hein ?
Est-ce que il y a une parole dans ces machines hein ? Et bien sûr hein, hein,
machines hein ? Et bien sûr hein, hein, peut-on doit-on lui donner sa langue en tant qu'enseignant ? Donc première chose
tant qu'enseignant ? Donc première chose donc l'intelligence de l'intelligence artificielle. Il y a toujours un
artificielle. Il y a toujours un malentendu. On nous dit le terme
malentendu. On nous dit le terme intelligence artificielle est mal choisi parce que il induit en erreur en confusion. Et je vais essayer de vous
confusion. Et je vais essayer de vous expliquer que ça n'est pas le cas. Le
simple le seul problème c'est que le mot intelligence est éminemment polycémique.
Et il y a au moins quatre sens qui sont liés à ce mot intelligence. Le premier,
c'est l'esprit, hein, au sens euh euh traditionnel, hein, au sens euh religieux, hein. Est-ce que c'est ça
religieux, hein. Est-ce que c'est ça l'intelligence de l'intelligence racielle ? Non, hein, bien sûr, ce n'est
racielle ? Non, hein, bien sûr, ce n'est pas ça. Le deuxième, alors vous en tant
pas ça. Le deuxième, alors vous en tant qu'enseignant, bien sûr, vous y êtes euh plus sensible, c'est l'ensemble des facultés de compréhension, l'ingéniosité, hein. Quand on dit d'un
l'ingéniosité, hein. Quand on dit d'un élève qu'il est intelligent, ça veut dire qu'il est astucieux. Alors, est-ce
que lorsqu'on fabrique des machines avec des techniques d'intelligence artificielle, elles sont astucieuses ?
Pas obligatoirement. En dit, c'est pas de de ça dont il est question hein. Et
on va revenir le sur. Et puis il y a un troisème sens, il me semble important de le noter parce que souvent il y a des demi-savants qui nous disent "Ah, l'intelligence artificiel c'est une
mauvaise traduction de l'anglais hein parce que vous avez en anglais euh Central Intelligent Agency, hein, en américain ou en anglais intelligent service."
service." Et bien sûr, ça n'est pas le cas. Ça
n'est pas le cas même si c'est une discipline qui est née aux États-Unis, si elle s'est beaucoup développée au Royaume-Uni, mais ça n'est pas le cas.
Et pourquoi ça n'est pas le cas ? Et ben
pour deux raisons. D'abord parce que ce sens du terme intelligence existe en français. Vous avez des expressions
français. Vous avez des expressions comme lorsqu'on dit être en bonne intelligence ou crime d'intelligence avec l'ennemi. Vous voyez que ça veut
avec l'ennemi. Vous voyez que ça veut dire exactement la même chose. C'est une
forme de connivance de d'information.
Donc ça n'est pas ça. Et puis d'autre part il faut faire un peu de philologie de temps en temps et relire les textes.
Or he on va le voir tout à l'heure he lorsque on regarde quels ont été les projets des pionniers de l'intelligence artificielle. C'est pas du tout ça
artificielle. C'est pas du tout ça qu'ils ont voulu. En réalité, le terme intelligence, c'est un terme qui est qui a été introduit à la fin du 19e siècle par des philosophes qui ont voulu
naturaliser les problématiques philosophiques et entre autres les titres de l'esprit. Et donc à ce moment-là, on dit bah l'intelligence c'est quoi ? l'ensemble des facultés
c'est quoi ? l'ensemble des facultés mentales et vous avez en français un livre qui est très intéressant, un livre écrit par Hippolythè de l'intelligence, un gros livre en deux tomes, hein où il
se demande comment est-ce que les méthodes des sciences physiques, les méthodes expérimentales vont permettre de mieux comprendre ce que sont ces différentes facultés
mentales. Et bien sûr, ça donne une
mentales. Et bien sûr, ça donne une discipline scientifique qui va être la psychologie cognitive, pas la psychopathologie he mais l'étude de la mémoire, l'étude du raisonnement,
l'étude de la perception de façon empirique. Et c'est cette définition qui a été reprise par l'intelligence artificiale. Maintenant,
l'intelligence artificiale. Maintenant, je voudrais revenir sur l'intelligence artificielle elle-même puisque là, je vous ai parlé de l'intelligence de l'intelligence artificielle et on va voir comment on est passé de l'un à l'autre. Le projet, vous le savez tous,
l'autre. Le projet, vous le savez tous, c'est de fabriquer des machines qui sont en mesure de raisonner. Alors, est-ce
que ce projet est nouveau ? Non, hein,
il est ancien hein. Je vais pas rentrer dans dans le détail parce que le but n'est pas de de faire une histoire, mais ça remonte au moins au 17e siècle avec
Bla Pascal qui fabrique une machine qui simule le calcul. hein. Il dit
d'ailleurs de sa machine, elle fait des effets qui s'approchent plus de la pensée que tout ce que font les animaux.
Fridi, elle surpasse les capacités animales. Et puis ça ne s'arrête pas là
animales. Et puis ça ne s'arrête pas là bien sûr hein. Euh euh au 18e siècle hein, fin du 17e, début du 18e, vous avez la limit qui essaie d'abord d'arithmétiser la logique, c'estàdire les lois de la pensée et ensuite de
fabriquer une machine qui soit capable de calculer la pensée.
He d'ailleurs vous avez à Grenoble un grand laboratoire d'informatique d'intelligence radielle qui s'appelait Libit en hommage justement à àit. Et
puis ça continue hein avec tout un tas de hein par exemple Charles Babalovlas.
Alors, je rentre pas dans le détail, hein, mais bien sûr, pardon, Adalovl au 19e siècle, première moitié du 19e siècle, elle se dit que la machine de
Babage, c'est dire le concept d'ordinateur he qui est ancien hein, donc que cette machine, elle ne traitera pas simplement de problèmes mathématiques mais qu'elle sera aussi en
mesure de traiter la musique. que c'est
c'était une jeune femme très éduquée, c'est la fille de Lord Byron he de traiter de la musique et de texte et donc elle imagine que les machines vont éventuellement aider les créateurs. Et
puis vous avez d'autres Stanle Givons au 19e hein qui est un économiste qui fabrique une machine qui fait du raisonnement à l'uning et cetera. Donc
voilà, ça c'est très ancien. Ensuite,
vous avez quelque chose de tout à fait important et on va revenir là-dessus tout à l'heure, c'est la cybernétique.
Ça naî ici hein, comme on le voit en 1943. Vous avez deux articles princeps
1943. Vous avez deux articles princeps l'un sur ce qu'on appelle les machines téléologiques. C'est des machines qui
téléologiques. C'est des machines qui sont capables c'est TLéos, c'est la finalité qui sont capables de d'agir en fonction de leur objectif. C'est la
notion de régulation. Et puis le deuxème he c'est Maculock et Pit l'article sur les neurones formels. Alors de quoi il s'agit ? Et ben de simuler ce que l'on
s'agit ? Et ben de simuler ce que l'on savait à l'époque du fonctionnement du cerveau. C'està-dire pas grand-chose
cerveau. C'està-dire pas grand-chose hein parce que bon le prix Nobel de physiologie avait été donné en 1906 à Camiogolie et Rapon Icaral pour ses connaissances sur la sur le sur la
physiologie du cerveau. Mais on ils ont essayé de modéliser ça avec des automates. On va revenir là-dessus parce
automates. On va revenir là-dessus parce que vous allez voir que c'est extrêmement important. Mais la naissance
extrêmement important. Mais la naissance de l'intelligence ratielle, le terme lui-même he quelquefois on nous dit, on sait pas ce que c'est, on sait très bien ce que c'est. Ce sont des scientifiques qui se sont réunis, hein, ici. Vous
voyez leur leur nom hein, John McCarty hein, le premier qui est là, il est tout jeune, Marvin Minsky puis deux autres un peu plus confirmés, Nintel Rochester qui était le directeur scientifique du BM et
puis surtout le grand Claude Channon, l'homme de la théorie mathématique de l'information. Donc c'était quand même
l'information. Donc c'était quand même pas n'importe qui. Et qu'est-ce qu'ils ont voulu faire ? Bah ici, ils le disent, une discipline scientifique qui reprend bah ses facultés mentales dont
j'ai parlé tout à l'heure, ce qui fait l'intelligence au sens où Hippoly le disait. Donc ces facultés mentales pour
disait. Donc ces facultés mentales pour mieux les comprendre afin de et afin de mieux les comprendre, utiliser ces objets nouveaux qui sont les ordinateurs pour les simuler. Donc c'est la simulation des facultés mentales. Donc
il s'agit pas de faire une machine qui va tout d'un coup va être dotée d'un esprit. C'est pas la question hein. La
esprit. C'est pas la question hein. La
question c'est de mieux comprendre la perception. de mieux comprendre le
perception. de mieux comprendre le raisonnement, le simulant, de mieux comprendre les fonctions expressives, de mieux comprendre les fonctions exécutives en essayant de les
confronter, confronter la simulation à des résultats empiriques. Et puis bien sûr, hein, ces euh fonctions cognitives, une fois qu'elles sont simulées, peuvent être introduites dans un certain nombre
de technologies. Et je vous donne un
de technologies. Et je vous donne un exemple ici hein, une voiture autonome, je sais pas si vous êtes allé à San Francisco ces derniers temps, hein. Vous
pouvez prendre des voitures autonomes.
Vous le vous avez un un vous prenez votre téléphone portable, vous appelez la voiture, elle arrive, vous rentrez, vous lui redonnez l'adresse et puis vous n'oubliez pas surtout de donner votre numéro de carte bleue et là elle vous
amène à peu près à l'endroit où vous voulez aller hein. Pas toujours hein, si j'ai le temps, je raconterai quelques petites mésaventures qu'on peut avoir.
et ça marche relativement bien. Donc ça
ça fait partie des applications de l'intelligence artificielle et ça explique bien sûr le succès de l'intelligence ratielle. Mais vous voyez
l'intelligence ratielle. Mais vous voyez que c'est quelque chose qui est ancien.
C'est une vieille discipline. Alors
cette discipline elle a une histoire et cette histoire je voudrais vous la raconter parce que elle me semble passionnante et je crois que ça doit faire partie de la culture générale.
Alors je vais d'abord raconter l'histoire de l'intelligence artificielle au 20e siècle. Donc 2è
moitié du 20e siècle puisque on a vu que c'est né si on compte la cybernétique en 43 hein mais la vraie naissance de l'intelligence ratielle c'est 57 et puis
après 21e siècle avec les grands progrès des réseaux de neuron formels. On va revenir là-dessus hein
formels. On va revenir là-dessus hein que vous ayez un peu une idée de cette évolution de l'intelligence artificielle. Al ici hein, vous avez
artificielle. Al ici hein, vous avez hein justement un grand pionnier de l'intelligence artificielle, Robert Simon qui a été prix Nobel d'économie et voyez devant un jeu d'échecin parce que
les jeux on a évoqué ça euh tout à l'heure ont toujours joué un rôle très important dans l'intelligence ratielle parce que John McCarty le pionnier de l'intelligence ratielle celui qui a
donné le nom à la discipline disait c'est c'est la drosophile de l'intelligence artificielle un peu comme cette mouche du vinaigre qui se reproduit très vite et qui permet de
faire des expérimentations en génétique.
Et ben bien sûr, ça a joué un rôle important. Alors, j'ai pas le temps d'en
important. Alors, j'ai pas le temps d'en parler mais si vous suivez toute l'histoire de l'intelligence artificielle, elle est scandée par des études sur les jeux. Alors donc très
brève histoire donc de l'intelligence artificielle au 20e siècle. Donc ça commence par la
20e siècle. Donc ça commence par la naissance de l'intelligence artificielle et puis par les premiers programmes hein. Dès 1958 et puis ensuite 1959, on
hein. Dès 1958 et puis ensuite 1959, on commence à euh réaliser un certain nombre euh de machines qui vont simuler des raisonnements humains. Et en
particulier, vous avez deux approches.
D'abord, la démonstration automatique de théorème et qu'on verra peut-être après, hein, mais ça fait euh ça permet de mieux comprendre ce qu'est la démonstration. hein, et éventuellement
démonstration. hein, et éventuellement de faire dans certains cas de figure des démonstrations de théorèmes. Il y a même des machines qui essayent de générer des conjectures. On parlera pas de ça bien
conjectures. On parlera pas de ça bien sûr, c'est un un un secteur passionnant.
Vous voyez ici hein euh euh ce système réalisé en 57 a pris euh le 2e chapitre euh euh du principia mathématica de White and Russell he c'est c'est de la
logique mathématique et il a démontré 38 théorèmes sur 52. Donc vous voyez que c'était quand même assez impressionnant hein très tôt avec des machines qui
étaient assez assez assez poussies. Donc
ça a été réalisé. Vous voyez Herbert Simon ici et puis Alan Alan Newell ici.
Donc premier résultat deuxème résultat hein et je mentionne parce que souvent il y a des malentendus. On vous dit au départ l'intelligence artificielle était symbolique, elles essayaient de simuler des raisonnements et puis
l'apprentissage est venu après. Non,
l'intelligent l'apprentissage né presque en même temps, hein. Et vous voyez ici Arthur Samuel he qui va utiliser ce qu'on savait de l'apprentissage en en
psychologie comportementale. La boîte de
psychologie comportementale. La boîte de Skinner hein, ça doit vous dire quelque chose he cette souris hein qu'on met dans une boîte si elle a appuie sur une manette, elle a du fromage sur l'autre, elle a une décharge électrique. se
demande au bout de combien de temps elle apprend. Et donc c'est ce type de
apprend. Et donc c'est ce type de d'apprentissage qu'on a essayé de simuler avec ce qu'on a appelé l'apprentissage par euh renforcement. Et
cet apprentissage, il a servi, je vous ai dit les jeux c'est la prosophile de l'intelligence artificielle pour un jeu qui est le jeu de checkers, une variante du jeu de dame. Il s'agissait
d'améliorer le Checkers avec ses outils d'intelligence artificielle. Donc vous
d'intelligence artificielle. Donc vous voyez, c'est très tôt 1959. Et ces
techniques, elles sont toujours employées. Et là, là aussi, je crois
employées. Et là, là aussi, je crois qu'il faut tordre le coup à une idée que l'intelligence artificielle, c'est la révolution permanente. Oui, ça change la
révolution permanente. Oui, ça change la société mais les concepts sont relativement anciens. Je vous ai
relativement anciens. Je vous ai présenté les réseaux de neurones formels, on utilise toujours ça et je vous ai présenté euh l'apprentissage par renforcement ici. Or, chat GPT fait
renforcement ici. Or, chat GPT fait appel à de l'apprentissage par renforcement. Nous reviendrons sur euh
renforcement. Nous reviendrons sur euh euh là-dessus tout à l'heure. Donc ça
c'était les premiers programmes et puis après, il y a eu un enthousiasme hein et on a dit bah dans 10 ans les machines vont emporter sur les meilleurs joueurs au jeux d'échec. Dans 10 ans, elles vont démontrer des problèmes de des théorèmes
de mathématiques. Dans 10 ans, toutes
de mathématiques. Dans 10 ans, toutes les théories de psychologie prendront la forme de programme informatique. Bien
sûr, quelques années après, on s'est rendu compte que ça marchait pas très bien. Et en 66, par exemple, un
bien. Et en 66, par exemple, un programme informatique qui joue aux échecs a été battu par un enfant de 10 ans. Ça l'a mal fichu. Et donc, il y a
ans. Ça l'a mal fichu. Et donc, il y a eu un petit reflux. Mais vous voyez que l'enthousiasme hein, il est en intelligence artielle, il est depuis le début hein, je hein, on peut dire que l'intelligence artielle c'est un peu
comme l'or hein, ça vient vous savez en en Californie, ça vient de Californie aussi, il y a eu la fièvre de l'or mais il y a la fièvre de l'intelligence artificielle et la fièvre a des accès qui sont récurrents, hein. Et donc ça c'était un des premiers accès de fièvre
mais on en connaît d'autres aujourd'hui.
Mais bien sûr, il faut pas croire tous les délires. En revanche, il faut
les délires. En revanche, il faut comprendre que ça joue un rôle extrêmement prom. Donc, il y a eu ce
extrêmement prom. Donc, il y a eu ce qu'on appelle l'hiver de l'intelligence ratielle. Cet hiver, il faut le
ratielle. Cet hiver, il faut le relativiser hein, parce que on regarde, il y a un tout petit peu moins d'articles qui ont été écrits, mais ça a continué et en particulier les premiers travaux sur les agents conversationnels,
hein, ce qu'on appelle les chatbotes, ça date de cette époque-là, hein. De même,
hein, les les travaux en démonstration automatique de théorème, la règle de de résolution, ça date de cette époque-là.
De même en France, hein, vous savez que euh euh il y a eu un un grand scientifique Alain Colmerwer qui a utilisé la règle de résolution pour faire un langage euh prologue qui utilise la logique. Ça date de cette
époque-là. Donc, vous voyez que ça n'est
époque-là. Donc, vous voyez que ça n'est pas vraiment aussi sombre que cela. Et
puis il y a une renaissance de l'intelligence ratiel à la fin des années 70 avec ce qu'on a appelé les systèmes experts et l'intelligence artificielle sémantique. Je rentrerai
artificielle sémantique. Je rentrerai pas dans le détail mais il y a eu là encore une fièvre de l'intelligence artificielle. hein, on l'a oublié hein,
artificielle. hein, on l'a oublié hein, mais ça a été extrêmement important. Et
puis ensuite, il y a eu une résurgence des réseaux neurones formels. On va
revenir là-dessus tout à l'heure, mais je le note ici hein, en 86 hein, tout d'un coup, on a repris les approches classiques sur les réseaux de neurones formel et on les a considérablement
amélioré. Et en particulier, hein, il y
amélioré. Et en particulier, hein, il y a un euh euh scientifique, un physicien qui a essayé d'utiliser les théories euh sur la physique statistique pour la pour
étudier la dynamique de ces réseaux neurones formel. Et ça a donné naissance
neurones formel. Et ça a donné naissance à un algorithme qui est extrêmement important qui est l'algorithme de rétropropagation de gradient qui faisait de l'apprentissage à cette époque-là.
Malheureusement, cet algorithme était très lent ce qui fait que 86 à partir de 92, il y a de nouvelles théories mathématiques de l'apprentissage qui naissent. Et plus personne ne fait des
naissent. Et plus personne ne fait des réseaux de neurones formels. C'est euh
sauf sauf hein, je vois que ça sastique un peu. Il a raison. Sauf effectivement
un peu. Il a raison. Sauf effectivement
pour la modélisation hein des mais les outils d'intelligence ratielle qui sont destinés à traiter les grandes masses de données n'utilisent plus de réseaux de neuron formel à l'époque et on continue bien sûr pour d'autres raisons parce que
ce sont des bons modèles hein. Mais ça
c'est l'histoire de l'intelligence radicielle. Alors, c'est la fin du 20e
radicielle. Alors, c'est la fin du 20e siècle et puis maintenant, je vais vous raconter l'histoire de l'intelligence artificielle au 21e siècle car moi je la
trouve vraiment passionnante et l'arrivée de ce chat GPT hein dont [rires] nous avons parlé et qui fait l'objet hein, c'est le titre he de de cette de cet exposé. Donc, comment
est-il arrivé ? Pour bien comprendre, il faut reprendre ce que j'ai évoqué tout à l'heure sur les réseaux de neurones formels. Vous vous souvenez, je vous ai
formels. Vous vous souvenez, je vous ai dit, les réseaux de neuronformels ont été introduit par euh euh deux jeunes gens d'ailleurs Maulock et Pitz. Il faut
savoir que Pitz, Walter Pitz, lorsqu'il a introduit ça, était un jeune mathématicien, il avait 20 ans. C'est
incroyable. Et il avait cette intuition que avec ses machines 43, il faut comprendre que les outils les ordinateurs n'existent pas en
43. hein. Le concept d'ordinateur est
43. hein. Le concept d'ordinateur est plus ancien, il date du début du du 19e, mais il y a pas d'ordinateur physique.
On on a conceptualisé ça, Turing l'a conceptualisé mais on les a pas réalisé.
En revanche, on a des calculateurs et ces calculateurs utilisent des relais téléphoniques et en fait c'est cette analogie entre cette énorme masse de composants électroniques
et notre cerveau qui a motivé Walter Pitt. Il était tout jeune, il était, on
Pitt. Il était tout jeune, il était, on raconte qu'il était il était très pauvre en plus, il était à l'université de Chicago. Et ce qu'on m'a raconté, c'est
Chicago. Et ce qu'on m'a raconté, c'est que un jour, il était sur un banc et et quelqu'un qui s'assoit à côté de lui, c'était Carnap et puis il raconte ce qu'il veut. Et Carnap dit tiens, c'est
qu'il veut. Et Carnap dit tiens, c'est astucieux. Et il lui a fait rencontrer
astucieux. Et il lui a fait rencontrer Warren Mulock qui était un neuropile.
Al, je sais pas si l'histoire est vraie mais en tout cas c'est une belle histoire et ils sont arrivés à certain.
Qu'est-ce qu'il montre ? Il montre que si on met ces ces relais téléphoniques en trois couches et puis qu'on pondère les connexions avec des poids qui correspondent un peu à ce qu'on sait des poids synaptiques, ben on peut réaliser
n'importe quelle fonction logique. Donc
ça c'est extraordinaire parce qu'on dresse un pont entre la logique, les neurosciences et l'ingénierie.
Le problème c'est que il faut lorsqu'on a une fonction particulière savoir comment établir les poids. À la main c'est inextricable. Et donc assez vite,
c'est inextricable. Et donc assez vite, on se dit et ben on va essayer de faire ça automatiquement. Et donc dès le début
ça automatiquement. Et donc dès le début des ordinateurs, on a essayé de faire de l'apprentissage. Marvin Minsky qui est
l'apprentissage. Marvin Minsky qui est l'un des pionniers de l'intérieur ratiel se casse les dents sur le sujet. Il y
arrive pas. Donc on arrête et il y a quand même quelqu'un qui a l'âge de de Marvin Minsky, Rosen Blat qui essaye et le fait sur des réseaux à deux couches.
Le problème c'est qu'à deux couches, on peut on narrive pas à réaliser n'importe quelle fonction logique. Il y a même des fonctions logiques triviales comme le ou exclusif qu'on arrive pas à réaliser avec ça. Donc on arrête plus personne ne
avec ça. Donc on arrête plus personne ne fait des raisons de neuron formell. Moi
quand je commence à faire de l'intelligence radial au début des années 80, on me dit mais ça n'existe pas.
Sauf justement, je l'ai évoqué tout à l'heure, des physiciens et en particulier hein Unon, McLand et cetera qui utilise les théories de la physique
statistique pour essayer de comprendre la la la les phénomènes d'apprentissage.
Et à partir de de toutes ces théories, il généralise l'algorithme du perceptron sur plusieurs couches, hein. C'est ce
qu'on appelle la rétropropagation de gradient. Alors, quand on est physicien,
gradient. Alors, quand on est physicien, on sait tous ce qui est un gradient, hein. C'est une différence. Différence
hein. C'est une différence. Différence
entre la sortie obtenue et la sortie espérée. Rétropropagation, c'estàd que
espérée. Rétropropagation, c'estàd que cette différence, on la propage en arrière sur les poids de connexion entre les euh euh neurones. Et bien sûr, ça donne des résultats qui sont pas mauvais, mais comme j'ai dit tout à
l'heure, hein, on arrête. Pourquoi ?
Parce que euh c'est trop, c'est poussif, c'est lent. Moi je me souviens que à
c'est lent. Moi je me souviens que à l'époque hein Françoise mal fouillé, elle me racontait qu'il passait des nuits à apprendre et bien sûr ça pouvait pas marcher. Donc on
utilise d'autres techniques d'apprentissage et plus personne tout dit dans notre communauté sauf bien sûr dans des communautés où on fait de la modélisation, on utilise des réseaux
neurones formels et on arrête sauf un Breton. Alors, j'imagine qu'il y a des
Breton. Alors, j'imagine qu'il y a des Bretons parmi vous, hein. Il il [rires] vit aux États-Unis, il s'appelle Yan Lequin. Il a la tête dure et il
Lequin. Il a la tête dure et il continue, il s'acharne sur les réseaux neurones formels. Tout le monde se moque
neurones formels. Tout le monde se moque de lui et il dit "Ben non, on [raclement de gorge] va utiliser des réseaux, ça va marcher." Et il a raison hein, dire que la l'acharnement est souvent euh bien en en science. Alors
pour essayer de comprendre ce qu'a l'histoire, je vais vous citer un article que je vous ai peut-être lu qui a été rédigé dans la revue Nature l'an
dernier en 2025 et qui s'est dit 25 ans, le quart du siècle, quels ont été les 25 articles les plus cités pendant ce premier quart de siècle ? Alors, c'est
important parce que moi quand j'ai commencé à faire de l'intelligence artificielle et et Joacqu ici, te souviens hein, nos articles ils étaient pas très cités à côté des articles de médecine et ben là vous allez voir c'est absolument
incroyable parce que les premiers ce sont des articles d'IA. Alors le premier c'est un article de médecine d'ailleurs vous le voyez hein, il y a pubmed. Pubm
ça veut dire c'est de la biologie ou de la médecine. Mais à partir des autres,
la médecine. Mais à partir des autres, alors je vais vous raconter l'histoire de ces articles parce que vous allez voir que ça correspond à l'histoire de l'intelligence artificielle. Donc je
l'intelligence artificielle. Donc je vous ai dit au début à la fin du du 20e hein, qu'est-ce qu'on fait ? Et ben on fait plus de euh de réseaux neurones formel. Et là vous avez un article en
formel. Et là vous avez un article en 2001 de Bremman sur les forêts aléatoires. C'est une technique
aléatoires. C'est une technique d'apprentissage machine qui a donné de très bons résultats qui continue d'ailleurs à donner de très bons résultats et là c'est un article qui est pas mal cité. Puis ensuite vont
intervenir les travaux sur les réseaux de neurones profonds. Alors quels sont les articles qui sont cités ? C'est
intéressant. Vous avez Imagenet. Alors,
imagin c'est marrant parce que c'est ça n'a rien à voir avec un côté scientifique. C'est une base de données. Alors pourquoi elle est
données. Alors pourquoi elle est importante ? Parce que comme les
importante ? Parce que comme les articles se sont confrontés sur cette base de données et ben l'article est très cité. Et puis ensuite vous avez ce
très cité. Et puis ensuite vous avez ce qu'on appelle l'apprentissage convolutionnel. Ben, c'est ça qui a
convolutionnel. Ben, c'est ça qui a introduit euh ce breton têtu que j'ai évoqué tout à l'heure, il yan hein. Il
dit effectivement he on va avoir des réseaux neurones avec différentes couches hein, s'appelle profond parce qu'il y a beaucoup de couches et les premières couches sont des couches de convolution. La convolution c'est une
convolution. La convolution c'est une opération mathématique qui sert en traitement du signal. on va on va on va le coder et il montre qu'il a de très bons résultats. Donc ça commence, voyez,
bons résultats. Donc ça commence, voyez, premier article 2012 et c'est effectivement à ce moment-là que on va commencer à voir. Alors ensuite, vous avez un autre article 2015 toujours sur l'apprentissage convionnel puis ensuite
le grand article sur l'apprentissage profond en 2015 mais c'est la suite enité c'est la même chose. Donc vous
voyez que c'est extrêmement important.
C'est dans les plus cités. Et puis
ensuite qu'est-ce que vous avez ? Vous
avez un article. Alors jusqu'à présent, je vous ai dit les réseaux de neurones, ce sont des couches qui sont les unes après les autres. Alors quelle est l'idée ? He c'est ensuite se dire mais
l'idée ? He c'est ensuite se dire mais lorsqueil y a beaucoup de couches, est-ce qu'on obtient une meilleure performance ? et on s'est rendu compte
performance ? et on s'est rendu compte que bah quelquefois il fallait qu'il y ait des une architecture un peu particulière avec des liens entre les couches et ça donne un article he qui est écrit en 2016 resnet hein et ici
vous voyez je vous ai donné ici voyez un exemple de couche et puis avec des liens entre les couches et donc on s'intéresse à cette architecture et ça donne de très bons résultats. Vous voyez que c'est le
bons résultats. Vous voyez que c'est le deuxième article le plus cité hein. Donc
hein là vous voyez que parmi les les huit plus grand articles plus cités pour l'instant il y en a six. Et puis le dernier hein, c'est euh le l'article AI
euh euh enfin attention is all you need.
C'est un article vraiment central parce que ce qui en ce qui montre c'est quelle est l'architecture que l'on peut avoir avec ces outils pour apprendre sur des très grands corpus. Et c'est ce qu'on va
voir tout à l'heure. Et vous voyez que là parmi hein les huit articles les plus cités, vous en avez sept d'intelligence artificielle. He c'est assez incroyable
artificielle. He c'est assez incroyable hein parce que ça monte. Alors, je vais maintenant aller sur ce qui va nous importer les grands modèles de langage.
Quelle était l'idée ? d'extraire ce
qu'on appelle l'esprit des langues.
Alors, c'est quand même une drôle idée.
Moi quand j'ai commencé à faire de l'intelligence artificielle, on faisait du traitement automatique de la langue naturelle et on nous disait il faut il faut une syntaxe, il faut il faut un lexique, hein, il faut une de la
sémantique, hein, il faut de la pragmatique, il faut beaucoup de connaissance et on nous ait dans les années 50, il y avait des ingénieurs qui
essayaient de d'appliquer les méthodes de la de la communication télégraphique à à la traduction automatique, c'est qu'il prenait un dictionnaire puis regarder le mot qui était traduit, ça marchait pas, ça peut pas marcher hein.
Et des linguistes avaient montré que ça marchait pas. Nous, on croyait bien sûr
marchait pas. Nous, on croyait bien sûr hein comme des bons soldats on dis bah il faut surtout hein qu'il y ait beaucoup de de connaissances anxiqué.
Alors quelle a été l'idée à partir de de la fin du du 20e et début du 21e siècle, des spécialistes de traitement automatique de la langue ont dit "Oui, mais si on fait uniquement des
opérations statistiques, on doit obtenir de bons résultats." On était quand même assez dubitatif. Il y a un un ingénieur
assez dubitatif. Il y a un un ingénieur de chez IBM qui a raconté un jour quelque chose qui est absolument effroyable pour les linguistes, hein. Il
y a peut-être des linguistes parmi vous, mais il a dit chaque fois que je vire un linguiste, les performances de mon système augmentent. Ah, on se dit c'est
système augmentent. Ah, on se dit c'est quand même pas bien. [rires]
Malheureusement, il avait raison. Enfin,
malheureusement ou raison, je ne sais pas mais en tout cas, c'est la même idée. Alors, quel est le principe ?
idée. Alors, quel est le principe ?
c'est on va utiliser ces réseaux de neuron formels pour essayer d'apprendre ces relations invisibles qui existent entre les mots et les parties de mots ce qu'on appelle les token. Ce sont des des parties signifiantes de mots. Alors
qu'est-ce qu'on fait ? Bon, on prend un très gros réseau de neurone. Ici, vous
voyez, c'est l'architecture he de la tension que j'ai mentionné tout à l'heure. Je rentre pas dans les détails
l'heure. Je rentre pas dans les détails parce que c'est vraiment assez compliqué. L'idée c'est qu'on prend un
compliqué. L'idée c'est qu'on prend un énorme réseau de neurone et on va encoder des phrases et ensuite on va les décoder. Et quelle est l'idée ? de
décoder. Et quelle est l'idée ? de
retrouver à la sortie les phrases d'entrée. Al pourquoi ? Parce qu'on va
d'entrée. Al pourquoi ? Parce qu'on va mettre dans les poids de connexion de ces énormes réseaux de neurones toutes ces ces connaissances linguistiques.
C'est un peu comme un enfant hein qui à 8 ans c'est à peu près correctement parlé. Pourtant il a jamais appris la la
parlé. Pourtant il a jamais appris la la grammaire hein. Mais il connaît parce
grammaire hein. Mais il connaît parce qu'il est il comme une éponge, il est plongé dans un linguistique. Ben c'est
ça qu'on essaie de comprendre. Alors
quelle est l'idée ? extraire des modèles de de de langue, hein. Et bien sûr, quand on encode, hein, et ben on met [raclement de gorge] chaque mot, on a les mots qui sont proches, hein, et
c'est ce qu'on appelle un plongement lexical ou un un enchassement en français ou un beddings en anglais. Et
ça, c'est extraordinaire parce que c'est une forme de sémantique. C'est qu'on on peut rapprocher deux mots qui ont le même plongement dexical, ont des significations qui sont semblables. Donc
ça c'est alors ça rejoint des travaux de linguistique sur ce qu'on appelait la sémantique distributionnelle. Donc ça
sémantique distributionnelle. Donc ça c'est vraiment passionnant. J'ai pas le temps hein de rentrer dans le détail mais nous on travaille là-dessus et bien sûr on fait pas que ça hein. On essaie
aussi d'utiliser ces outils pour euh différentes techniques de traitement automatique de la langue, la traduction, le résumé texte. Puis il y a une technique qui fascine tout le monde hein et dont on va parler, c'est vous donnez une suite de mots puis vous dit quel est
le mot le plus probable qui suit ? et
puis le mot le plus probable qui suit le plus probable et cetera et vous générez un texte qui de façon très étrange et syntaxiquement à peu près correcte he fait sens même s'il y a aucune raison qu'ils disent la vérité mais ça c'est
une autre question on va revenir là-dessus alors on entraîne ces réseaux de neurones voyez avec des l'équivalent de centaines de milliers de livres ce qui est quand même incroyable et on a
des réseaux de neurones qui contiennent des milliers de milliards de connexion comme le disait Jo tout à l'heure bien sûr quand on entraîne Ça, il y a beaucoup d'opérations. Chaque
opération est un dolore. Mais la somme de ces opérations fait que du point de vue écologique, ça a des effets désastrés. On on n'est pas là pour
désastrés. On on n'est pas là pour parler de cette questionlà pour l'instant parce qu'on va plutôt parler d'éducation. Alors, à partir de ça,
d'éducation. Alors, à partir de ça, hein, donc on fabrique des machines qui génèrent des textes. Alors, qu'est-ce
que c'est que ces textes qui sont générés par les machines ? Et justement,
je pense que c'est le moment maintenant avec vous en tant que qu'enseignant spécialiste de pédagogie de nous demander mais est-ce que ces machines parlent vraiment ?
Parce qu'on a l'impression qu'elles parlent il y a des échanges, il y a même des personnes qui se confient aux machines hein. Est-ce que ça parle vraiment ?
hein. Est-ce que ça parle vraiment ?
Alors vous voyez ici, j'ai mis à propos de langue hein. Alors je je rappelle pas l'histoire mais vous la connaissez tous.
La fable des hommes sur la langue, vous la connaissez hein ? Si vous la connaissez pas, je vous la raconterai après, mais je term exposer parce que c'est un peu comme l'A, c'est à la fois la meilleure et la pire des choses, mais
je rentre pas dans le détail. Donc,
qu'est-ce que c'est que les agents conversationnels ? Alors, ça vient,
conversationnels ? Alors, ça vient, comme je l'ai dit tout à l'heure, de l'intelligence artificielle de 1965 d'un chercheur du MIT qui s'appelait
[gémissement] Joseph Weisenbom et qui s'est dit "Ben, on va essayer de faire une machine qui est capable de de répondre." Alors, pour ça, c'est très
répondre." Alors, pour ça, c'est très simple. On va avoir des des petites le
simple. On va avoir des des petites le l'idée c'est si on a tel motif en entrée, c'est dire tel type de chose, bonjour, il répond bonjour par exemple hein. Et ben avec ça, il essaie il a
hein. Et ben avec ça, il essaie il a essayé de faire un un agent qui représentait un un psychanalyste d'une obédience particulière qui était l'obsession Rogerienne. Et c'était très
l'obsession Rogerienne. Et c'était très étonnant parce que il y avait ce qu'on appelait l'effet alors il s'appelait Elisa l'effet Elisa. C'est-à-dire que de l'extérieur, même si c'était très simple, et ben on avait l'impression qu'effectivement il y avait euh un
échange avec la machine. C'est l'idée
hein qui est a souvent été présente en intelligence artificielle, c'est que la la complexité euh du système est pas liée à sa complexité structurelle, mais
à l'interaction qu'on a à faire avec le système. Et ce système a beaucoup
système. Et ce système a beaucoup intéressé, on a beaucoup beaucoup fait et en même temps, il passionnait parce que peut-être vous le savez mais Alan Turing dans un article qu'il avait écrit
a imagine ce qu'il appelle le test de Turing qui est lié à un dialogue. Je
rentre pas dans le détail parce que je n'ai pas le temps mais c'est très intéressant parce que il nous dit qu'est-ce qu'on pourrait appeler une machine intelligente ? Mais c'est une
machine intelligente ? Mais c'est une machine avec laquelle on pourrait avoir un échange comme avec un dialogue. Donc
il y avait cette idée qui était qui était derrière. Et ben on a fait
était derrière. Et ben on a fait exactement la même chose avec avec Chat GPT. Plus exactement on a fait la même
GPT. Plus exactement on a fait la même chose avec les grands modèles de langage. Et je vous ai dit tout à
langage. Et je vous ai dit tout à l'heure quand j'ai présenté l'histoire de l'intelligence artificielle qu'il y avait la notion de de Transformer qui a été introduite en 2017. À partir de ça,
ces Transformers av été conçus par les laboratoires de la société Google. Et
chez Google, ensuite, on s'est dit "Ben, on va faire les grands modèles de langage que j'ai montré tout de suite avec ces Transformers. On réalise ces grands modèles de de de langage et euh à
ce moment-là, il y a un ingénieur qui se dit "Ben, on peut générer des textes" et il réalise un premier chatbot qui l'appelle lambda. Et ce chatbot, c'est
l'appelle lambda. Et ce chatbot, c'est très simple hein, c'est pas compliqué.
Une fois que vous avez un générateur de texte, vous posez une question et puis hop, vous lui demandez les mots qui suivent et puis il génère un texte et puis ensuite une deuxième question et cetera. Et alors cette cet ingénieur, il
cetera. Et alors cette cet ingénieur, il s'appelait Blake le moine. Alors en
français, comme on prononce mal, l'anglais ça donne black hein, noir et le moine, ça donne le prêtre en anglais.
Je sais pas si ça veut dire ça, mais vous voyez qu'en même temps les journaux, il a une photo de lui avec une capuche de de de site mais on dirait vraiment un moine. Et qu'est-ce qu'il
dit publiquement ? Cette machine, elle
dit publiquement ? Cette machine, elle fait des effets si extraordinaires que je ne peux pas imaginer qu'elle est pas d'âme. Alors Google a peur. Il se disent
d'âme. Alors Google a peur. Il se disent quand même on peut pas raconter ça et il le vire comme aux États-Unis et ils arrêtent, ils disent on va mettre la douce quand même des cinglés
chez nous. Et il y a une petite société
chez nous. Et il y a une petite société qui était assez modeste qui faisait du logiciel libre pour l'intelligence artificielle qui s'appelle open hein, vous connaissez ? et il développe un
vous connaissez ? et il développe un autre langage et là ils se disent tiens on va utiliser ça pour faire un chatbot mais eux ils s'en foutent que que le chatbot dise pas la vérité d'ailleurs la vérité pas grand-chose on
malheureusement on a à faire aujourd'hui. En revanche il faut qu'il
aujourd'hui. En revanche il faut qu'il soit convenable parce qu'on avait déjà une expérience avec un un chat de botte hein qui proférait des insanités. Donc
qu'est-ce qu'ils disent ? Et ben, on va essayer de coder le savoir des modérateurs. Vous savez que euh sur les
modérateurs. Vous savez que euh sur les forums, vous avez des personnes qui sont en général d'ailleurs euh assez mal payé. Donc, on les met dans des pays un
payé. Donc, on les met dans des pays un peu perdus et qui euh vérifient que les textes produits sont pas euh inadmissibles. On a essayé de de coder
inadmissibles. On a essayé de de coder ça et on a utilisé l'apprentissage.
Quelle la technique d'apprentissage on a utilisé ? L'apprentissage par
utilisé ? L'apprentissage par renforcement, ce que je vous ai montré tout à l'heure, de 1959. On utilise ça et donc ils sortent fin novembre 2022, chat GPT. Alors là,
c'est incroyable parce que il raconte n'importe quoi mais c'est enthousiasme le monde entier. Alors bon euh Google très ennuyé avec cette affaire mais voilà l'histoire. Alors bien sûr, je
voilà l'histoire. Alors bien sûr, je voudrais maintenant se poser une question. Qu'est-ce que c'est que parler
question. Qu'est-ce que c'est que parler ? Alors je cite un poète, peut-être vous
? Alors je cite un poète, peut-être vous connaissez Valer Novarina, ça vous dit quelque chose ? Il y a un très beau
quelque chose ? Il y a un très beau texte devant la parole. Alors, j'ai pas eu le temps de beaucoup le citer, mais je voudrais juste parler. C'est d'abord
ouvrir la bouche et attaquer le monde avec. Savoir mordre. Moi, je trouve que
avec. Savoir mordre. Moi, je trouve que cette phrase résume très bien ce qu'est parlé. Al, est-ce que ces machines
parlé. Al, est-ce que ces machines savent mordre ? Et ben, je ne crois pas.
savent mordre ? Et ben, je ne crois pas.
Hein, d'ailleurs quand on échange avec cette GPT, elles mordent pas vraiment, hein. Elles sont hein. Donc, et je
hein. Elles sont hein. Donc, et je voudrais citer aussi autre chose. Vous
savez la la tradition euh euh juive, il y a une un un une un personnage mythique, c'est le golem. Alors,
qu'est-ce que c'est que le golem ? Hein
? C'est c'est une espèce de masse informe. Et il y a quelqu'un qui
informe. Et il y a quelqu'un qui s'appelle le maral de Prague qui était un un très grand rabin qui est alors il a beaucoup écrit, il a jamais écrit sur le golem d'ailleurs, hein, c'est vraiment une mythologie. Mais ce qui se
passe, c'est que ce cet euh euh animal, quand on lui passe un message derrière les dents comme un un ordinateur, il s'anime et il va qu'à toutes les occupations quotidiennes. Alors, il y a
occupations quotidiennes. Alors, il y a tout un tas de légendes autour du golem, hein, et en particulier, vous voyez sur sur le le le torse est écrit et qui euh veut dire vérité. Quand vous effacez la première lettre, ça veut dire maître qui
veut dire mort. Alors, il y a beaucoup de légendes, on dit que la première chose qu'il fait le golem, il enlève la première lettre. Enfin bon, mais tout ça
première lettre. Enfin bon, mais tout ça ce qui est important avec ça, c'est que on nous raconte et ça c'est quelque chose de très étrange, que le golem ne parle pas.
Pourquoi est-ce qu'on nous dit que le golem ne parle pas ? Alors, ça veut dire qu'est-ce que c'est que la parole ?
Parce que et bien sûr la question c'est est-ce qu'on fait mieux que ce qu'il faisait à l'époque ? C'est c'est une question ouverte. Alors là, je cite un
question ouverte. Alors là, je cite un verre de que vous connaissez peut-être he de René Charin. La parole soulève plus de terre que le faux soyeur ne le peut. Et si les machines que l'on
peut. Et si les machines que l'on fabrique sont doué de parole, est-ce qu'elles soulèvent plus de terre que les faux soyeurs ? Alors question ouverte.
faux soyeurs ? Alors question ouverte.
Où est-ce que les chats bottes parlent vraiment ? Ou est-ce qu'ils se
vraiment ? Ou est-ce qu'ils se contentent de bavarder ? Moi, je crois plutôt qu'il se contente de bavarder et c'est bien sûr la question que je voudrais poser. Alors, pour conclusion,
voudrais poser. Alors, pour conclusion, pour conclure, pardon, en conclusion la question que j'avais posée dans mon titre. Doit-on ou ou peut-on lui donner
titre. Doit-on ou ou peut-on lui donner notre langue ? Et là, je crois que c'est
notre langue ? Et là, je crois que c'est vraiment, j'invite, à une réflexion de pédagogue sur l'utilisation que l'on peut avoir de l'intelligence artificielle. Et là, je voudrais citer
artificielle. Et là, je voudrais citer deux choses en commençant hein. Un livre
qui est apparu il y a il y a peu de temps. Peut-être que certains l'ont lu
temps. Peut-être que certains l'ont lu et moi j'ai trouvé un peu choquant. Je
sais pas ce que vous en pensez.
Peut-être que hein he c'est ne faites plus d'études. C'est un médecin qui nous
plus d'études. C'est un médecin qui nous dit ça hein. Alors moi je un jour j'étais invité sur un plateau télé. Je
dis mais vous pouvez pas écrire ça c'est justement on est au contraire dans une société vous faire de plus en plus d'études. Il me dit ouais mais c'est pas
d'études. Il me dit ouais mais c'est pas ce qu'on veut dire. D'accord. Mais c'est
ce que vous avez dit quand même. Et il y a une autre alors je voudrais montrer autre chose, c'est au début du du 20e siècle. C'est cette
image de l'école républicaine que que l'on donnait. Alors, qu'est-ce que c'est
l'on donnait. Alors, qu'est-ce que c'est que l'école aujourd'hui ? Est-ce que
c'est l'école de Laurent Alexandre qui doit disparaître l'absence d'école ou est cette école ? Moi, j'aurais plus tendance à dire que cette autre école, voyez ce qui est écrit ? le peuple qui a les meilleures écoles et le premier
peuple s'il ne l'est pas aujourd'hui, il le sera demain. Message d'espoir lié à euh l'école he et je crois que c'est vraiment quelque chose qu'on doit avoir en tête hein. Et moi, je crois nettement
plus hein ce [rires] ce message là que l'autre message qu'il nous a envoyé. Alors ce que je voudrais montrer, ce sont les difficultés qu'on rencontre aujourd'hui et en particulier
vous savez qu'il existe ce qu'on appelle des paper meals, des moulins à papier.
Alors, il se trouve que moi, j'ai été alerté sur l'IA générative par un rapport qui a été écrit en en
2022 par le COP Community and Publit qui disait "Attention, il y a des officines qui permettent à des chercheurs peu scrupuleux d'écrire automatiquement des articles et d'inonder les revues avec."
Alors bien sûr, ça s'est encore plus développé aujourd'hui et euh euh bien sûr ça mais qu'est-ce qu'est-ce que est-ce que c'est
nécessaire d'écrire hein ? L'activité scientifique hein et
hein ? L'activité scientifique hein et tous les chercheurs le savent, c'est d'écrire. Alors c'est pas une écriture
d'écrire. Alors c'est pas une écriture littéraire mais c'est quand même c'est une écriture, ça prend du temps. Est-ce
que on va devoir toujours écrire ? Alors
aujourd'hui, on sait qu'il y a énormément d'articles qui sont écrits automatiquement. non seulement
automatiquement. non seulement d'articles qui sont soumis à des revues, mais d'articles qui sont publiés, hein.
Ici, vous aviez en 2025 un papier qui nous dit que voyez, il y a entre 40000 et 65000 articles scientifiques publiés en 2024 qui ont été écrits avec de
l'intelligence artificielle.
Vous voyez ? Et peut-être qu'il y en a plus d'ailleurs, hein. Donc ça ça pose un certain nombre de questions. Alors,
qu'est-ce qui qu'est-ce qui est permis ?
Il se trouve que dans ma communauté scientifique, il y avait un certain nombre de de scientif qui se disaient "Mais est-ce qu'on doit demander aux auteurs lorsqu'ils soumettent un article quelle est la part qu'ils ont rédigé avec l'intelligence artificielle ?" Et
puis je vais à une conférence où il y a des chercheurs en médecine. J'espère
qu'il y a pas trop de chercheurs en médecine ici encore que je aime bien mais et je leur ai dit "Qu'est-ce que vous en pensez ?" Il me dit "Ah, on est épuisé avec tous nos projets, si vous pouviez nous aider avec vos outils pour
les écrire automatiquement." Moi,
j'étais un peu perturbé et alors là je je lui dis et et pour la l'évaluation.
Ah oui oui oui pour l'évaluation aussi pour les articles. Il me dit non enfin encore que pour l'état de l'art hein.
Donc vous voyez toutes les questions c'est est-ce qu'on peut l'utiliser l'a pour la recherche bibliographique ? Bah
oui hein. Est-ce qu'on peut l'utiliser pour la rédaction de projet ? Question.
Est-ce qu'on peut l'utiliser pour l'évaluation des projets ?
Est-ce qu'on peut l'utiliser pour rédiger des états de l'art ? Est-ce
qu'on peut l'utiliser pour corriger en anglais ? Ah oui, d'ailleurs les
anglais ? Ah oui, d'ailleurs les éditeurs, ils nous demandent et cetera et cetera, est-ce qu'on peut l'utiliser pour l'évaluation des articles ? Alors,
moi, je dirais non, mais vous savez que dans ma communauté, on y a he on fait faire quatre revues, trois par des évaluateurs humains, un par une évaluation avec l'intelligence artificielle. Peut-être pour s'assurer
artificielle. Peut-être pour s'assurer que les évaluateurs humains n'utilisent pas l'intelligence artificielle. Enfin,
vous voyez tout toutes ces questions, je crois que ce sont vraiment des questions essentielles. Alors, je voudrais
essentielles. Alors, je voudrais maintenant pour conclure deux choses.
Les impacts cognitifs du numérique, c'est très difficile à évaluer, hein, mais on sait que par exemple les effets euh euh cognitifs des euh euh les les joueurs qui jouent qui sont accoutumés à
des jeux massivement parallèles, hein, ont des effets cognitifs. Il y a des pertes de mémoire, des pertes de l'attention bizarrement puisque ils maintiennent leur attention en parallèle et pourtant il y a des il y a des questions comme ça des effets
neurologiques qui sont observés hein sur on sait pas je mets un point d'interrogation parce qu'on sait pas quel est l'œufre quelle est la poule.
Peut-être que c'est parce qu'ils ont des problèmes neurologiques qui qui sont addictes à ces jeunes. Enseignement bah
la question comment est-ce que vous apprenez alors je sais pas si vous êtes tous des enseignants. Comment est-ce
qu'on peut apprendre à écrire à l'ors de lia générative ? Moi je vois des des des
lia générative ? Moi je vois des des des collègues, des profs de lettrre, il dit "Bah, on peut plus donner de devoir à la maison." Alors, comment est-ce qu'on
maison." Alors, comment est-ce qu'on fait pour apprendre à écrire quand il y a pas de devoir à la maison ? Puis les
féchad GPT, il y a eu un article, alors je sais pas du scientifique, c'est une étude du MIT. Elle elle est sur les archives, donc je sais pas quel lu le papier, ça m'a l'air intéressant hein.
Ils ont pris trois groupes d'élèves hein, des groupes qui écrivaient avec chat GPT, des groupes qui écrivaient avec chat GPT mais qui uniquement comme moteur de recherche et puis des élèves qui écrivaient sans chat GPT. Et là, ben on s'est rendu compte que les
productions étaient plus abondantes avec chat GPT, plus euh détaillées mais en même temps considéré comme de moins bonne qualité. Et puis surtout, on
bonne qualité. Et puis surtout, on posait des questions euh euh aux personnes quelques jours après et ceux qui écrivaient avec Chat GP, ils souvenaient plus de ce qu'ils avaient fait [rires] et puis bon, on regardait l'activité
céramal, je rentre pas dans le détail mais tout ça bien sûr pose un certain nombre de questions. Je voudrais
terminer hein puisque je conclure là-dessus hein pour comment enseigner à l'heure de l'IA générative et bon moi je je suis enseignant à Sorbon université alors c'est pas tout à fait la vieille
Sorbonne mais j'ai pris une une une image de la vieille Sorbonne et j'imagine que au Moyen-Âge quand des personnes passaient 3 ans 5 ans sur des bancs d'une institution éducative c'est
qu'ils avaient une passion pour la connaissance et moi ce que j'ai vu, c'est que au début de chat GP PT à science, on disait "Ah ben on va interdire chat GPT." Et je me dis mais
ça montre bien peut-être notre échec nous en tant qu'éducateur parce que normalement si les gens viennent dans ces institutions, c'est parce qu'ils ont une passion pour la science. Et ben non,
ce qu'ils veulent le diplôme. Comment
faire pour changer ça ? Et je crois que ça va être notre défi dans le futur.
Comment redonner le goût d'apprendre et d'écrire à l'heure de chat GPT et de l'intelligence artificielle ? Comment
l'intelligence artificielle ? Comment motiver les élèves ? J'étais il y a quelques mois puis je suis retourné hier mais j'étais à quelques mois à l'Institut catholique de Paris et là il
y avait le recteur qui disait "Mais les enseignements les institutions d'enseignement sont au départ des institutions redig un côté monacal une clôture. Est-ce qu'il faut reconstituer
clôture. Est-ce qu'il faut reconstituer une clôture une fermeture ? c'est dire
qu'il y a des des moments où on utilise pas d'outils, c'est ce sont des questions ouvertes. Et puis dernière
questions ouvertes. Et puis dernière chose, quand on demande aux élèves pourquoi utilisent avoir une bonne note.
Pourquoi ils veulent avoir une bonne note ? Parce qu'à cause de parcours
note ? Parce qu'à cause de parcours supre, on est obligé d'avoir une bonne note. Et moi je voudrais alors ça va
note. Et moi je voudrais alors ça va peut-être paraître choquant mais faire l'éloge de la mauvaise note. La mauvaise
note, c'est ce qui nous permet de nous améliorer. Donc comment faire dans le
améliorer. Donc comment faire dans le système éducatif pour permettre la mauvaise note ? Et ben moi j'avais une
mauvaise note ? Et ben moi j'avais une idée, je conclai là-dessus, mais dire c'est très choant complètement ringar, c'est de remettre un vieil examen.
Peut-être certains d'entre vous s'en souviennent qui sont aussi vieux que moi. Le baccalauréat, ça vous dit
moi. Le baccalauréat, ça vous dit quelque chose ? [rires]
quelque chose ? [rires] Et ben je termine là-dessus et je voudrais vous dire donc j'ai pour aborder toutes ces questions, j'ai écrit un petit livre hein.
L'idée c'était un dialogue avec des collégiens pour expliquer les notions de base de l'intelligence. Je pense ça doit faire partie de la culture commune aujourd'hui hein. Et donc vous pouvez le
aujourd'hui hein. Et donc vous pouvez le regarder puis là c'est un petit numéro de l'association des anciens du CNRS qui est consacré à l'intelligence ratielle qui peut en en intéresser d'entre vous.
Merci beaucoup.
[applaudissements] Donc merci beaucoup Jean-Gabriel Gana pour cette présentation très documentée, très stimulante et qui forcément va soulever beaucoup de questions. La
parole est donc dans la salle.
N'hésitez pas à lever la main et à vous signaler. Les micros viendront vers
signaler. Les micros viendront vers vous.
Ça y est. Première main levée, deuxième main levée. On y va.
main levée. On y va.
Bonjour, merci pour cette cette cet état des lieux de l'intelligence artificielle. Euh alors moi j'ai un on
artificielle. Euh alors moi j'ai un on va je suis une personne de terrain, je suis professeur d'art plastique et j'aime la science et je trouve que l'art c'est un outil majeur aujourd'hui
justement. Euh et par contre ce qui me
justement. Euh et par contre ce qui me dérange beaucoup, alors j'en profite pour vous poser ces questions, c'est que il y a pas d'éducation qui est donné ou de il y a pas d'histoire justement par
rapport à à Lia et tout ce qu'elle peut générer et faciliter artistiquement euh et cognitivement parce que le processus de création, c'est bien plus qu'un tableau accroché au mur. Euh c'est de
l'imagination, de l'incarnation de ce dans ce qu'on fait. Et là justement, on est une bascule où euh où il y a un vrai un enfin moi quelque chose qui me fait
un peu peur et je trouve que les l'effet sensoriel les effets sensoriels sont négligés dans ce qui est raconté autour de l'IA aujourd'hui, même s'il faut
créer une adaptation psychique et collective autour de ça, les effets sensoriels encore une fois du corps, nous en tant qu'être humain terrestre et
négligé. les effets artificiels
négligé. les effets artificiels délétaires parce que comme tout processus artificiel, il y a un effet délétaire parce que l'artificialité des choses, même si elle sert à un
processus, on va dire social, éducatif divers et variés, a des effets délétaires toxiques dans le psychisme.
Et justement la métacognitivité qui est mise en avant et celle que propose Lia, à laquelle tout le monde peut avoir accès est une illusion quand même quelque part. Euh et je trouve qu'encore
quelque part. Euh et je trouve qu'encore une fois le discours n'est est mal mené autour de ça et que on devrait euh déjà avant enfin parler de l'IA mais aussi
parler de la source des sources quoi. On
reste des humains terrestres, organiques mouillés sec sang pipi caca, tout ce qu'on veut. C'est quand
même ça la réalité. Et il y a toujours ce voilà et ensuite parler de par exemple physiologiquement dans le métabolisme quand on ingère des des substances alimentaire euh qui sont donc
artificielles pour palier soit à des intérêts économiques, soit à des on dit il y a beaucoup de gens sur la planète pl mais on va de il y a d'autres personnes qui doivent s'exprimer.
D'accord. Euh mais voilà moi je trouve qu'on est dans une architecture des illusions sous couvert d'une progression technique.
Très très bien merci.
Et je voudrais avoir votre avis sur ce que je viens de dire. Merci beaucoup.
Alors très très rapidement brièvement s'il vous plaît.
Bien sûr que vous vous avez raison, mais tout l'enjeu de ce type de conférence c'est que en tant qu'enseignant, on se demande qu'est-ce qu'on va faire avec ces outils. De même, en tant qu'artiste,
ces outils. De même, en tant qu'artiste, on nous dit une machine a fabriqué un tableau qui a gagné tel concours ou qui a été dans mon université, il y a un
collégium qui s'appelle Obvious qui a fabriqué un un tableau qui a été acheté 438000 dollars en 2018. Est-ce que ça c'est vraiment une production artistique
intéressante ? En revanche, il y a des
intéressante ? En revanche, il y a des artistes qui utilisent l'intelligence artificielle pour faire des choses très intéressantes. Par exemple, il y a il y
intéressantes. Par exemple, il y a il y a une une poétesse qui fait des trucs très drôles. Il y a
très drôles. Il y a des graphistes et cetera. Donc il y a ces modes d'appropriation de l'intelligence artificielle et je pense que tout l'enjeu c'est vraiment de ne pas utiliser les outils tels quel mais
de les utilis qui est une démarche scientifique qui est une démarche pédagogique. Et ça ça va être je pense euh le défi qui nous sera lancé dans les années qui viennent.
Mais merci. Il y avait une autre question ?
Bonjour euh Thierry Tolot. Je suis
maître d'école au 315 rue de Charenton dans l'Amie de Paris. Euh donc moi, j'utilisais pas l'IA jusqu'à maintenant.
J'ai un collègue qui a qui est deux fois plus jeune que moi, 30 ans, qui l'utilise pour un usage que vous avez dénoncé, c'est-à-dire les les commentaires trimestriels.
Et je vais pas je vais pas citer son nom.
Et je me suis dit c'était une bonne idée parce que moi on m'a reproché finalement d'avoir utilisé mon intelligence naturelle pour euh intégrer des commentaires parce que je
travaille à plusieurs sur pour un même élève par exemple. Ma question euh c'est que oui, j'ai coécrit avec du mal la grande improvisation numérique pendant
le Covid. Ma question c'est que c'est le
le Covid. Ma question c'est que c'est le développement c'est une révolution et en tant que français on sait que les révolution parfois on coupe un peu les
têtes. Euh le problème il y a une
têtes. Euh le problème il y a une centaine de classes qui vont [raclement de gorge] qui vont être qui vont plus avoir lieu l'année
prochaine.
Il y a la restructuration avec le LIA.
Est-ce qu'on va euh anticiper euh cette restructuration des c'est-à-dire qui aura besoin peut-être de moins d'enseignants où est-ce qu'on va improviser, on va la subir, c'est ça ?
C'est comment on va euh au niveau du personnel faire en sorte que on va accompagner cette transformation au niveau des ressources humaines.
Voilà. Merci.
Oui, je vous remercie de cette question.
Alors bien évidemment ça de demanderait une réponse très longue mais bien sûr l'enfer se cache souvent chez derrière les bonnes intentions. Alors vous avez
vu he je suis dans comité d'éthique de de France travail hein et ils ont décidé au début de mettre quelques outils d'intelligence artificielle et puis ils ont été pris d'une frénésie. Alors
maintenant, il y a énormément d'outils d'intelligence artificielle et ils nous disent "Ah ben, on va gagner du temps parce que comme ça, on va permettre aux personnes de se consacrer plus à
l'humain hein c'est-à-dire à l'échange avec les autres. Et on en est pas du tout certain." C'est
justement ce qu'on essaie de leur dire.
Faites attention. et et bien sûr, c'est c'est l'enjeu et en même temps, le directeur de France Travail que j'ai vous lui rencontrez justement pour lui parler de nos inquiétudes euh m'a avoué quand même que les budgets étant réduits
hein, il y a 500 personnes en moins.
Donc on a bien l'impression et la crainte que les gains de productivité que l'on fait avec l'intelligence artificielle plutôt que de redonner la possibilité aux personnes d'exercer
mieux leur métier vont servir à rembourser [rires] rembourser à à limiter le nombre de personnes. Donc
ça fait partie des des enjeux je crois qui sont inquiétants. Il y a pas que ça bien sûr,
inquiétants. Il y a pas que ça bien sûr, je crois qu'il faut mais mais il faut il faut se demander qu'est-ce qu'on veut faire avec. C'est pour ça que voyez moi
faire avec. C'est pour ça que voyez moi j'avais rencontré un proviseur qui nous disait ce que j'ai évoqué tout à l'heure, il utilise l'intelligent artificiel pour pour les courriers, pour les échanges.
Al déjà les échanges, moi je trouve que quand même on peut on peut se fendre quand on est enseignant d'écrire pour les parents, hein. Alors bien sûr la meilleure l'idée c'est ah ben les parents qui sont éloignés de de du milieu de l'éducation, ça va les aider.
Mais bien sûr, ça donne quand même des échanges beaucoup plus froids, hein. Euh
et puis ensuite, ils disent "Bah pour des gestes pédagogiques comme écrire des QCM, comme corriger des copies." Alors
là, bon on on se met à avoir peur, hein.
Et puis effectivement, hein, ce que j'ai évoqué tout à l'heure, hein, euh remplir les bulletins scolaires. Et moi, j'ai on avait euh un prof de musique qui avait plein de bulletins scolaires à remplir et qui a dit "Moi, c'est super, je fais
ça avec Chat GPT." Et bon, nous on lui a expliqué que c'est un geste pédagogique, mais justement je crois qu'il faut en tant qu'enseignant se demander qu'est-ce qui relève de notre activité pédagogique. Et donc ça et ben on ne
pédagogique. Et donc ça et ben on ne doit pas le déléguer à chat GPT. En
revanche, il se peut que sur certains euh secteurs, on puisse avoir des solutions pédagogiques nouvelles avec l'intelligence, pas nécessairement avec CHGPT, hein. Je pense que he par exemple
CHGPT, hein. Je pense que he par exemple pour en math pour faire la démonstration, ça peut être très intéressant pour renseigner ce que c'est et cetera hein. Donc c'est mais je pense que c'est vraiment à nous d'être intelligent avec les outils
d'intelligence artificielle et pas de laisser l'intelligence à la machine.
Une question encore ?
Bonjour à tous. Bonjour monsieur
Ganatien. Benoît Poupo, professeur aux sources des troubles de la fonction visuelle du rectorat. J'avais une double question, al je vais être assez précis.
Euh quelle part des entreprises privées dans la recherche et dans la réalisation des IA et celles du public au niveau historique et quelles incidentes dans la recherche entre les fonds privés et
fonds publics au niveau de l'éthique ?
Je vous remercie de cette question que j'ai pas eu le temps d'aborder hein lorsque moi j'ai commencé à faire de l'intelligence artificielle he c'était dans dans nos petits labos hein Rajac
est derrière il s'en il s'en il s'en souvient et on commençait à voir des liens avec des industriels et puis ensuite en particulier avec le web et puis surtout avec l'idée d'exploiter des
trop grandes masses de données hein ce sont les laboratoires des grands groupes industriels qui ont pris une part majeure hein Donc, quelle est la part qui nous reste en tant qu'universitaire ? C'est une question ouverte parce que
? C'est une question ouverte parce que si on est sur les les secteurs sur lesquels ces gros groupes travaillent, ben on n pas du tout de temps en tant qu'universitaire pour le faire hein. Et
donc c'est c'est un gros problème. Mais
ce qu'il y a derrière hein, c'est la question centrale, c'est que la l'importance que prend l'intelligence artificielle dans le monde fait que les groupes industriels qui fabriquent ces
outils, qui les maîtrisent prennent une place dominante.
On avait un philosophe italien Luciano Floridi en anglais, il disait c'est les informational organism contracté en inforg ce qui est pas très joli. En
français, moi j'ai traduit ça donne organisme informationnel sont les réseaux les les réseaux sociaux, les moteurs de recherche et cetera. Les
possesseurs de ces organismes informationnels ont un poids de plus en plus important. Alorsin, c'est très joli
plus important. Alorsin, c'est très joli parce que en français, je vous le dis he, je sais pas si vous savez ce que c'est un orin. Non, personne personne ne fait personne n'est marin. Voilà, un
orin c'est quoi hein ? C'est la le cordage qui relie la bouée de surface et l'encre de fond. Et ben, ce sont ces intermédiaires qui prennent une place de plus en plus importante et les
possesseurs de ces intermédiaires euh euh prend une une place très très grande. Et si vous regardez, il voudrait
grande. Et si vous regardez, il voudrait assumer à la place des gouvernements un certain nombre d'attributs de la souveraineté. hein, c'est ce qui se
souveraineté. hein, c'est ce qui se passe. Euh alors aux États-Unis, vous
passe. Euh alors aux États-Unis, vous avez un pouvoir central qui est devenu très très fort, mais vous avez des conflits entre le pouvoir central et ces grands acteur. Par exemple, ce qui
grands acteur. Par exemple, ce qui arrive avec Dario à Modil est tout à fait révélateur aujourd'hui. Mais bien
sûr, le problème, c'est qu'en Europe, alors là, ils ont aucun contrepoids, hein. Et lorsque par exemple une
hein. Et lorsque par exemple une ministre de l'éducation, je ne donnerai pas son nom hein, au moment où on votait la loi pour la République numérique hein et on disait qu'il fallait utiliser des
outils non propriétaires, a fait des formations très généreuses he par une grande société américaine Microsoft hein aux enseignants avec donc ces ces outilsl. Donc bien sûr ce
sont des enjeux majeurs. Je pense qu'il faut qu'on ait confi conscience pardon de ces enjeux et des enjeux de souveraineté. J'insiste le concept de
souveraineté. J'insiste le concept de souveraineté, c'est un concept de philosophie politique et c'est pas le souverainisme hein, c'est la liberté.
C'est-à-dire que hein la constitue français, le peuple français est souverain, hein, ça a un sens très précis et donc il faut essayer de revendiquer ça dans le futur. Ça va être très difficile mais je pense que je vous remercie de votre question pour cette
raison.
Merci beaucoup Jean-Gabriel Gana.
[applaudissements] [musique] Oh.
Loading video analysis...