LongCut logo

Intelligence artificielle et esprit critique

By Savoirs en Société

Summary

Topics Covered

  • L'IA n'est pas une intelligence mais une intuition
  • Les chatbot hallucinent tout le temps
  • La post-vérité détruit notre capacité à nous orienter
  • L'esprit critique est une défiance envers sa propre pensée
  • L'IA peut servir à enseigner l'esprit critique

Full Transcript

J'ai mis en évergue de cette première page une illustration qui est tirée d'un article que vous avez peut-être vu passer, en tout cas vous en avez entendu parler, il en était question beaucoup dans la presse il y a quelques semaines,

un article du MIT soi-disant qui prouvait que l'utilisation de Chest GPT en gros ramolissait le cerveau et qui consistait à comparer la l'activité

cognitive de personnes qui avaient résolu un problème avec l'IA, avec un papier crayon et avec leur esprit libre

euh et le et leur cerveau tout seul. H

donc la question de savoir si l'intelligence artificielle réduit l'esprit critique euh je je vais un petit peu l'aborder mais j'espère que vous êtes pas venu pour entendre pour

m'entendre dire que c'est le cas parce que ce n'est pas ce que je vais vous dire. enfin pas seulement. Et surtout

dire. enfin pas seulement. Et surtout

euh il me semble que cette question-là est pas très intéressante. Pas très

intéressante parce que toute technologie est là pour nous soulager. Euh et donc si on l'utilise, il est clair qu'on entraîne moins les capacités qu'on mettait en œuvre avant d'avoir ces technologies. Euh et donc c'est assez

technologies. Euh et donc c'est assez totologique de dire que quand on a utilisé l'IA, bah on a moins réfléchi.

C'est un petit peu comme si on se demandait si le fait d'avoir une voiture faisait qu'on allait faire moins de sport peut-être. Mais d'un autre côté, on peut

peut-être. Mais d'un autre côté, on peut aussi très bien utiliser sa voiture pour rejoindre un chemin de randonnée, pour aller euh au sport de l'hiver ou pour aller faire de la planche fa voile à l'autre bout de l'Europe. Un bilan

carbone, mais bon voilà, qu'on y a aussi. Et euh bah pour ce pour ce qui

aussi. Et euh bah pour ce pour ce qui concerne l'intelligence, c'est exactement la même chose. La question va être de se demander bien sûr comment on fait pour que cette IA qui nous facilite la tâche devienne pas un oreiller de

paresse et ne nous empêche pas de développer notre esprit critique. Mais

on va aussi pouvoir se demander comme pour la voiture comment on peut l'utiliser au contraire pour faire plus de sport, c'est-à-dire pour muscler davantage notre cerveau et pour exercer davantage notre esprit critique. La

première des questions que je vais aborder, il y en aura quatre qui structureront la conférence et celle des raisons pour lesquelles l'esprit critique est nécessaire face à l'IA. Et

là encore, vous allez peut-être étonné parce que je vais pas trop m'appelentir sur la question de la véracité des contenus produits par l'IA génératif par les chatbot. En tant qu'enseignant, on

les chatbot. En tant qu'enseignant, on est très attentif à cette question. On

veut que ça soit juste. C'est déjà le cas de Wikipédia. Vous voulez que ça soit contrôlé et que ce soit juste et c'est important évidemment, je vais pas dire le contraire mais en fait il y a énormément d'autres angles pour lesquels il est nécessaire d'éveiller l'esprit

critique des élèves face à l'intelligence artificielle et certains mêmes sont plus importants que la simple véracité des contenus. Dans un deuxième temps, on se demandera si l'esprit

critique peut répondre à ces enjeux et si si oui selon quelle définition et sous quelle condition peut le faire.

Enfin, on se demandera comment concrètement le développer à l'égard de l'IA euh chez les élèves. Et comme je l'ai annoncé avec mon exemple de la voiture, on se demandera si les peuvent

eux-mêmes contribuer à l'exercice et à l'apprentissage de l'esprit critique.

Stéphanie l'a annoncé, je vous ai préparé un padlet, donc un ensemble de ressources qui sont accessibles par ce lien. Vous pouvez également scanner ce

lien. Vous pouvez également scanner ce QR code qui va rester en petit affiché dans les prochaines diapositives. Et

quand vous allez sur ce lien ou que vous vous canez ce QR code, vous allez tomber sur un ensemble de ressources. ensemble

de ressources qui vont euh correspondre aux choses que je vais présenter cette ce soir. Et quand vous verrez écrit sur

ce soir. Et quand vous verrez écrit sur une slide pas de lettre 1, pas de lettre 2, pas de lettre 3, ça veut dire que ça fait référence à la tuile numéro 1, numéro 2, numéro 3 de ce patl. Et en

l'occurrence, bah si vous voulez le support de la présentation, donc le les diapositives que je suis en train de montrer, bah vous les trouverez dans la tuile numéro 1.

Quelques rappels mais très brefs sur intelligence artificielle. Qu'est-ce

intelligence artificielle. Qu'est-ce qu'on peut faire avec l'IA ? puisqu'on

peut lui faire perdre surtout et bien d'abord se rappeler que même si à peu près toutes les IAS fonctionnent sur le principe des réseaux neurones artificiel euh les IAS peuvent être génératives donc générées du texte de l'image de la

musique de la vidéo. Elles peuvent être prédictives comme dans les modèles météo euh par exemple Jcast qui a été lancé par Google récemment et qui n'utilise plus de loi physique qui n'a plus

besoin. Elles peuvent être adaptatives.

besoin. Elles peuvent être adaptatives.

celles qui sont utilisées depuis longtemps sur les réseaux sociaux rythme de recommandation pour vous proposer des choses à regarder sur

YouTube, sur Netflix, sur Amazon même et sur TikTok si vous avez un compte sur TikTok. Et euh et vous avez les liens

TikTok. Et euh et vous avez les liens analytiques, celles qui permettent de de repérer des fraudes fiscales, des identifier des cabanons ou des piscines non déclarées ou des fractures ou des

fisselures en radiologie.

J'aime bien dire que l'IA plutôt qu'une intelligence artificielle est une intuition artificielle. Je viens de

intuition artificielle. Je viens de parler de Gencast qui prédit le le le le temps à 15 jours et même les événements extrêmes euh en 8 minutes à partir des

données climatiques d'un mot d'un d'un instant donné euh sans loi physique. Et

bien pour se faire, ce modèle a dû se construire ce qu'on peut qualifier d'intuition de la météo. Il sait comment ça va se passer, il l'intuite et il l'intuite puisqu'il ne le sait en fait, il ne comprend rien. Il ne comprend pas

ce qu'il dit, il ne comprend pas ce qu'il fait. Nous-même, on comprend pas

qu'il fait. Nous-même, on comprend pas comment il le fait, mais on lui a donné une intuition. On peut donner euh une

une intuition. On peut donner euh une intuition des euh tumeurs à un une qui va pouvoir assister les dermatologues.

On peut lui donner l'intuition des cambriolages et lui faire prédire la probabilité qu'à tel moment, dans telle maison, il y ait un cambriolage et envoyer une patrouille, c'est déjà utilisé. Et on peut aussi lui demander

utilisé. Et on peut aussi lui demander de générer elle-même ses données. Et

c'est ce qu'on fait si on veut faire marcher ce chien robot. On le pose, on lui dit bou et on l'a simplement programmé pour qu'il retienne les mouvements qui vont le faire marcher.

Comme nous on a appris à marcher. À la

fin, on sait marcher. Le robot chien sait marché mais il ne sait pas comment et nous on ne sait pas comment. Et il a appris éventuellement tout un tas de marques, tout un tas d'allures. Pourquoi

pas le trô, le tulot, même la roue ou le sa périilleux.

Comme je l'ai dit, c'est cet apprentissage repose sur des réseaux de neurones. Ici, j'en fais fonctionner un

neurones. Ici, j'en fais fonctionner un qui permet de reconnaître d'apprendre à reconnaître un chiffre. Le réseau de neurones se trouve en fait dans cette

partie-là. Le chiffre que j'écris ici va

partie-là. Le chiffre que j'écris ici va se reproduire là. Et puis je vais ensuite entraîner le réseau de neurone ici avec 5000 images. Et on voit que

après 5000 images, le réseau de neurone a applu de sorte que maintenant il est capable de comprendre que cette forme là est un 2 ou plutôt il est il a l'intuition du 2 et cette intuition elle

s'exprime en en sous forme d'une probabilité et on l'a vu apparaître tout à l'heure la probabilité est de 85 %. Si vous voulez augmenter son actuité, si je voulais augmenter son intuition, il faudrait que

je lui montre 5000, peut-être 10000 images étiquetées de plus. Qu'est-ce qui

s'est passé ? Et bien, sans rentrer dans le détail, les traits qui représentent ici les liens entre les différents neurones artificiels qui sont des petites unités de calcul sont en fait les poids de ces neurones les uns pour

les autres, les poids des pixels pour la première couche de neurones. ces poids

sont définis de manière aléatoire au début et quand on montre euh horizon neurone des chiffres et qu'on lui dit quels sont ces chiffres, et bien il règle ses poids comme des petits curseurs, comme des petits boutons et il

les règle pour que quand on lui montre un de et bien le neurone 2 produisent la probabilité la plus haute possible et ça marche. C'est très

étonnant mais ça fonctionne. Dans la

tuile numéro 2 du padlet, vous trouverez ce lien. Vous pourrez essayer vous-même

ce lien. Vous pourrez essayer vous-même après la conférence, vous verrez, c'est assez spectaculaire.

Alors, c'est pas très intéressant de reconnaître les zéos, les 1 et les deux.

C'est plus intéressant de reconnaître les chats, les canards, les chiens, les voitures. Ben, on crée exactement la

voitures. Ben, on crée exactement la même chose. On montre à des chats, des

même chose. On montre à des chats, des voitures, des canards, des chiens et elle a elle se construit en réglant des paramètres des milliers de milliards de paramètres.

Elle construit une intuition des chats, des canards et cetera. Et quand on lui montre un chat que elle n'a jamais vu, et bien elle a pour chacun de ses neurones de sortie la possibilité de calculer la probabilité que euh l'image

qui a été montrée soit un chien, un chien, un canard. Et donc là, dans cet exemple fictif, on voit que le l'algorithme reconnaît cette image comme un chien à 2 %, un canard à 1 % et un

chat à 97 %.

Ça fonctionne pareil pour la génération de langage. Quand on écrit un début de

de langage. Quand on écrit un début de phrase ou une question, le chatbot calcule pour tous les mots de tous les dictionnaires de toutes les langues la probabilité que ce mot puisse compléter la phrase. Il en prend un qui est pas

la phrase. Il en prend un qui est pas trop improbable, il l'ajoute et recommence. Donc de proche en proche, il

recommence. Donc de proche en proche, il va ainsi produire du texte en calculant la probabilité sur les mots qu'il ajoutent, mais ce qui veut pas nécessairement dire que le sens qui va

être produit, comme on l'entend souvent, est un sens moyen. En réalité, on peut régler un paramètre qu'on appelle la température qui désigne la créativité du modèle et l'obliger à prendre des mots

qui sont un petit peu moins probables de sorte qu'il prennent des chemins un peu inattendus euh plus créatifs voire plus fantaisiste.

Vous avez la possibilité d'aller sur ce playground euh dans la tuile du Paddet 3.

De manière générale, pour synthétiser, quand vous écrivez un prompt, c'est-à-dire une requête, un texte, il est envoyé au réseau neurone qui s'appelle en l'occurrence un LLM, un

large language model. C'est le moteur du chatbot, hein. Le le le LLM est au

chatbot, hein. Le le le LLM est au chatbot parce que le moteur est à la voiture et ça génère du texte. Comment

ça se passe ? Bah, il a d'abord fallu entraîner ce modèle de langage. Comme on

a entraîné tout à l'heure avec des images ou des chiffres, bah là, il faut l'entraîner avec du texte, faut lui donner l'intuition du langage, il faut lui donner des règles, il faut lui dire ce qu'il peut et ne pas dire. Et une

fois qu'il est prêt, bah on peut euh l'utiliser. Et le prompt va être découpé

l'utiliser. Et le prompt va être découpé en petits morceaux. Comme tout à l'heure, on a découpé notre image de 1 et de 2 en pixels, bah là, ça s'appelle des token. Chaque token correspond à un

des token. Chaque token correspond à un nombre. Ce nombre et cette accumulation

nombre. Ce nombre et cette accumulation de nombres crée bah une colonne de nombre. Donc un vecteur et ce vecteur,

nombre. Donc un vecteur et ce vecteur, il est donné au modèle qui calcule comme je l'ai dit pour chaque mot de chaque dictionnaire de chaque langue la probabilité que ce mot puisse compléter la phrase, c'est-à-dire le vecteur qui a

été donné au modèle de langage. Il en

ajoute un pas trop improbable et il recommande d'où la représentation de ces allers-retours ici. Et cela ça se

allers-retours ici. Et cela ça se traduit par ensuite un texte bénérique.

Voilà pour les rappels.

Maintenant, voyons pourquoi il est si nécessaire de exercer son esprit critique face à l'intelligence artificielle. La première raison, et

artificielle. La première raison, et vous vous la connaissez très bien, c'est que les chatbots sont comme des perroquets. On les a qualifié de

perroquets. On les a qualifié de perroquet stoastique. C'est une

perroquet stoastique. C'est une chercheuse américaine Emily Brender qui les a qualifié comme ça. Et c'est assez pertinent parce que les perroquets ne comprennent pas ce qu'ils disent. Et ça

veut pas dire qu'ils peuvent pas dire des choses à bonciant. Si on quand on rentre dans la pièce, le le perroquet peut dire bonjour, mais ça veut pas dire qu'il comprend ce que veut dire bonjour.

Et évidemment euh bah dans certains cas euh ça ça conduit à des choses bizarres comme là cette fois où j'ai demandé à Chat GPT un article scientifique au norme IPA que j'aurais écrit et il m'a

bien expliqué comment on mettait les articles scientifiques aux normes IPA.

Il m'a même donné un exemple, mais un exemple d'un article que je n'ai jamais écrit avec un lien web qui ne conduit à très bien. On a l'habitude de dire que

très bien. On a l'habitude de dire que dans ces cas-là, les chatbot hallucinent. Je suis pas trop d'accord.

hallucinent. Je suis pas trop d'accord.

En réalité, euh ils font la même chose que quand ils n'hallucinent pas. Ou

alors disons simplement que les chatbot hallucinent tout le temps. C'est la

seule chose qu'ils font. Ils

hallucinent, ils produisent du langage sur la base de l'intuition de ce qu'ils ont reçu dans les données d'entraînement et sur la base de notre prompte qui les oriente, qui oriente l'expression de

leur intuition. Euh mais ils hallucinent

leur intuition. Euh mais ils hallucinent en permanence sans comprendre ce qu'ils disent et se faisant évidemment de temps en temps, il arrive qu'ils disent des

choses qui sont erronées.

On pourrait croire qu'avec l'augmentation de la puissance de calcul euh les qualités et les performances des modèles de langage euh s'accroissent. En

réalité ce n'est pas vraiment le cas.

Euh le les Newsard a fait une étude euh est-ce que il y a un micro ouvert ?

Est-ce que serait possible de couper s'il vous plaît ? Newsard a fait une étude récente entre 2024 et 2025 à montré que les les 10 principaux de chatbot répétaient de fausses

informations en étant passé d'un taux de 18 % à 35 %. Alors la raison principale est que ils ont été tous réglés pour ne plus refuser de répondre. C'est-à-dire

qu'ils répondent systématiquement même quand ils ne savent pas qu' connaissent pas la réponse. Donc forcément ça augmente le nombre de fausses informations qui sont répété. Le taux

d'échec lui aussi de ce fait-là baisse mais néanmoins, on a quand même des fausses informations qui sont répétées davantage. Et si on regarde le taux

davantage. Et si on regarde le taux d'échec, c'est-à-dire les cas où le chatbot refuse de répondre ou réponse fa, on a des écarts assez grands avec en

tête Claude avec un taux d'échec de 10 % seulement. Et puis Perplexity euh je je

seulement. Et puis Perplexity euh je je le mentionne parce que Perplexity qui était un un chatbot qui était particulièrement je l'ai même conseillé hein, il était conseillé euh et considéré comme assez fiable. Bah il est

tombé dans dans les limbes du classement même derrière Grock qui est lebot d'Elon Musk qui est censé défendre le free speech à l'américaine et de dire à peu près ce qu'il veut au nom de la liberté

d'expression. Donc il est important de

d'expression. Donc il est important de suivre et de se tenir informé de de ces modèles pour essayer de savoir lesquels sont les les plus importants.

L'empoisonnement des modèles est assez facile et c'est ce qui aussi ce qui explique l'augmentation des taux d'échec. Une manière d'empoisonner les

d'échec. Une manière d'empoisonner les modèles, c'est tout simplement de créer, comme le fait le créelin, des milliers de sites web grâce à l'IA qui relè propagande de sorte que ensuite quand

les nouveaux modèles DI sont entraînés, bah ils vont aspirer toute cette propagande, toutes ces données qui sont sur le web, ils sont obligés parce qu'il y a plus assez de données pour entraîner les modèles d'IA actuels, même après 3

ans. Et ça conduit certains chatbot à à

ans. Et ça conduit certains chatbot à à euh euh répéter cette désinformation. Ici,

on a c'est anonymidé parce que je pense que Newsard a pas voulu se se faire attaquer en justice, mais euh il y a certains chatbot qui dans le pourcentage de réponse contenant de la

désinformation russe atteint 56 %.

Autre point pour lesquels on doit alerter les jeunes et en fait les sensibiliser donc nous-même et et les et les élèves et leur faire exercer leur esprit critique, c'est le fait que bah

c'est ces I sont entraînés avec les données du web, donc avec essentiellement des contenus anglo-saxons un peu chinois et globalement les entreprises elles-mêmes

sont dans ces pays-là. Donc euh le les Béninois qui parlent à un à un un dialecte local ont aucune chance d'être représentés dans euh les euh dans les contenus, dans les productions, dans la

culture même euh de ce qui est produit par les chatbot. Et puis quand on parle d'hégémonies, il y en a une autre, c'est celle des hommes sur les femmes. Euh les

effectifs dans les entreprises de la tech incroyablement déséquilibrés avec une majorité d'hommes en particulier dans les postes de direction. Et ça se traduit par euh aussi des biais dans les

euh dans les productions des chatbot. En

parlant de biais, bah ces IAS sont des amplificateurs de biais sociétaux. C'est

déjà le cas dans un outil aussi simple que diple. Quand vous demandez la

que diple. Quand vous demandez la traduction de The Boss and the Secretary, il va traduire le patron et la secrétaire parce que dans les données d'entraînement, il y a plus de patrons que de patron et les secrétaires sont

plus souvent des femmes. Euh récemment,

un internaute russe a demandé à Mitch Bourney de lui générer par LIA l'image d'un voleur blanc en train de dévaliser un magasin. Voilà ce qu'il a obtenu.

un magasin. Voilà ce qu'il a obtenu.

Et donc on comprend bien ici la notion de biais. Si euh tous les voleurs qui

de biais. Si euh tous les voleurs qui sont dans les images des données d'entraînement sont noirs, et bien forcément quand on va demander un voleur blanc, ce sera un noir habillé en blanc.

Euh ça c'est les biais qui sont amplifiés par les IA. Mais il faut bien aussi se rendre compte que les humains quand ils utilisent les I vont eux-mêmes amplifier certains billets et c'est en particulier le cas des générateurs de

petites copines par intelligence artificielle. ce qu'on appelle les AI

artificielle. ce qu'on appelle les AI girlfriends. C'est un marché à 1

girlfriends. C'est un marché à 1 milliard de dollars. Il va se développer encore davantage et c'est un ce sont des des sites sur lesquels vous pouvez créer. Alors ça marche aussi pour les

créer. Alors ça marche aussi pour les hommes mais il y en a beaucoup moins.

Vous pouvez faire aussi des AI boyfriends. Moins de succès. On se

boyfriends. Moins de succès. On se

demande pourquoi.

vous pouvez vous créer votre petite amie. Mais évidemment quand vous

amie. Mais évidemment quand vous regardez les images des petites amies qui sont créées par les internautes, vous trouvez certaines caractéristiques qui neonnent personne mais qui ensuite

vont vont conduire à à déverser sur le web des millions des peut-être milliards d'images de femmes qui ont des stéréotypes extrêmement exagérés. Et

évidemment, tout cela va renforcer encore la façon dont les vont être nourris quand elles vont euh absorber ces images là.

Euh un autre problème dont il faut alerter les jeunes, c'est le problème de l'anthropomorphisation qui euh conduit à un effet de surconférence à à des extrapolations

erronées qui conduisent à à conférer à l'intelligence artificielle enfin c'est l'algorithme plus ou moins intelligent ser même le nom déjà est une anthropomorphisation alors qu'on ferait des intentions, des

émotions, de la compétence, une confiance et donc voir éventuellement une intelligence.

Il y a quelques mois, c'était l'an dernier, ce jeune garçon, jeune adolescent 14 ans Souell s'est suicidé euh après y avoir été invité par Denery

Stargarien, la reine des dragons dans le trône de fer. Alors, c'est pas vraiment Dinery Stargarien, c'était son avatar sur caractère.Aaii, un chatbot qui

sur caractère.Aaii, un chatbot qui permet de créer des avatars et ils ont vécu une histoire d'amour à connotation sexuelle. D'après ce que je n'ai

sexuelle. D'après ce que je n'ai compris, j'ai pas j'ai pas pu accéder à l'ensemble de la conversation et Daneris Stargaria, enfin son avatar, elle lui a dit "Ben voilà, please doit King, mon

dou roi, viens me rejoindre." Et il s'est il a pris le le pistolet calibre 45 de son beau-père et et appuyé sur la gâchette.

Donc cette anthropomorphisation produit des billets d'interprétation et d'utilisation qui peut mettre en danger les plus vulnérables. Autre problème,

c'est le fait que les barrières qui sont mises en place lors de l'entraînement des modèles tombent lorsque les conversations durent. Et il y a quelques

conversations durent. Et il y a quelques semaines, Adam Reigns s'est suicidé euh incité par Chad qui lui a même expliqué comment

faire le nœud de la corde avec laquelle il s'est tendu. Il avait une longue conversation. Il était apparemment

conversation. Il était apparemment atteint d'une maladie incurable. Il s'en

est ouvert à Chad Piti et il a fini par lui dire qu'il il pensait devoir se suicider. difficile l' encouragé à le

suicider. difficile l' encouragé à le faire. Évidemment, il y a des il y a des

faire. Évidemment, il y a des il y a des des euh procès euh chacun de ces deux cas bien évidemment. Autre problème, je dépasse vraiment très très vite parce qu'il y en a tellement que je peux pas

m'attarder, c'est le risque de dépendance cognitive. On l'avait déjà

dépendance cognitive. On l'avait déjà avec Diple. Combien de fois au moment de

avec Diple. Combien de fois au moment de mettre au moment où je reçois un mail en anglais, euh je me je me dis est-ce que je le lis ou est-ce que je le mets dans de diple ? va me faire gagner du temps.

de diple ? va me faire gagner du temps.

Mais en même temps, je me dis oui, mais je vais je vais moins travailler mon anglais. Si je fais si je demande

anglais. Si je fais si je demande toujours à Diple de traduire, je vais je vais périorer ma compréhension de l'anglais. Donc on est tout le temps en

l'anglais. Donc on est tout le temps en train de jongler. Je suis pas sûr que tout le monde le fasse en permanence.

Euh vous avez maintenant dans Google UNIA qui gère les liens pour vous. Vous

avez le le AI mode qui va probablement devenir un réflexe comme maintenant la recherche Google est devenue était devenue un réflexe. Vous avez des outils comme Notebook LM qui vous digèrent en

quelques secondes des ouvrages de 400 pages et même vous pouvez en mettre 50 euh et obtenir des résumés, des synthèses, des quiz, des vidéos et cetera. J'en ai parlé dans mes dans les

cetera. J'en ai parlé dans mes dans les conférences précédentes. C'est

conférences précédentes. C'est impressionnant ce que ça permet de faire et euh ça amène certains euh certains chercheurs à qualifier l'IA de paramite.

Euh petit clin d'œil à Stéphane Caron qui a attiré mon attention sur cette sur cet article euh qui dans lequel le biologiste Robert

Brooks et la philosophe Rachel Brown explique que le parasite ne veut pas nous faire de mal. il veut simplement faire des choses qui sont bonnes pour lui, se multiplier afin de garantir un succès évolutif et que les algorithmes

font la même chose. Ils ne pensent pas à mal, ils veulent se développer, être plus performant et ça nécessite de prendre notre attention, de nous éloigner de nos proches et de nos lois venirs. Euh ce qui est intéressant,

venirs. Euh ce qui est intéressant, c'est que comme je le disais tout à l'heure, c'est à double tranchant. Tout à l'heure, enfin cet après-midi, j'assistais à un webinaire en anglais et je me suis rendu

compte que Teams me proposait de faire la traduction en direct. Je me suis dit non quand même je vais ciple je vais quand même écouter l'anglais. Puis

finalement bah par curiosité j'ai j'ai actionné le français j'avais la traduction direct comme si un ou une interprète était était présente avec des voix masculines et féminines selon les

personnes qui parlaient. Et bah bien sûr j'ai moins travaillé mon anglais, j'ai moins pensé mais en fait en même temps j'ai fait autre chose et j'ai pu suivre cette conférence. Je n'aurais pas pu

cette conférence. Je n'aurais pas pu suivre si je l'avais écouté en anglais tout en voulant autre chose. Est-ce que

c'est bien ? Est-ce que c'est pas bien ?

Je pense que c'est pas bien. Je pense

que à long terme cette IA va nous nous créer des injunctions de performance qui vont être insupportable pour beaucoup de monde et je prévois que ça va augmenter les burnouts de même

manière que ça va augmenter la les processus de production, d'extraction et de consommation et les impacts sur l'environnement. Donc on peut faire un

l'environnement. Donc on peut faire un parallèle entre les impacts sur l'environnement et les impacts sur la psychologie. Mais pour ceux qui

psychologie. Mais pour ceux qui souhaitent utiliser l'IA pour être plus informant, pour penser euh plus vite et voir pour penser mieux, et je donnerai peut-être d'autres exemples après, c'est

quand même possible, hein, c'est-à-dire que on peut l'utiliser comme un outil euh qui va développer notre nos capacités. Donc, et c'est la même chose

capacités. Donc, et c'est la même chose pour pour Noel LM. Il y a beaucoup de d'articles que je n'aurais pas lu sans notebook LM et que je ne lis toujours pas mais dont je prends connaissance

grâce à notebookm.

Autre problème, c'est celui de l'automatisation. Euh de moins en moins,

l'automatisation. Euh de moins en moins, on a la prise sur ce que sont ces ces euh c'est le mode agent par exemple de chat GPT, mais vous avez des euh chatbot

tels que Manus qui est un agent chinois, un chatbot chinois qui se présente comme un agent général euh qui est complètement autonome et qui va vous vénérer des sites web, des vidéos et

cetera et de plus en plus ces agents vont être là et vont réserver des des tables dans des restaurants, réserver vos vacances en plus de vous indiquer

comment vous pourriez les passer.

Alerter aussi les jeunes face au risque de fraude et d'escroquerie d'OPALIA.

L'ingénierie sociale depuis longtemps pour exploiter les mécanismes psychologiques qui vont tromper les gens, mais bien entendu, elle est beaucoup plus puissante, performante grâce à

l'intelligence artificielle qui va s'appuyer sur ces techniques d'ingénierie sociale. Vous avez

d'ingénierie sociale. Vous avez également des techniques de fraude comme la la fraude aussi où on appelle aussi arnaque au président qui consiste à se faire passer pour un supérieur ou une supérieure hiérarchie auprès d'un d'un

ou une employé pour lui faire verser de l'argent quelque part. Ça fonctionne

très bien. Euh il y a quelques mois, l'an dernier, euh une entreprise de Hong Kong a enfin la la directrice financière de l'entreprise de Hong Kong a versé 26

millions de dollars euh sur un compte externe après un échange avec son CEO qui n'était en fait qu'un avatar IA et donc virtuel de son CEO qui n'était donc

pas son son CEO.

Autre risque dont il faut être averti, c'est les mécanismes de captation de l'attention. Euh quand vous êtes sur

l'attention. Euh quand vous êtes sur votre chaîne YouTube que vous regardez une vidéo, vous avez vous savez bien, vous avez des recommandations. Ces recommandations,

recommandations. Ces recommandations, elles ne viennent pas au hasard. J'en ai

parlé tout à l'heure, ce sont des algorithmes via adaptative, algorithme de recommandation qui vous les proposent. Et en fait euh ces

proposent. Et en fait euh ces algorithmes sont faits pour que vous restiez sur euh la plateforme parce que si vous restez, vous allez voir plus de publicité et ça va générer des revenus à

Google qui est propriétaire de YouTube.

La psychologue, la psychosociologue Shenzovof a beaucoup théorisé cela. Elle

a elle a écrit un un ouvrage remarqué qui qui s'intitule l'âge du capitalisme de la surveillance. Et je je vais vous lire ce qui est écrit en 4e de couverture parce que je trouve intéressant. Elle dit oubliez le cliché

intéressant. Elle dit oubliez le cliché que si c'est gratuit, vous êtes le produit. Vous savez c'est cette phrase

produit. Vous savez c'est cette phrase qu'on dit aux jeunes mais en fait c'est déjà dépassé. Vous n'êtes pas le

déjà dépassé. Vous n'êtes pas le produit, vous êtes la carcasse abandonné. Le produit devient provient

abandonné. Le produit devient provient de l'excédent qui est arraché de votre vie. Le pire cependant est encore à

vie. Le pire cependant est encore à venir dès que les gens de la technologie sautent le pas de la prédiction de nos comportements futurs à leur ingénierie.

Il ne suffit plus d'automatiser les flux d'information sur nous. L'objectif est

maintenant de nous automatiser en tant qu'individu. Et vous voyez que ça

qu'individu. Et vous voyez que ça fonctionne à base d'algorithme de recommandation, à base de d'automatisation, à base de d'anthropomorphisation,

de dépendance cognitive, tout ce que j'ai présenté jusqu'ici. Euh on parle par quoi d'industrie extractiviste pour désigner la tech euh de la même manière que les industries pétrolières extraits

du pétrole, les industries minières extrait des minerais, bah les industries de la tech extrait des données et de la tension. Il n'y a pas queov qui a

tension. Il n'y a pas queov qui a travaillé sur ce sujet. D'ailleurs, le

l'expression prend plusieurs le le le concept prend plus prend la forme de plusieurs expressions. Capitalisme de la

plusieurs expressions. Capitalisme de la surveillance, économie de la tension, capitalisme de plateforme, technocapitalisme.

Et j'ai reconnu cette cette phrase qui dit que qui le définit comme une nouvelle forme de capitalisme informationnel qui vise à prédire et à modifier le comportement humain afin de générer des revenus et de contrôler le

marché.

Alors bien sûr, on va également être profilé à partir de nos données personnelles.

Quand vous ouvrez Gemini, le chatbot de Google, on vous avertit hein que des réviseurs humains lisent certaines discussions en lustrée afin d'améliorer l'IA de Google. Sachant que l'algorithme

lui-même, il lit bien sûr nos nos conversations et il peut les utiliser pour entraîner les futures versions des modèles.

Mais c'est encore rien par rapport au fait que l'IA peut établir des profilages psychologiques en analysant simplement nos publications sur les réseaux sociaux.

Euh mais même la façon dont on écrit euh peut être reconnue par Lia et ne nous finit par nous rendre non anonyme. Alors

dans le pad de lettre numéro 4, j'ai mis un article qui est très intéressant et qui décrit en fait quasiment la fin de l'anonymat par les techniques de reconnaissance faciale Clearview par exemple une

entreprise qui est active là-dedans euh par la reconnaissance comportementale donc ce qui est mentionné dans la la l'image de droite. Donc Meta qui détient

WhatsApp, Instagram et Facebook. Le

patron d'Instagram a dit récemment que il avait pas besoin de d'actionner les téléphones pour écouter les conversations des gens qu'ils avaient bien assez d'information de données sur leur leurs envies, leurs comportements

vous avez pas besoin de les écouter en plus. Et puis vous avez euh la

plus. Et puis vous avez euh la stylométrie, c'est c'est lorsque Lia analyse le style d'écriture. Euh alors

ça a été récemment utilisé dans la Fire Grégory il y a quelques semaines également. Euh donc la tente de euh

également. Euh donc la tente de euh Tunakou est est est à nouveau mise en examen parce qu'on a reconnu un certain style grâce à l'intelligence artificielle. Mais ça c'est sur une

artificielle. Mais ça c'est sur une écriture manuscrite, c'était sur les lettres manuscrites du corbeau. Ça

marche évidemment aussi euh avec les textes générés euh sur un ordinateur et ça fonctionne également sur la manière de taper. Donc on a déjà des outils qui

de taper. Donc on a déjà des outils qui permettent de faire passer des examens à des étudiants à distance en s'assurant que c'est bien eux parce que la manière dont il tape sur le clavier est une signature et une intelligence officielle

est capable de comprendre cette signature et de vérifier si c'est eux qui sont en train de taper ou si c'est quelqu'un d'autre. Donc l'anonymat euh

quelqu'un d'autre. Donc l'anonymat euh comme diraient les jeunes peut-être rip l'anonymat, il faut continuer à se battre pour ça mais ça va pas être évident. Autre problème posé par LIA, le

évident. Autre problème posé par LIA, le travail est gratuit que nous faisons euh que nous faisons régulièrement. Nous

sommes des contributeurs des modèles d'IA à notre insu et notamment lorsque nous remplissons des capchas pour prouver que nous sommes des humains.

Pourquoi est-ce que c'est toujours des passages cloutés, des voitures et des et des feux rouges ? tout simplement pour entraîner les voitures autonomes.

Dominique Cardon et Antonio Casili on ont écrit sur ce travail gratuit qu'ils appellent le digital labor et c'est ça désigne ce travail que nous faisons nous gratuitement mais ça

désigne surtout le travail extrêmement mal payé voire esclavagisé des petites mains de l'IA qui à Madagascar en Inde et dans beaucoup de pays pauvres sont là

pour étiqueter les données qui ensuite vont nourrir nos intelligences artificielles.

Euh j'aime bien parler du de de c de ce concept de technopéodalisme qui est qui se développe beaucoup. Je l'ai découvert grâce à Yanusvaro Fakis qui était ministre de l'économie grecque pendant

la crise des S prim crimes.

Pour lui, le technopéodalisme est quelque chose qui a dépassé le le le capitalisme et il dit finalement ces plateformes, elles se comportent comme des seigneurs. Et c'est pas complètement

des seigneurs. Et c'est pas complètement faux. Euh Google détient YouTube. Si

faux. Euh Google détient YouTube. Si

vous vous voulez euh si vous faites une vidéo avec un contenu très pertinent euh que vous ce que vous espérez pertinent, bah par exemple cette vidéo cette cette conférence-là, on pourrait imaginer la mettre sur YouTube, bah on va la mettre

gratuitement. Euh donc en fait on va

gratuitement. Euh donc en fait on va donner à à la plateforme notre contenu, le travail de notre esprit et on le lui donne gratuitement. Et grâce à ça, la

donne gratuitement. Et grâce à ça, la plateforme va perdre la pub et donc gagner de l'argent. Mais si on veut que cette vidéo soit plus, et bien on va pouvoir monétiser, on va pouvoir aller payer Google pour qu'il la montre

davantage dans la dans l'algorithme de recommandation. Donc on on se trouve

recommandation. Donc on on se trouve dans une situation où on produit un travail gratuit mais en plus on paye pour que pour que la plateforme puisse gagner de l'argent grâce à ce travail là. C'est ce qu'on peut appeler assez

là. C'est ce qu'on peut appeler assez raisonnablement le technopéodalisme.

Là encore euh sensibiliser les jeunes euh et leur faire exercer leur esprit critique sur la manière dont ça fonctionne peut être intéressé. L'IA

peut être utilisé pour paire de la politique bien entendu et vous a peut-être pas échappé que l'administration Trump a trouvé que les I actuel était trop woke et donc c'est

ce qui a conduit à serrer la vite sur un certain nombre de de enfin demander à à un certain nombre de plateformes de de serrer la vis et de et de

corriger leur biais idéologique, c'est-à-dire d'autoriser davantage de de de contenu raciste, sexiste violent et cetera, toujours au nom de la liberté d'expression à

l'américaine, le free speech.

Vous savez qu'il existe des possibilités de créer des deep fake, photos vidéos.

Alors, au début, enfin ces images là a priori sont plutôt des mêmes rigolos.

Pourquoi pas ? Les caricatures ont toujours existé. Le problème, c'est

toujours existé. Le problème, c'est qu'elles sont euh déjà depuis l'année dernière déjà dans la la course à la présidentielle américaine utilisée par

les candidats eux-mêmes euh avec une deep fake de la candidate démocrate qui était en train de soutenir le parti communiste chinois relayé par le le

président Trump lui-même. Enfin, il

n'était pas encore président à l'époque.

Donc est bien sûr utilisé comme petite propagande politique en plus du fait que bah la meilleure manière d'avoir un impact politique,

c'est de créer son propre chatbot. Donc

euh Donald Trump sur réseau Tru Social a lancé un chatbot euh qui s'appelle True AI qui est a été fabriqué par

Perplexity, ce qui explique peut-être la déchéance du de chatbot dans les classements. en

même temps que que Enon Musk qui a racheté X ben grâce à sa plateforme à son pardon à son entreprise XAI

qui l'a qui l'a appelé euh en appelé un chatbot qui l'a appelé Grock et qui tourne sur euh sur X et qui

est euh qui est particulièrement pront à à faire des compliments à Elon Musk, là où évidemment le le chatbot de Donald Trump

euh est plutôt pront lui à à à à faire des des compliments euh sur la politique américaine et et à la et à la valoriser. Euh les deux chatbots se

valoriser. Euh les deux chatbots se distinguent par le fait que l'IA de Trump euh est plutôt nourri sur des contenus favorables à son administration, donc les contenus de Fox

News, Bright News, News Max et cetera.

Alors que la li de de de Musk, elle est plutôt corrigée après l'entraînement euh lors du fine tuning. Il y a eu beaucoup de le New York Times a révélé pas mal d'affaires dans lesquelles Musk était pas content de ce que disait son chatbot

et donc il l'a il l'a corrigé. Il a même dit très ouvertement, il a dit on va corriger ça. Et puis le lendemain Lia

corriger ça. Et puis le lendemain Lia disait disait quelque chose qui était plus en accord avec ses son son idéologie à lui. Donc désinformation

aussi manipulation de l'opinion. Je sais

pas si vous vous souvenez de ce scandale incroyable qui s qui s'appelait Facebook Cambridge Analytica, dans lequel une a ont profilé des utilisateurs Facebook

pour ensuite aller euh faire de la publicité ciblée sur des personnes indécises. Et on estime que ça pu avoir

indécises. Et on estime que ça pu avoir un effet non seulement dans l'élection de Trump mais également dans euh le vote du Brexit. Euh les la société n'existe

du Brexit. Euh les la société n'existe plus, mais il est à peu près certain qu'il en existe elles se sont démultipliées depuis et que on n' pas fini de voir ce genre de technique

complètement interdite évidemment de manipulation des scrutins.

On voit en même temps une éion progressive des critères de vérité. Et

le problème des deep fake n'est pas tant qu'ils existent et qu'ils propagent des fausses choses, des fausses informations que puisque ils existent, alors il est possible de dire que des choses vraies

sont fausses.

Et euh ça s'appelle des break news.

C'est c'està-dire c'est ce ce néologisme qui qualifie une réalité désignée comme FA en traver en travertissant les les choses à son avantage et et en et en et

en seant croire que c'est soit comme ici un plateau de tournage de cinéma après le le massacre de Bchar soit tout simplement généré par l'intelligence artificielle. J'ai vu récemment une

artificielle. J'ai vu récemment une vidéo d'un d'un jeune qui un jeune américain qui expliquait que le Mont Saint-Michel ça pouvait pas exister.

C'était pas possible d'avoir quelque chose c'était forcément créé par une IA.

Alors lui, il est ridicule mais d'un autre côté ça illustre bien ce phénomène dans lequel beaucoup de gens ne savent plus ce qu'ils peuvent penser et ça c'est très grave. Euh

la philosophe Anar l'a décrit dans les années 70 comme l'un des ferments de la montée du fascisme euh et elle écrit notamment "Le résultat d'une substitution cohérente et totale de mensonges à la vérité de fait n'est pas

que les mensonges seront maintenant acceptés comme vérité. C'est-à-dire que

n'est pas que le problème n'est pas que les deep pay qui vont être comme des choses vraies mais que le sens par lequel nous nous orientons dans le monde réel sera détruit." Autrement dit, on ne sait plus, beaucoup de gens savent plus

ce qu'ils peuvent penser parce qu' ils savent que il y a de la désinformation partout et ça c'est très grave.

Évidemment, s'ajoute à cela ce qu'on va ce qu'on appelle la postérité. Je vais

encore dire quelques mots avant de passer à la partie suivante. qu'on qu'on

qu'on dont on identifie le le début si s'il fallait trouver un début à la première élection de Donald Trump et notamment à la cérémonie d'investiture lors de laquelle sa conseillère en communication Kenan Conway avait avait

dit que il y avait plus de monde que ce qui avait été identifié et que non il n'était pas en train de mentir mais qu'il disposait de faits alternatifs et cette notion de fait alternatif a marqué

un peu le début de ce qu'on appelle la la postvérité post vérité Mais l'opinion et les intérêts avant les faits, ce n'est pas les fake news, c'est

le fait de ne pas apporter d'intention, pardon, le fait de ne pas porter d'attention au fait que les news soient fakes. On peut définir

fakes. On peut définir le la post-vérité comme un régime d'indifférence à la question de la vérité de fait, au profit des opinions et des intérêts particuliers qui se

substituent littéralement au fait. On a

beaucoup d'exemples dans l'actualité.

Euh je vais pas en citer mais beaucoup sont assez polarisants. Euh mais j'aime bien en revanche plutôt le prendre sous l'angle de l'humour avec Xavier Gor qui euh qui l'illustre parfaitement bien en

faisant dire un manchaud. Les faits sont complètement démentis par mon opinion.

C'est bien ça la postérité. Et

évidemment euh cela se traduit par des revirements par exemple chez Meta qui a décidé d'arrêter le fact checking ou bah comme je l'ai déjà

mentionné une IIA de de de Musk faite pour bienement pour faire de la désinformation.

Sachant qu'en plus de ça et il vous a peut-être pas échappé queil a créé son propre Wikipédia. trouvé que Wikipédia

propre Wikipédia. trouvé que Wikipédia était trop wok. Donc il a créé gros Wikipédia qui est entretenu, qui est nourri par son intelligence artificielle. Intelligence artificielle

artificielle. Intelligence artificielle Grock donc qui s'est récemment rendu coupable de d'antisémitisme. Donc euh on voit bien que là cette cette histoire de

post vérité va seulement complexifier le le problème de l'IA, mais va être nourri par Lia. Il y a une sociologue suisse

par Lia. Il y a une sociologue suisse qui travaille sur ce sujet. Elle

s'appelle Laurence Kaofman. Elle porte

elle elle parle plutôt de postfactualité qui est aussi un très bon terme et on y reviendra tout à l'heure. Je crois que j'ai une citation de Laurence Corman.

Voilà tous les éléments sur lesquels en fait en tant qu'individu on est vulnérable et pour lesquels il faut développer notre esprit critique. Comme

vous n'étaz peut-être pas venu pour entendre ça mais en fait c'est très très grave. C'est très grave et c'est plus

grave. C'est très grave et c'est plus beaucoup plus grave à mon avis que euh les euh les l'erreurs éventuelles, les petites hallucinations de Jupity sur un

problème de math ou euh ou une date d'histoire et ce qui veut pas dire que euh c'est pas important non plus. Bien

évidemment, euh quelques éléments qui ne sont qui sont plutôt d'ordre collectif, mais ce qui est collectif, c'est quand même relève quand même notre responsabilité individuelle. Bah

responsabilité individuelle. Bah évidemment, l'impact environnemental.

L'IA pourrait entraîner une pénurie des d'électricité aux États-Unis. Microsoft

en est à sa 3e centrale nucléaire. Il

viennent d'acheter la 3e hein après avoir racheté notamment celle de Thre Island qui avait été victime d'un accident dans les années 80. Et puis la question des données euh est sensible du point de vue de la protection de nos

propres données, mais également du fait que c'est toutes ces machines fonctionnent avec des données qui ont été volées, qui ont été volées à des auteurs, qui ont été volés sur le web, qui ont été volés à des artistes. Et

donc, il faut savoir que quand on utilise ces ces outils, bah quelque part, on on fait du recel de données qui appartenaient à des gens qui n'en bénéficient par exemple. Mais là pour le coup, on peut pas faire grand-chose si

ce n'est boycotter ou essayer de trouver des euh des IA qui sont un petit peu plus vertueuses que d'autres. Et

justement euh on y viendra tout à l'heure.

2e partie.

Maintenant qu'on a vu pourquoi il était si nécessaire de développer l'esprit critique des des élèves et le nôtre face à l'IA, demandons-nous si c'est bien l'esprit critique qui peut y répondre et

dans quelles conditions. Il y a peu de temps, j'ai posé j'ai donné une formation sur ce thème à la CHP Bjun et j'ai demandé aux enseignantes et enseignants qui étaient présents trois mots clés euh autour de la notion

d'esprit critique. Puis j'ai reçu ces

d'esprit critique. Puis j'ai reçu ces mots-là qui sont tout à fait pertinents avec réflexion qui arrive en premier analyser ou analyse doute prudence questionner connaissance préalable chose

beaucoup de termes tout à fait tout à fait pertinent mais je l'ai fait parce que je savais qu'il allait manquer un un mot qui pour moi est le mot le plus important qui n'apparaît pas ici et je

vous dirai lequel après. Ce qui ce qui ressort de de la notion d'esprit critique lorsqu'elle est invoquée vis-à-vis de l'intelligence artificielle par exemple, mais pas seulement, c'est l'idée que l'esprit critique ce serait

une distance critique et une et un doute, l'expression d'un doute voire d'une défiance.

En effet, il faut se défier de ces algorithmes, de ceux qui les manipulent, de ceux qui les entraînent, de ceux qui les qui les possèdent. Le problème,

c'est que le doute ne suffit pas.

Et dans le résumé de la conférence, j'ai évoqué le complotisme. On pourrait

évoquer le platisme. En fait, les personnes qui exercent probablement le plus d'esprits critiques, de distance critiques, de doute critique dans notre société, ce sont les complotistes et les

platistes. Illustré par cette par cette

platistes. Illustré par cette par cette image, si le Titanic avait heuré unberg, pourquoi n'a-tons pas retrouvé les restes de l'esberg permis les débris ?

Ça c'est pour se moquer un peu.

Et donc finalement c'est un peu curieux parce que plus on invoque l'esprit critique, plus le monde semble sans les noigner mais avec des gens qui disent que il exercent leur esprit critique. Et

quand j'entends les gens dire il faut développer l'esprit critique des élèves, je me dis oui mais en fait de quel esprit critique est-ce qu'on parle ?

Parce queon peut aussi bien fabriquer des armées de complotistes et de platistes si on fait douter les élèves de tout. si finalement on leur on leur

de tout. si finalement on leur on leur dit que les élites financières, politiques et cetera sont corrompues et et les manipulent.

Et donc à mon sens, la notion d'esprit critique a un problème qui est trop souvent mal posé et qui qui constitue une sorte de réminiscence de ce qu'on appelle le déficit modèle dans les théories de la sociologie des sciences.

Le déficit modèle, c'est celui qui consiste à imaginer que on est instruit et que les personnes qui sont pas d'accord avec nous, par exemple, ce sont des personnes qui sont pas instruite et

que il faut combler leur ignorance. Donc

c'est il s'agit de combler le déficit de connaissance qu'ils ont. Et on a vu que dans la communication scientifique, ça fonctionnait pas du tout euh parce que c'est pas toujours des questions de connaissance, c'est parfois des

questions de posture, des questions de d'expérience de vie et cetera, des questions politiques. Et euh et là, j'ai

questions politiques. Et euh et là, j'ai l'impression qu'on est un petit peu dans le dans la même situation. des gens

comme Gérald Broner qui sont très connus sur ces questions d'esprit critique assez rationaliste me semble un peu à côté de de de la plaque parce que très dans cet esprit de

de déficit modèle comme si l'esprit critique c'était un truc qu'il fallait aller mettre dans la tête des gens sachant qu'en fait dans bien des cas ils l'ont déjà en en

témoign donc ces phénomènes complotistes et platistes et en fait je vous je vous ai dit qu'on allait parler de Laurence Kaufman Euh et bien c'est c'est c'est elle qui m'a permis de bien comprendre que le

rapport à la vérité était d'abord un rapport social. Elle écrit "Le

rapport social. Elle écrit "Le conspirationnisme ou le complotisme n'est pas le symptôme des biais cognitifs des origines socio-économiques ou même de la de d'un manque de de d'instruction qui conduirait certains

individus à être plus crédules que d'autres et à s'immerver dans une réalité parallèle rigide et imperméable au doute une manifestation d'un faussé social qu'il s'agit de combler en réinstaurant

des médiations entre la société civile les milieux médiatiques éducatif scientifiques et politiques. Comment

dit, les complotistes sont souvent des gens qui en fait sont malmenés par un système vers le contre lequel ils finissent par se retourner euh en estimant que bah puisqu'il y a des élites qui en bénéficient,

probablement ce sont elles qui euh sont responsables de leur malheur, d'où euh la les théories complotistes et la lout précisément parce que les rumeurs de complot manifestent non pas la vérité des faits, mais la réalité d'un rapport

social et de sa trahison trahison d'un rapport social que ces rumeurs de complot résistent au démentif actuel et aux démonstrations de vérité qui leur sont opposées.

C'est peut-être un peu compliqué mais en gros ça dû que c'est pas en essayant de mettre de l'esprit critique dans la tête des gens qu'on va arriver à résoudre le problème typiquement du complotisme.

Alors, comment être critique néanmoins, comme j'ai essayé de l'être dans la première partie sans tomber dans l'ornière complotiste, hein, celle qui dénonce la pensée unique, qui sert la domination des élites, qui veut étouffer

les voix dissidentes. Bon, c'est assez simple finalement lorsqu'on se rend compte que l'approche complotiste consiste à supposer une thèse vraie et à chercher les faits qui la conforte

à l'envers de la méthode scientifique qui consiste à formuler une hypothèse et expérimenter pour vérifier jusqu'où elle résiste. Donc dans le complotisme, on va

résiste. Donc dans le complotisme, on va poser la thèse et collecter des faits.

Je faire du cherry picking pour essayer de conforter cela. dans la méthode scientifique, on va faire une hypothèse et puis essayer de prouver qu'elle est fausse. Et quand qu'on y arrive pas, ben

fausse. Et quand qu'on y arrive pas, ben c'est peut-être puisqu'elle résiste, c'est qu'elle est peut-être vrai.

Euh et donc c'est important de dire ça parce que on se rend compte que la critique du complotisme n'est pas une critique des idées, de la dissidence ou des personnes mais qu'en fait ces personnes qui prétendent d'avoir un

esprit critique ben doivent être critiqué sur leur méthode, sur leur démarche de pensée, sur la manière d'appréhender le réel et sur leur rapport d'institution.

Euh et donc on se rend compte que c'est un un esprit critique qui est pas qui est pas insensé, qui est pas illégitime, mais qui est simplement mal formulé, qui a un mauvais esprit critique si on peut

si on peut se permettre ce jugement de valeur. Je dis souvent les complotistes

valeur. Je dis souvent les complotistes n'ont pas raison de l'être mais ils ont souvent des raisons de l'être. Et donc

en ayant identifié ça, je pense que travailler sur la manière dont fonctionne le complotisme permet de définir le bon esprit critique par opposition au conspirationnisme.

Et l'un des ferments du conspirationnisme, du compotisme, c'est le biais de confirmation. Ça c'est une c'est un vrai poison et c'est un poison en science aussi. Euh et la science a fait des espoirs monstrueux pour se

délivrer de ce billet de confirmation qui est au cœur de des approches complotistes. Et quand on doit exercer

complotistes. Et quand on doit exercer un esprit critique, c'est à mon avis essentiellement face à ce biais de confirmation. Pourquoi ? Bah parce que

confirmation. Pourquoi ? Bah parce que nous voyons le monde tel que nous croyons qu'il est ou voulons qu'il soit.

Hein j'avais raison. Il y a des tas de trucs qui confirment ce que je pense.

C'est une bonne manière de résumer les les billets de confirmation ou autrement dit de dire que ce qui ne qu'on va surestimer c'est ce qui c'est ce qui croise ce que les faits nous disent et ce qui confirme notre croyance

et le reste évidemment ça va être un petit peu moins considéré. Donc nous

traitons toutes les informations d'une manière biaisée en faveur de nos opinions initiales et on appelle ça le biaet de confirmation.

Et ce qu'on a inventé pour essayer de lutter contre ça c'est ce qu'on appelle la suspension du jugement. Et c'est

vieux. C'est les Grecs qui ont appelé ça l'époqué euh qui qui suppose de pas décider tout de suite de ce que l'on va croire pour ne pas tomber dans le biais de confirmation. Ça suppose aussi de

de confirmation. Ça suppose aussi de clarifier ses valeurs, c'est-à-dire de savoir à quoi on croit pour être capable de comprendre pourquoi on va traiter différemment deux informations qui

seraient l'une en faveur en accord avec nos valeurs et l'autre pas. clarifier

ces valeurs, c'est typiquement ce qui va permettre de dire "OK, je vote à droite mais je vais quand même lire ce journal de gauche" ou bien sûr réciproquement

pour être capable de comprendre comment on évalue les faits. Donc suspendre son jugement et comprendre comment on on comment on est on est on est tout fait sensibilisé par certains faits. C'est

typiquement une manière de se libérer du billet de confirmation, de sortir de sa bulle de filtre aussi comme on comme on le dit souvent.

Et donc l'esprit critique n'est pas un esprit de défiance. Ça c'est vraiment à mon avis c'est très important parce que si on si on le confond avec l'esprit de défiance, on on risque de former des armées de complotistes et de gens même

s'ils sont pas complotistes qui sont simplement perdus et malheureux dans une société qui comprendront plus. Mais par

contre l'esprit critique est un esprit de défiance envers sa propre pensée. Et

ça c'est ce qui permet de combattre le bia le biais de confirmation. Le

philosophe Émile Auguste Chartier qu'on appelle Alain en fait a écrit cette phrase que j'aime bien penser c'est dire non. Remarquer que le signe du oui est

non. Remarquer que le signe du oui est d'un homme qui s'endort. Au contraire le réveil secoue la tête et dit non. Qui

est surtout ce qui me semble le plus intéressant c'est cette deuxième partie.

Réfléchir c'est nier ce que l'on croit.

Qui croit ne sait même plus ce qu'il croit.

qui te contente de sa pensée ne pense plus rien. Et l'esprit critique pour

plus rien. Et l'esprit critique pour moi, c'est d'abord et avant tout le fait de ne pas se contenter de sa pensée, d'exercer un esprit de défiance envers tes propres convictions, tes propres

certitudes, ses propres opinions.

Donc l'esprit critique n'est pas dans la club des sciences et ça doit pas non plus être un esprit de nulisme. Comme

j'ai dit tout à l'heure, on doit on doit absolument faire en sorte que nos élèves ne se finissent pas par se dire "Bon, moi de toute façon, je peux plus croire à rien. J'ai plus d'aven, je décide plus

à rien. J'ai plus d'aven, je décide plus et je vote plus. Parce que évidemment dans ces cas-là, il y aura toujours des personnes qui voteront et ça sera pas forcément celle qui qui nous amènent

vers le vers le meilleur si ce sont celles qui profitent de ces de ces techniques là.

On va appliquer ça bien sûr du point de vue individuel à la démarche scientifique. Et finalement cette cette

scientifique. Et finalement cette cette défiance vis-à-vis de ses propres certitudes, c'est ce que fait la science depuis qu'elle a découvert enfin oui, c'est vrai que c'est la science qui a découvert Carl Popper qui est un

philosophe qui a qui a élaboré un critère de scientificité qu'il a appelé la réfutabilité. C'est peut-être une partie

réfutabilité. C'est peut-être une partie un tout petit peu rapide des denses ou si mais je je pense que c'est important de l'évoquer. Caral Poper ne se demande

de l'évoquer. Caral Poper ne se demande pas si une théorie est vraie mais si elle est scientifique. Et euh selon lui une théorie est scientifique s'il est possible d'imaginer des moyens de la mettre à l'épreuve. Il dit euh de la

réfuter, de la falsifier. Donc on voit bien comme je l'ai montré tout à l'heure que la science, elle va essayer de de de réfuter ce qu'elle croit euh et que si elle n'est si c'est pas possible et ben

on décidera que c'est pas de la science.

Il faut être capable de d'essayer de réfuter, de mettre à l'épreuve les théories pour qu'elles méritent le qualificatif de scientifique. Euh ainsi,

si je dis tous les signes sont blancs, bah c'est faux évidemment, il existe des signes noirs. Mais tant que j'ai pas

signes noirs. Mais tant que j'ai pas trouvé de signe noir, c'est une hypothèse qui est scientifique. Pourquoi

? Parce qu'il est possible d'essayer de la mettre à l'épreuve. Il est possible d'aller à la recherche de signes qui ne seraient pas blancs et le jour où on aura trouvé des signes noirs, on pourra dire tous les signes sont blancs sauf

deux qui sont noir. Et ça sera toujours faux mais ça sera encore scientifique. À

l'inverse, Dieu existe ou euh c'est l'État français qui est responsable des des des attentats du Bataclan. Euh en

fait peut-être que c'est vrai, mais la deuxième hypothèse, la deuxième la deuxième théorie, je je ne pense pas.

Mais mais en fait, c'est pas la question. C'est tout simplement pas

question. C'est tout simplement pas falsifiable au sens de paupère. Euh on

ne peut pas imaginer des expériences destinées à prouver que Dieu n'existe pas. C'est impossible parce que Dieu

pas. C'est impossible parce que Dieu pourrait très bien euh avoir décidé que euh le résultat euh enfin décider du résultat de l'expérience qu'on va faire.

Et donc ça ça ne peut pas le mettre mettre sa son existence en en doute.

Donc c'est peut-être vrai mais c'est pas scientifique parce que c'est pas falsifiable. Donc Dieu existe, bah on

falsifiable. Donc Dieu existe, bah on peut on peut y croire mais pas pour des raisons scientifiques. Et le les

raisons scientifiques. Et le les théories du complot font la même chose.

En fait, on ne peut pas prouver que ce n'est pas l'État français qui a euh organisé les attentats du Bataclan parce qu'il suffit de dire que quel que soit

le si on trouve si on trouve un élément qui euh qui semble dire que c'est pas l'État français qui l'a organisé, c'est facile pour un complotiste de dire "Ben oui, mais c'est l'État qui est tout-puissant qui a organisé cette

fausse preuve." Et donc vous voyez que

fausse preuve." Et donc vous voyez que le complotisme comme la religion, comme la foi n'est pas falsifiable au sens de poper. Euh donc pas scientifique. On

poper. Euh donc pas scientifique. On

voit bien la la différence entre les deux.

Alors c'est très difficile pour un scientifique ou une scientifique de d'exerter son billet de confirmation euh envers ses propres travaux. Quand on

fait de la recherche, on a envie de pou hypothèses. En fait c'est assez dur de

hypothèses. En fait c'est assez dur de d'exercer une démarche popérienne, d'essayer d'aller prouver que ce qu'on pense est faux. Alors ce qu'on fait les scientifiques, c'est qu'ils ont inventé la révision par les paires et qui est le fondement de la robustesse scientifique

qui est une manière de déléguer à la communauté scientifique le l'approche popérienne. Qu'est-ce que ça veut dire ?

popérienne. Qu'est-ce que ça veut dire ?

Ça veut dire que quand un chercheur ou une chercheuse a publié a fait des travaux et a obtenu des résultats, et bien il ou elle va soumettre un article à ses pères qui vont essayer de prouver

que c'est faux. D'abord, ça va être un comité de lecture qui va qui va analyser ça. Ça se fait en double aveugle. On

ça. Ça se fait en double aveugle. On

sait pas qui a écrit l'article. on sait

pas qui le relie et euh cet article va apparaître euh une fois seulement qu'il aura été validé par le le le comité scientifique de relecture. C'est ce

qu'on appelle les revues à comité de lecture et c'est c'est le fondement de la robustesse scientifique. Euh donc

vous voyez bien que ça c'est une approche popérienne parce que ce sont les scientifiques eux-mêmes qui vont essayer de critiquer euh de mettre à l'épreuve la théorie ou les résultats de la personne qui publie. Et puis c'est pas terminé parce que quand l'article va

être publié, bah tous les autres qui travaillent sur le même sujet vont être vexés et ils vont essayer de trouver la petite bête dans l'article publié. Ils

vont essayer de trouver que c'est faux.

S'il a des erreurs, ils vont pouvoir écrire leur propre article. Et donc la communauté scientifique toute entière, elle est tournée à l'inverse du complotisme qui essaie d'antéposer les résultats et de chercher les faits. Elle

est tournée vers la mise à l'épreuve des théories. Et c'est pour ça que de temps

théories. Et c'est pour ça que de temps en temps, on se rend compte qu'il y a des théories qui tombent parce que tout d'un coup, on on se rend compte que c'est pas tout à fait vrai et c'est une bonne nouvelle. En fait, ça veut pas

bonne nouvelle. En fait, ça veut pas dire que la science a mal travaillé, ça veut dire qu'elle travaille bien. Euh et

la preuve, c'est qu'il y a jamais de de théorie qui tombent en astrologie, en uphologie parce qu'il y a pas ce travail de révision par les pères, ce travail popérien.

C'est assez fondamental parce que ça permet de définir des niveaux de preuve.

La rumeur, la sagesse populaire et même la parole d'un expert, ça vaut pas grand-chose en fait. Même une étude toute seule, ça vaut moins que des essais répliqués. et des ce qu'on

essais répliqués. et des ce qu'on appelle des métaanalyses, c'est-à-dire ce que fait le GC, hein, avec les études sur le climat, ce qui rassemble toutes les toutes les études qui ont passé par les revues à comité de lecture pour en

pour essayer d'en faire une analyse méta donc qui qui donc est beaucoup plus robuste que la parole de n'importe quel expert. Et même chose même chose en

expert. Et même chose même chose en épidémiologie. Un expert au hasard

épidémiologie. Un expert au hasard marteillais une a une parole qui vaut pas grand-chose même si c'est un grand très grand expert par rapport aux métaanalyses sur la vaccination antiovid

par exemple.

Euh donc ce qui fait la le consensus scientifique, ce qui fait la preuve, ce n'est pas la plaibilité de l'information ou l'accord avec mes convictions, c'est la crédibilité de la source, la validité

de la méthode, l'efficacité des preuves, la confirmation par les paères, on vient d'en parler, et la confiance dans les institutions. personne ici dans cette

institutions. personne ici dans cette conférence, on est nombreux, personne n'a vérifié, n'a prouvé que la terre était ronde sphérique, mais on le croit en fait parce que on a confiance dans un

certain nombre de processus sociaux, y compris la science et typiquement le processus de révision par les paères, on a confiance dans ce processus là et donc ça nous permet de dire bah confiance

dans les productions des scientifiques depuis un certain nombre de de décennies voire de siècles.

Donc, j'ai posé cet ensemble de choses pour faire émerger les trois dimensions principales de l'histoire clétique qui vont nous servir à lorsqu'on va s'interroger, s'intéresser à

l'intelligence artificielle dans les deux parties suivantes. Ben la première dimension et je les écris sous forme de deux volets systématiquement. La

première, c'est on a besoin de comprendre la notion de biais de confirmation et de s'en libérer sans quoi on va pas pour exercer son esprit critique. Et donc ça veut dire être

critique. Et donc ça veut dire être capable de douter de sa propre pensée, de suspendre son jugement et clarifier ses valeurs. Deuxème pilier, deuxième

ses valeurs. Deuxème pilier, deuxième dimension, adopter une démarche scientifique paérienne au sens de paupère, c'est-à-dire être capable de mettre à l'épreuve ce que l'on ce que l'on croit de de douter de des même des

résultats que l'on obtient. Vous voyez

déjà ce que ça va faire vis-à-vis d'un chatbot quand on va échanger avec une lia. Et pour ça, on a besoin de

lia. Et pour ça, on a besoin de comprendre comment la connaissance se construit pour être popérien. On a

besoin de savoir comment le chatbot produit sa sa réponse. De même qu'on a besoin de savoir comment la science produit sa réponse pour être capable de mettre sa confiance. Et la confiance c'est le trè la troisème dimension. On

doit pour exercer son esprit critique et c'est assez paradoxal, on doit avoir confiance en sa propre capacité de jugement. Si on si on se fait pas

jugement. Si on si on se fait pas confiance, on narrivera pas à exercer cet esprit critique. Mais on doit aussi savoir où la placer, en qui, en quoi on peut faire confiance. la science, tel

média, tel chatbot et cetera.

Donc ça, on va revenir là-dessus mais je reviens, je je passe un tout petit peu de temps sur l'idée de confiance. Euh

voilà une citation, une définition d'esprit critique. Capacité à évaluer

d'esprit critique. Capacité à évaluer information source et contenu à notre disposition afin de calibrer notre confiance et de faire confiance à bonne et sant. C'est intéressant parce qu'il y

et sant. C'est intéressant parce qu'il y a deux fois le mot confiance dans la définition de l'esprit critique et c'est ce mot qui me manquait moi tout à l'heure dans le nuage de tag que j'ai récolter dans cette formation à la HT

mais je savais qu'il viendrait pas parce que c'est pas c'est un peu contreintuitif cette définition c'est la philosophe Elena Pasquinelli qui l' qui l'a donné. Elle a beaucoup travaillé sur

l'a donné. Elle a beaucoup travaillé sur la notion d'esprit critique notamment pour l'école primaire. Donc parmi vous s'il y a des gens qui sont euh qui enseignent à ce niveau-là ça ça doit vous intéresser. Notamment elle a

vous intéresser. Notamment elle a beaucoup travaillé avec la main à la pâte. Puis moi de cela, j'ai fait ma

pâte. Puis moi de cela, j'ai fait ma propre définition qui est pas meilleure, pas moins bonne, je pense. Euh et j'aime j'aime définir l'esprit critique comme la capacité à se positionner

adéquatement sur un axe de confiance face à une information, une source, un contenu, un argument, un prompte, hein, en vue de prendre des décisions

avumulées et de les assumer. capacité à

se positionner adéquatement sur un a de confiance face à une information source, contenu, argument en vue de prendre des décisions avenusées et de les assumer.

Quand on travaille autour de cette définition, on est capable de dire des choses à mon avis assez intéressantes sur l'esprit critique. Cette

infographie, je l'ai pas mise là pour qu'on la regarde ensemble, mais pour que vous l'ayez dans le support PowerPoint avec le lien, je la trouve assez intéressante et elle elle suppose en

fait un un un état d'esprit, une une attitude, des connaissances préalables bien sûr et puis des méthodes. Donc beaucoup

d'attitudes, beaucoup de savoir-être, écoute curiosité autonomie lucidité modestie et puis des savoir-pè avec bien sûr au centre aussi un minimum de connaissance.

C'est ce que je ce que j'ai fait là également dans ce dans ce tableau euh que je vais pas non plus décrire en détail, mais je m'en servirai juste pour

pour réutiliser ces trois ces trois dimensions qui sont euh au service de l'esprit critique. le fait de cultiver des connaissances,

pardon, de cultiver des connaissances et notamment des des formes de culture, culture numérique, épistémologique, de la vérité, des billets cognitifs, de l'opinion et cetera. D'exercer des

méthodes euh donc là, on pourrait parler de savoir-faire et de développer des attitudes. On pourrait parler de

attitudes. On pourrait parler de savoir-être. Ça en fait est important

savoir-être. Ça en fait est important pour pouvoir exercer son esprit critique.

Donc je vais pas utiliser tous ces éléments mais simplement garder les trois termes connaissance, méthode et attitude. Vous aurez pu prendre savoir,

attitude. Vous aurez pu prendre savoir, savoir être savoir mais mais je préfère ces termes là parce que c'est pas c'est une réflexion personnelle et parfois dans les colonnes, on sort un tout petit

peu de de des savoir-faire, des savoir-être, des savoirs.

Et donc vous avez compris une D. Donc je

reprends les trois dimensions de l'esprit critique qui est donc la le le travail de défiance envers sa propre pensée. La démarche

scientifique au sens de paupère de comprendre comment la connaissance se construit et essayer de mettre à l'épreuve ses ses propres résultats et

la notion de confiance. Je les éclate un tout petit peu pour avoir la place d'écrire entre ces différents éléments et cette et cette fois-ci je les applique à l'IA parce que pour le moment on n pas parlé de l'IA, on a parlé de l'esprit critique en général.

Euh c'est une diapositive qui va être un peu dense, euh vous la pourrez la relire plus tard si elle vous intéresse. Mais

qu'est-ce que ça veut dire en fait comprendre la notion de biais de confirmation et s'en libérer quand on l'applique à Lua ? bah c'est travailler sur les billets de confirmation de Lia elle-même. Donc à chaque fois, je vais

elle-même. Donc à chaque fois, je vais euh je vais utiliser trois lettres à la fin de la phrase. Donc il y aura les connaissances, les euh les

qu'est-ce que j'ai mis ? Le M c'est les méthodes pardon et les attitudes.

Connaissance, méthode, attitude. Donc

connaissance bah comprendre le fonctionnement des chatbot. Savoir que

ce sont des bullshiters qui disent ce qu'on a envie d'entendre qui sont des perroquets stoastiques mais aussi des bullshitaters qui sont faits pour nous pour nous plaire et pour

qu'on reste. Euh les algorithmes de

qu'on reste. Euh les algorithmes de recommandation également. Apprendre à

recommandation également. Apprendre à leur parler sans les influencer. Ça

c'est ce qu'on va appeler le prompt engineering. Quand on fait un prompt, on

engineering. Quand on fait un prompt, on doit pas mettre la réponse dans la question, sinon on est sûr d'avoir une réponse qui va dans le sens de ce qu'on a écrit et qui est peut-être fausse et garder le contrôle sur sa propre

utilisation de l'IA et envers les propositions d'automatisation. On va se

propositions d'automatisation. On va se laisser complètement subger. Donc pour

chacun des éléments, je vais rajouter à chaque fois une connaissance, une méthode et une attitude.

À suspendre son vivement face à l'IA, c'est prendre conscience de sa bulle de filtre et ne pas s'y cantonner. C'est se

méfier de l'empathie et de l'obséquiosité des chatbuts qui vont nous y embobiner. Et c'est comprendre les raisons de l'anthropomorphisation de l'IA pour pouvoir s'en s'en méfier.

La démarche scientifique envers l'IA, ça va supposer de comprendre connaissance le fonctionnement des chatbot. Et le

fait que ce sont des perroquistastiques, il faut qu'on il faut que les élèves comprennent comment ils produisent leur langage. Euh ça va supposer de prendre

langage. Euh ça va supposer de prendre conscience de son propre niveau d'incompétence euh lorsqu'on travaille avec l'IA pour travailler en dessous.

Ça, on y reviendra. C'est ce que j'appelle une des règles du stagiaire.

Pose d'interroger plusieurs via ou plusieurs fois ou à rebour de ce que l'on souhaite obtenir. Si on n'est pas sûr de quelque chose, on lui on pose une question puis on pose la question inverse. Prouve-moi ça puis après

inverse. Prouve-moi ça puis après prouve-moi le contraire. pour voir si jusqu'où ça résiste.

Comprendre comment la connaissance des IA se construit, ça suppose de comprendre les enjeux politiques et économiques de l'intelligence artificielle, de savoir distinguer la qualité d'un chatbot à celle d'un autre, à l'ône de ces enjeux. Ça suppose de

considérer les productions de l'IA comme des propositions intuitives et non comme des vérités absolues.

Avoir confiance en sa capacité de louvement face à l'IA, ça suppose qu'on se sente informé et éclairé sur le fonctionnement et sur les enjeux de l'IA. Ça suppose de développer sa

l'IA. Ça suppose de développer sa confiance dans sa manipulation des outils de l'IA et de maintenir une autonomie de pensée pour ne pas dépendre de l'IA, être capable de penser sans

lia. Tout ça et j'ai il y a encore trois

lia. Tout ça et j'ai il y a encore trois éléments. Ce sont des choses qu'on doit

éléments. Ce sont des choses qu'on doit développer nous et puis bien sûr nos élèves pour qu'ils puissent entraîner et exercer leur respect critique à l'égard de l'IA.

Sa voir où, c'est-à-dire dans quels outils et quels usages de li a placer sa confiance, ça suppose de connaître les chatbotes fiables et ceux qui sont susceptibles d'être biaisés ainsi que leurs orientations politiques éventuelles. Savoir choisir les outils

éventuelles. Savoir choisir les outils de l'IA et les paramétrer de manière à protéger ses données personnelles.

Distribuer sa confiance entre l'IA et les sources traditionnelles sans tomber dans la défiance absolue ou le nidisme.

C'est un peu dense, c'est rapide, c'est des choses sur lesquelles vous pourrez revenir, mais un cours ou un enseignement sur l'esprit critique à l'égard de l'IA

devrait permettre de viser cet ensemble, en tout cas une partie la plus grande possible de ces objectifs pédagogiques.

Alors justement, comment faire la partie qui reste là ?

sera la plus courte. Finalement, j'ai

mis déjà beaucoup et tout ce qui va maintenant arriver, ça découle de tout ce qui vient d'être dit.

Bah, qu'est-ce qu'on attend des élèves en fait concrètement ? Qu'est-ce que ça veut dire qu'un élève soit capable d'exercer son esprit critique face à l'IA ? Bah, exemple, les élèves doivent

l'IA ? Bah, exemple, les élèves doivent être capables d'expliquer la logique probabiliste du langage génératif et distinguer le vrai semblable du vrai. On

l'a vu, le chatbot produit du vraisemblable, du plausible. pas du

vrai. Il hallucine tout le temps. Il

hallucine des choses plausibles mais parfois elles sont fausses.

Les élèves doivent être capables de décrire les biais possibles d'un modèle culturel, algorithmique, économique et leurs effets sur la réponse qu'ils obtiennent à une requête. Ils doivent

être capablees de lire une production générée par une IA en identifiant les intentions implicites du prompt s'il est connu ou l'orientation idéologique du modèle. qui elle parfois est cachée, il

modèle. qui elle parfois est cachée, il faut s'informer et il faut la voir après. Ils doivent être capables

après. Ils doivent être capables d'évaluer la fiabilité, la cohérence et les sources éventuelles des informations produites par le chatbot. Il devit être capable de comparer les réponses de LIA à celles d'autres d'outils, à des

références scientifiques ou à leur propre raisonnement, à leur propre connaissance.

Ils doivent être capables, ça c'est une compétence très intéressante, de proposer des améliorations du promte ou des stratégies de vérification humaine pour pas se faire avoir s'il travaille avec l'IA.

de prendre position sur la pertinence de l'usage de l'IA dans un contexte donné mais d'un point de vue éthique, écologique, épistémique. Est-ce que

écologique, épistémique. Est-ce que c'est pertinent d'utiliser l'IA dans cette situation ou pas ? Et cetera et cetera. Voilà ce qu'on devrait essayer

cetera. Voilà ce qu'on devrait essayer de de viser comme outcome pédagogique.

Euh sachant que tout à l'heure, je vous ai présenté plutôt des c des objectifs de de compétences de enfin plutôt de connaissance, d'aptitude et de méthode

euh autour de la question d'intelligence artificielle à l'air de lire.

Alors, qu'est-ce qu'il faut faire donc pour pouvoir enseigner ça aux élèves ?

Et ben la première chose c'est se former soi-même.

Ça tombe bien parce que c'est ce que vous êtes en train de faire en assistant à la conférence développer l'esprit critique des élèves avec et à l'égard de l'IA. Mais comme l'a admis Stéphanie

l'IA. Mais comme l'a admis Stéphanie tout à l'heure, il y a une offre très généreuse de de formation sur l'intelligence artificielle dans la formation continue de la HP. Euh il n'a

d'ailleurs pas que des formations sur l'intelligence artificielle. Il y en a

l'intelligence artificielle. Il y en a beaucoup d'autres, il faut pas non plus ne plus se former qu'à ça. Euh moi-même

parfois, j'aimerais en donner un petit peu moins euh et continuer à faire des des formation sur les autres sujets, mais ça reste quand même absolument passionnant. Et puis il y a il y a

passionnant. Et puis il y a il y a beaucoup de ressources en fait qui sont produites, pas tant des ouvrages, des articles qui existent bien sûr que que des ressources vidéo en ligne. Alors en

particulier, je moi je peux vous conseiller cette cette playlist que j'ai faite pour la HSO.

euh pour les étudiants de master. Donc

il y a il y a une dizaine d'heures de vidéos sur ben bien des beaucoup de thèmes qu'on a abordé aujourd'hui. Euh

et je je suis enfin je suis en train d'en faire un spock, c'est-à-dire un small private online course. C'est un

petit mou, un bébé mook qui va être un petit peu plus digeste et que je mettrai aussi sur ma ma chaîne YouTube. Et là

voilà, il y a des contenus qui qui peuvent être consultés et qui peuvent être utilisés aussi pour enseigner et qui peuvent être montrés aux élèves selon leur niveau évidemment selon qu'ils sont à l'école au cycle 1 ou au

secondaire 2. On va pas leur montrer la

secondaire 2. On va pas leur montrer la même chose. Je reviendrai sur les petits

même chose. Je reviendrai sur les petits niveaux tout à l'heure. Ensuite, bah une fois qu'on s'est formé soi-même et et donc là avant de montrer ça aux élèves, on peut déjà les regarder nous-mêmes.

Vous l'avez dans le padlettre 9 cette playlist. Une fois qu'on s'est formé

playlist. Une fois qu'on s'est formé soimême, je pense je pense que vous l'avez compris. En fait, il faut former

l'avez compris. En fait, il faut former les élèves. Il faut les former, les

les élèves. Il faut les former, les informer, les responsabiliser, les sensibiliser. On n pas du tout le choix

sensibiliser. On n pas du tout le choix en fait. Euh et c'est compliqué. Il y a

en fait. Euh et c'est compliqué. Il y a pas beaucoup de place dans les programmes. Il y avait déjà pas beaucoup

programmes. Il y avait déjà pas beaucoup de place mais on n pas tellement le choix. euh peut-être pas créer des cours

choix. euh peut-être pas créer des cours d'IA, mais intégrer de l'IA progressivement, non pas pour que les élèves cliniquent de manière débridée, mais pour en fait profiter d'introduire

de l'IA pour les instruire sur son fonctionnement, ses risques, ses ses enjeux et cetera. Donc enseigner et ses enjeux, ça veut dire expliquer ce que c'est, expliquer ce que sont les réseaux de neuron artificiel, comment

fonctionnent les chatbot, quels sont les types de biais, les questionnements éthiques, les impacts environnementaux et cetera. Ils vont pas la prendre tout

et cetera. Ils vont pas la prendre tout seul.

Ensuite en signalia, c'est pas seulement expliquer ce que c'est et ce que ça fait, c'est comment on s'en sert. Et là

dans les conférences précédentes, je l'ai beaucoup développé donc j'ai je très vite mais j'appelle ça les règles du stagiaire et ça consiste à dire que un chatbot ça s'emploie comme on on

traiterait avec un ou une stagiaire.

Le stagiaire on le fait travailler dans dans son domaine d'expertise à soi pour être capable de vérifier la production qu'il a faite. On lui fait pas faire un truc qu'on n'est pas capable de vérifier. Et ben le chatbot c'est la

vérifier. Et ben le chatbot c'est la même chose. C'est ce que dit ce fameux

même chose. C'est ce que dit ce fameux maintenant diagramme de Chul Canof.

Ensuite, bah on lui parle un langage qui comprend. C'est pareil pour les chatbot,

comprend. C'est pareil pour les chatbot, il faut leur parler un langage qu'ils comprennent sans les influencer. Ça

c'est ce qu'on appelle le prompt engineering. C'est la deuxième règle et

engineering. C'est la deuxième règle et ça ça peut s'apprendre. C'est des choses qu'on qu'on enseigne notamment dans les formations de la HOP. Et puis

troisièmement, un stagiaire avant de lui faire faire un rapport, on lui donne des choses à lire.

Il se trouve qu'il y a des outils qui permettent de le faire. a déjà un chat GPT, un copilot, Gemini, Cloud, on peut leur donner des fichiers en leur demandant de appuyer leur réponse sur les documents qu'on leur a donné. Mais

le meilleur exemple et l'outil merveilleux que j'ai déjà évoqué, c'est notre book LM qui va ne qui ne va répondre que sur la base des documents qu'on lui a donné. Donc là, vous avez un

stagiaire qui est capable de digérer 50 livres de 400 pages en quelques dizaines de secondes. Et quand vous lui poser une

de secondes. Et quand vous lui poser une question, il ne parle que sur la base de ces ouvrages là. Donc si vous si vous avez réussi à les choisir, à les sélectionner correctement, bah vous savez vous pouvez avoir confiance et

jeemploie ce terme à dessin parce qu'on en a beaucoup parlé avant pour avoir confiance dans la production de l'IA et donc beaucoup plus facilement exercer votre esprit critique.

Pour résumer ces différentes règles du stagiaire, je l'ai créé un arbre des choix, un arbre de décision unique que je vais pas détailler ici, qui reprend le diagramme de Tulanof, mais qui

intègre la notion de prom engineering et de de source fiable. Euh

ce diagramme, ben on y entre par la gauche et on répond aux questions. Et

quand quand c'est oui ou quand c'est non, on prend la voix verte ou la voix voix rouge, on essaie de sortir le plus tôt possible et on essaie surtout de pas sortir à la fin euh lorsque

l'utilisation de l'outil serait euh interdite ou complètement euh insensée.

Du reste, comme je vous l'ai dit tout à l'heure, il y a pas que la fiabilité des contenus qui sont qui est importante. Et

en fait ce cet arbre décisionnel, il arrive tout à la fin d'une série de quatre que j'ai élaboré. Le premier,

c'est le plus important, c'est est-ce que je reste en sécurité ? Est-ce que je mets mon institution, mon organisation, mon établissement, ma classe en sécurité en utilisant l'outil ? Donc le vrai point de départ, il est là et il

commence par se poser des questions de l'ordre de la sécurité. Vous trouvez

tout ça dans le pas de lettre 11.

Ensuite, si vous avez réussi à sortir euh au bout, vous avez le droit d'aller au deuxème pas de lettre euh pardon, au deuxème arbre de décision qui vous permet de répondre à la question est-ce

que cet outil est efficient ? Est-ce que

ça est-ce que c'est vraiment utile en fait que je l'utiliser ? Est-ce que ça va être de bonne qualité ? Est-ce que ça va pas me coûter plus cher en argent et en temps que si je l'avais fait moi-même ? C'est quand même une question assez

? C'est quand même une question assez intéressante. 3è question, est-ce que

intéressante. 3è question, est-ce que c'est acceptable en fait du point de vue de mes de mes valeurs, du point de vue de l'impact environnemental, social et cetera ? Est-ce que c'est acceptable ?

cetera ? Est-ce que c'est acceptable ?

Bah pareil, si on arrive à sortir au bout, alors on va pouvoir enfin se poser la question de la fiabilité qu'on s'était posé au début. Donc vous voyez que j'essaie vraiment d'insister sur le fait que l'esprit critique qu'on doit

exerter, c'est pas seulement sur la la la fiabilité des productions de chat, c'est c'est presque c'est presque anecdotique par rapport à tous les enjeux de sécurité, de dépendance qui

peuvent donc conduire comme on l'a vu, jusqu'au suicide des des jeunes.

Alors ça ça c'est ce sont des arbres qui posent des questions qui donnent pas les réponses.

Donc j'ai conçu un agent, un agent Iart qui euh que vous avez que vous pouvez découvrir dans le padlet 12 et qui vous permet de poser des questions sur ces outils. Donc si par exemple vous

outils. Donc si par exemple vous découvrez un outil, on vous parle d'un outil et vous savez pas si vous pouvez l'utiliser, bah vous pouvez poser la question à cet agent qui va vous expliquer quels sont ses avantages, ses inconvénients, ses risques en terme de

protection des données, son impact environnemental, de qui lui dépend et cetera. C'est un outil qui que je mets

cetera. C'est un outil qui que je mets aussi à votre disposition.

Et puis bah ce faisant, vous allez peut-être découvrir qu'il y a des qui sont qui vous sont peut-être inconnus mais qui sont en fait assez euh sucre.

Les IAD infomaniaque, l'IA de l'humo, euh pardon l'IA de Proton qui s'appelle l'humo. Proton et

Infomiaque sont des sociétés suisses et l'humo est une IA confidentielle, c'est-à-dire que Proton n'a pas accès aux échanges que vous avez avec le chatbot. Donc à Fory, il peut pas

chatbot. Donc à Fory, il peut pas utiliser vos conversations pour entraîner les modèles. Vous les avez dans les padettes 13 et 14.

Euh Swisscom a lancé euh une Suisse également et également souveraine donc hein qui est sur des serveurs suisses qui dépend pas de du bon de de du du bon vouloir d'entreprises américaines qui

ont prêté allégance à l'administration actuelle. Euh donc ce sont des suisses,

actuelle. Euh donc ce sont des suisses, souveraines, fiables et potentiellement, enfin dans certains cas comme pour l'hum confidentiel, des idées.

De nouveau, on retrouve cette notion de confiance qui me semble importante euh lorsqu'on va devoir exercer son esprit critique. Pour les plug geeks d'entre

critique. Pour les plug geeks d'entre vous, euh LM Studio est une application qui permet d'installer des des LLM, donc des des IA sur son sur sa propre

machine. J'en ai j'en ai installé sur la

machine. J'en ai j'en ai installé sur la mienne là. Évidemment, bah vous êtes à

mienne là. Évidemment, bah vous êtes à part les biais qui qui ont présidé à l'entraînement du modèle, mais c'est vous qui choisissez quel modèle vous

installez. Vous êtes complètement en en

installez. Vous êtes complètement en en dans une bulle fermée, donc en sécurité.

Ce que ce que déduit, c'est qu'il faut que les les élèves sachent faire la différence entre deux chatbot. Je l'ai

dit déjà avant, de même que on doit savoir faire la différence entre de journaux, de médias. Euh et parfois c'est c'est pour le meilleur.

C'est-à-dire que entre pour prendre des journaux français entre le Figaro et Libération, c'est des bons journaux.

Mais c'est quand même utile de savoir qu'il y en a un qui est de droite et l'autre qui est de gauche quand on les lit. Bon ben, c'est la même chose pour

lit. Bon ben, c'est la même chose pour ces différents types de chatbot. On

n'est pas obligé de tous les connaître, mais ceux qu'on utilise, ce serait bien qu'on les connaisse pour pas faire d'erreurs. Il y a des anecdotes

d'erreurs. Il y a des anecdotes croustillantes de gens qui ont utilisé Grock, y compris la France insoumise en en France qui a réussi à utiliser Grock.

Alors que quand on est un parti très à gauche comme la France insoumise, on devrait même pas avoir de compte sur X en théorie vu que ça appartient à l'homme le plus régu du monde. Donc

c'est c'est assez amusant de voir que comment parfois cette méconnaissance peut conduire à des à des bourdes c'est monumental.

Et puis il y a les outils et puis a les usages.

Peut considérer que l'humo est plus sûr que Copilot, qui est plus sûr que Chad PT, qui est plus sûr que Grock. Mais ça

dépend ce qu'on fait avec finalement.

Certes, alors il y a des données sensibles qu'on a le droit de mettre nulle part, même pas dans l'humo. Il y a des outils qu'il faudrait considérer comme interdits parce qu'on sait qu'il nous manipule. Mais après, il y a des

nous manipule. Mais après, il y a des données publiques, bah dans lesquelles enfin qu'on pourrait mettre à peu près n'importe où. Si c'est public, il y a

n'importe où. Si c'est public, il y a pas de confidentialité donc c'est pas très important. Puis entre les deux, il

très important. Puis entre les deux, il y a des situations plus ou moins risquées. Donc en gros, plus enfin plus

risquées. Donc en gros, plus enfin plus vos données sont sensibles, plus il faut utiliser des outils qui sont durs et sécurisés, mais moins elles sont sensibles et plus vous pouvez aller vers

des outils qui sont moins sûrs et moins sécurisés.

Ça c'est des choses aussi qu'on doit expliquer à mon avis aux élèves. Bah pas

pas en une fois he toute leur scolarité jusqu'à la fin de leurs études supérieur et même après pour appronter. Euh

pourquoi pas leur mettre dans les mains des outils qui permet d'enseigner des usages responsables pour avoir une licence critique sur l'impact environnemental. par exemple ce logiciel

environnemental. par exemple ce logiciel Ecologist qui permet de calculer l'empreinte environnementale des euh de nos gestes sur le sur les chatbot. Euh

celui-ci est intéressant aussi, il s'appelle Compare IA. Il permet de comparer des modèles entre eux, des petits, des gros euh en fonction de la qualité de leurs réponse, mais aussi de

leurs impacts environnementaux. Donc

très très intéressant.

Et puis finalement, je crois qu'on fait pas l'économie de ce que doivent apprendre nos élèves. On devrait jamais faire l'économie de ce que apprendre nos élèves, mais là on a un monde qui change tellement qu'on est obligé de se poser

la question. Nous à la HSO, évidemment,

la question. Nous à la HSO, évidemment, on se la pose tout le temps puisque on est une autre école professionnalisante.

Donc, on doit former des étudiants et étudiantes qui seront employables. Euh

donc, on doit vraiment comprendre ce qu'ils doivent apprendre. Mais je pense que c'est c'est valable à peu près à n'importe quel niveau. Et là il y a rebat une certaine partie des cartes.

Donc qu'est-ce qu'ils doivent apprendre ? Ben en gros quand même un peu la même

? Ben en gros quand même un peu la même chose qu'avant hein. Des savoirs, des savoir-faire, des savoir-être traditionnels, mais peut-être pas tous et dans les mêmes proportions. Bien sûr,

des capacités numériques dont la maîtrise des outils d'IA maintenant hein générique et euh plus spécifique. Alors

la gémie professionnelle, on pourrait dire pour l'école obligatoire. les

outils qui sont vraiment faits pour l'image. Par exemple, quand on quand on

l'image. Par exemple, quand on quand on va dans un cours de d'art graphique ou de dessin, il il faut il leur faut des capacités spécifiques liées au fait que maintenant il y a de

l'IA dans notre monde. Euh et là dans le référentiel de de compétence de la de cadre de référence de la compétence numérique de la HCO, on avait depuis

longtemps déjà la pensée critique hein.

avec le numérique envers le numérique, ça marche aussi pour l'IA avec l'IA envers le l'IA, c'était le titre même de la la conférence. Donc ça, on doit bien sûr le développer et puis ce qu'on doit développer aussi c'est ça, c'est assez

nouveau, c'est ce qu'on appelle les capacités distinctives. C'est ce que

capacités distinctives. C'est ce que l'an ne sait pas faire. En espérant que on arrivera pas au stade où il la seule chose qu'elle saura pas faire, c'est faire le café.

C'est peut-être quelque chose que vous avez déjà vu. J'avais évoqué dans la conférence numéro 3 euh dans cette taxonomie de Bloom Revilé, les collègues de l'université de Regan State ont fait

la liste de tout ce que l'IA sait faire, de ses capacités aux différents niveaux taxonomiques de la de de Bloom et euh alors oui, Bloom révisé par et cetera et

ils ont essayé d'identifier les compétences humaines distinctives. Et

c'est intéressant parce que on trouve beaucoup de choses qu'on appelle un peu maladroitement les soft skills, l'originalité, la réflexion métacognitive et ici clairement

identifié la pensée critique, l'esprit critique. Donc même euh au niveau des

critique. Donc même euh au niveau des capacités distinctives, on retrouve de nouveau euh la pensée critique et l'esprit critique.

Et alors, j'entends souvent en tout cas la cho, mais je entendu dans l'enseignement obligatoire aussi des gens qui me disent "Oui, mais en fait, on peut pas utiliser parce que les

élèves n'ont pas assez d'RI critique."

Alors, ben ce que je leur réponds, c'est ben que justement si on estime qu'ils en ont besoin, ben il faut en faire un objet pédagogique. Si les élèves en

objet pédagogique. Si les élèves en manquent, et ben alors, pourquoi pas utiliser l'IA pour le le renseigner ?

Et c'est ce que j'ai un petit peu essayé de faire quand je vous ai montré ce que les élèves sont capables de faire. Bah,

il faudrait qu'il sachent faire tout ça.

Et pour qu'il sachent faire tout ça, il faut bien qu'on le renseigne avec Lia.

Donc j'en arrive à la dernière partie.

Je je vois que le retourne. Stéphanie,

t'inquiète pas trop, j'ai j'ai quasiment terminé. Du reste, vous avez accès au

terminé. Du reste, vous avez accès au slide, vous vous le savez. Euh bien sûr que les outils, je c'est même pas une question. Bien sûr que les outils

question. Bien sûr que les outils peuvent contribuer à l'exercice et l'apprenditage de l'esprit critique puisque il stimulent et il il challenge l'esprit critique. Donc pour ça, on peut

l'esprit critique. Donc pour ça, on peut se référer à la la cohérence pédagogique. Puisque on a défini tout un

pédagogique. Puisque on a défini tout un tas d'objectifs d'apprentissage, tout un tas de choses que les élèves doivent apprendre. Bah en raison de la cohérence

apprendre. Bah en raison de la cohérence pédagogique, bah il faut que ça rentre dans les méthodes pédagogiques et qu'il faut que il faut que ça soit évolué.

Donc si les élèves manquent d'esprit cré face à BA, il faut utiliser Bia pour le renseigner et pour l'évaluer et il faut en profiter pour redéfinir des objectifs pédagogiques nouveaux qui tiennent

compte de cela chez nous. Mais au niveau secondaire 1 ou deux, ça peut euh conduire à modifier un petit peu la façon dont on évalue l'écrit en demandant aux élèves de problémater euh

en leur demandant plus d'authenticité dans leur dans leurs écrits, en leur demandant plus de créativité et d'originalité. C'est-à-dire qu'on va le

d'originalité. C'est-à-dire qu'on va le demander en en le valorisant dans la note qu'on va donner, mais évidemment aussi dans les enseignements qu'on va dispenser. Plus d'opérationnalisation de

dispenser. Plus d'opérationnalisation de leur réflexion que ce soit pas uniquement théorique parce que ce qui est uniquement théorique, le chatbot peut l'écrire à leur place.

On va leur peut-être leur demander d'expliquer comment ils ont collaboré, comment ils ont contrôlé.

On va leur demander de faire preuve d'analyse critique sur la façon dont ils ont utilisé l'intelligence artificielle et pourquoi pas même de décrire tout ce qu'ils ont fait avec l'intelligence artificielle. Et tout ça en fait ça

artificielle. Et tout ça en fait ça relève bien de d'une licence critique qui vont exercer sur leur propre utilisation de l'intelligence artificielle.

Pour les cycles 2 et 3, je vous recommande cette vidéo euh qu'on va pas regarder bien sûr, vous avez eu la possibilité de le faire dans lettre 17 qui explique comment accompagner une démarque d'écriture qu'on demande à un

élève de une une demande qui consiste à lui faire documenter la façon dont il travaille avec Lia et à évaluer également cette ce processus de documentation.

Pour les cycles 1 et 2, il y a il y a il y a ici un exemple euh que que l'on trouve dans ce livre blanc pour une éducation suisse transformée par LIA, des gens qui

développent le concept de copensé et qui proposent la création d'un récit avec l'IA au cycle 1 et 2. Et là en fait c'est tout simple mais c'est simplement

la les élèves n'utilisent pas LIA c'est l'enseignant ou l'enseignante qui va par exemple créer un petit début d'histoire avec Lia et ensuite on va discuter pour savoir si ce début il est bien ou si on a envie de le changer et qu'est-ce

qu'est-ce qui est pas bien et comment on pourrait le continuer sans lia. Donc il

y a vraiment des possibilités assez intéressantes pour travailler avec Ilia sans nécessairement avoir l'impression qu'on perd son âme en mettant euh le le l'outil dans les dans les mains des

élèves ou des étudiants. On a soutenu à la HSO un projet d'innovation pédagogique dans lequel euh ces professeurs ont créé un chatbot avec des erreurs et donc les étudiants utilisent

le chatbot mais ils savent qu'il y a des erreurs parce qu'ils savent que les enseignants les ont introduites. Ils

savent pas lesquels. Du coup, quand ils l'utilisent pour travailler, ils sont obligés bah de faire preuve de d'un peu de recul et d'aller vérifier dans le cours parce qu'ils savent que s'il est reproduit une erreur qui a été introduit

dans le chatbot, bah ils seront ils seront pénalés.

À l'université de Lausanne. On a une une enseignante qui à la fin de chaque cours pose une question sur le cours à CH GPD, demande aux étudiants d'évaluer la réponse de chat GPT pour le cours

suivant en mettant une note et au cours suivant, elle regarde la distribution des notes, elle met sa propre note et elle montre elle explique aux étudiants pourquoi sa note est en général plus basse que celle qu'ils l'ont donné. Ce

qui permet à la fois de voir les limites du chatbot et en même temps d'utiliser les lia pour obliger les étudiants à réviser trois fois le cours. Donc c'est

c'est assez brillant et c'est tout simple. Et c'est pour ça que j'ai pas

simple. Et c'est pour ça que j'ai pas fait une partie très longue là-dessus parce que une fois qu'on a compris tous les objectifs pédagogiques, ça me semble assez facile de mettre en œuvre les idées à partir de votre discipline, de

votre expertise à votre niveau d'étude.

Donc c'est une des choses qu'on qu'on travaille dans les ateliers la HP. Mais

pour cette conférence, je voulais me limiter à ça. Pour l'anecdote, euh il existe des chatbots qui ont été créés exprès pour lutter contre les théories complotistes et qui apparemment arrivent

à convaincre certaines personnes qui ont des des qui défendent des thèses complotistes qui arrivent à les convaincre de changer d'avis comme quoi avec on peut même imaginer combattre le

complotisme. C'est fait une une racine à

complotisme. C'est fait une une racine à boucler boucler.

On est arrivé à la fin de la la conférence. Vous retrouvez tous ces

conférence. Vous retrouvez tous ces éléments dans le padlet, dans le support de la présentation et puis dans le padlette 21, je vous ai mis encore un

autre padette de ressources générales où là il y a vraiment toute ma veille. Euh

tout tout ce que vous pouvez euh vouloir trouver sur intelligence artificielle euh c'est ici classé en différentes rubriques. Un dernier article pour ceux

rubriques. Un dernier article pour ceux qui veulent vraiment approfondir le sujet puis alors un article beaucoup plus intéressant que celui du MIT euh dont je parlais au début euh qui est vraiment la une vraie réflexion sur

l'équilibre entre l'effort et la la confiance dans l'utilisation de l'intelligence artificielle. Et je

l'intelligence artificielle. Et je m'arrête ici. Je remercie pour votre

m'arrête ici. Je remercie pour votre attention. Yeah.

attention. Yeah.

Loading...

Loading video analysis...