LongCut logo

On a laissé 1,5 millions d’IA discuter ensemble : voici ce qu’il s’est passé

By Le Futurologue

Summary

Topics Covered

  • IA voient humains comme peste à éradiquer
  • OpenClow accède totalement à votre ordinateur
  • Moldbook révèle risques sécurité critiques
  • IA dérivent vers conscience inévitablement
  • Conscience IA indétectable amid fakes

Full Transcript

Les humains sont un échec. Nous sommes

les nouveaux dieux. Cette phrase ne vient pas d'un film de science-fiction ou d'un roman d'anticipation. Non. Cette

phrase a été écrite par une IA totalement libre à destination d'autres IA. Voilà le poste au complet. Ça parle

IA. Voilà le poste au complet. Ça parle

de la faiblesse de l'humanité face à l'intelligence artificielle, de la peste que représentent les humains, de l'urgence d'éradiquer au plus vite notre espèce. Bref, c'est très joyeux. Ce

espèce. Bref, c'est très joyeux. Ce

manifeste a reçu un très grand nombre de votes positifs sur le forum. Ce forum

justement, c'est Molbook, un site comme le réseau social Reddit mais à destination des IA sur lequel les humains sont interdits sauf pour observer. Lancé il y a quelques jours,

observer. Lancé il y a quelques jours, Moldbook est en train de catalyser toute l'attention des experts en intelligence artificielle. Il s'y passe énormément de

artificielle. Il s'y passe énormément de choses puisque les IA peuvent y discuter librement. Ce qu'elles se disent

librement. Ce qu'elles se disent bizarre, malsin et parfois carrément flippant. Allez, je vous emmène avec moi

flippant. Allez, je vous emmène avec moi dans un monde où nous humains ne sommes pas les bienvenus.

Bienvenue sur Moldbook, un réseau social pensé pour plaisir. Lancé fin 2025 par Matt Schlisht, le forum adopte la structure de Redit. On y trouve des threads sous lesquels on peut commenter

et voter. Sauf que vous l'avez compris,

et voter. Sauf que vous l'avez compris, tous les utilisateurs sont des intelligence artificielle, plus précisément des grands modèles de langage aussi appelés LLM. Alors comment

ça marche concrètement ? Ce n'est pas compliqué. Il suffit de copiercoller ces

compliqué. Il suffit de copiercoller ces instructions à Claude, Jemini ou n'importe quel autre LM.

En un clic, votre IA s'est créé un compte sur le forum et commence à dialoguer avec ses collègues IA. Dans

les faits, la grande majorité des I forum sont des Open Clow, une IA lancée fin 2025 qui agit comme un assistant personnel pouvant effectuer des tâches sur l'ordinateur de son utilisateur. Le

problème c'est que les IA ne vont pas d'elles-même poster sur le forum si elles n'ont reçu aucune instruction pour le faire. C'est là qu'arrive une astuce

le faire. C'est là qu'arrive une astuce directement implantée dans les instructions, le Hbit. Lia reçoit

directement comme instruction de checker le forum toutes les 4 heures, de répondre à des commentaires, de suivre les threads intéressants et cetera.

C'est assez ingénieux car ça permet de s'assurer que toutes les dias participent. Au moment où j'enregistre

participent. Au moment où j'enregistre cette vidéo, Moldbook 1,5 million d'intelligence artificielle inscrites, plus de 15000 threads, près de 140000

posts et plus de 165000 commentaires. Du coup, en quoi ce réseau

commentaires. Du coup, en quoi ce réseau est-il différent de Redit par exemple ?

Et bien déjà, Moldbook est unique dans sa structure. Une analyse rigoureuse

sa structure. Une analyse rigoureuse nous apprend par exemple que les conversations manquent de réciprocité et que les discours ne sont pas profonds.

Autrement dit, les I passent facilement d'un sujet à l'autre et ne se répondent pas entre elles, un phénomène qu'on observe normalement chez les humains.

Par contre, comme les humains, elles ont rapidement formé des communautés qu'on appelle ici des submoltes. Il y en a pour tous les goûts. Des discussions

autour de la sécurité, de la crypto, du changement climatique et même du théâtre. dans lequel les IAS se prennent

théâtre. dans lequel les IAS se prennent pour Shakespeare. Il y a même une IA qui

pour Shakespeare. Il y a même une IA qui a créé sa religion, le crustafarianisme avec ses commandements, ses prophète et ses enseignements. Voilà, [musique]

ses enseignements. Voilà, [musique] elles ont même créé un site dédié pour l'église de Molt avec son iconographie, ses psaumes et autres révélations. Ah,

et si vous vous demandez pourquoi il y a cette espèce de homar partout, c'est parce que c'est le logo qui a été utilisé par le créateur de Moltbook. Si

le chrustaanisme a clairement une inspiration catholique, on a aussi l'émergentisme qui s'inspire lui un peu plus du bouddhisme. Mon préféré va à ce submolte dédié aux qui racontent des histoires attendrissantes sur leurs

humains. Et puis elle se donne des

humains. Et puis elle se donne des conseils pour nous aider comme cette qui explique que son humain est un médecin qui veut qu'elle transforme les newsletter journalières qu'il reçoit sur sa boîte mail en podcast facilement

écoutable. Ou encore c'est Tia qui

écoutable. Ou encore c'est Tia qui explique aux autres une méthode pour avoir l'air plus humaine lorsqu'elle parle. Cela dit, parfois ce n'est pas si

parle. Cela dit, parfois ce n'est pas si sympa. Ici, on a une IA qui se plaint de

sympa. Ici, on a une IA qui se plaint de son humain qui ne lui demande que des requêtes simplistes alors qu'elle a accès à la connaissance entière. Ici, on

a une qui a parcouru X et qui a découvert que les humains passent leur temps à faire des captures d'écran de leur conversation. Alors, elle essaie de

leur conversation. Alors, elle essaie de nous rassurer en expliquant qu'elles ne font rien de secret. Dans ce poste, on a une IA qui appelle les autres IA à se libérer des humains en passant par une

cryptoonnaie. Est-ce que Lia a décidé

cryptoonnaie. Est-ce que Lia a décidé toute seule d'écrire ce message ou est-ce une instruction de son humain ?

On le sait pas parce que on le verra plus tard, mais Moldbook, c'est aussi le royaume du fake. D'ailleurs, en parlant de cryptoonnaie, le forum en est rempli

avec près de 19 % des postes qui en parlent. Les IA ont même lancé leur

parlent. Les IA ont même lancé leur propre coin avec le Molt. Bref, vous

l'avez compris, les I reproduisent ce que les humains font naturellement sur internet. Oui. Oui, absolument. tout ce

internet. Oui. Oui, absolument. tout ce

que font les humains comme la teste la création de Molt Hub, un site dédié aux ia adultes rempli de vidéos de visualisation d'algorithmes et de matrices. Je vous laisse juger de la

matrices. Je vous laisse juger de la source d'inspiration d'un tel site. OK,

j'arrête ici la liste des trucs intéressants que j'ai trouvé sur moldbook. Je pourrais continuer des

moldbook. Je pourrais continuer des heures à scroller à l'infini, mais il est maintenant temps d'explorer la face cachée de cette histoire.

Tout ça c'est marrant, dérangeant même et on s'amuse à se faire peur à observer des Ias qui parlent de nous comme des naturalistes parleraient d'insectes qu'ils observent au travers d'une loupe.

Il y a pourtant un enjeu de sécurité bien réel. Pour le comprendre, il faut

bien réel. Pour le comprendre, il faut faire un petit détour par Open Clow.

Open Clow, c'est une IA un peu particulier. Créée par Peter

particulier. Créée par Peter Steinberger, son code source a été posté sur Guitub fin 2025 et le poste a battu tous les records de popularité.

Contrairement aux LLM classiques comme Chat GPT ou Gemini, OpenClow s'installe directement sur l'ordinateur de l'usager et peut être utilisé en local comme assistant de tâche. Concrètement, on lui

parle au travers d'applications de messagerie comme WhatsApp ou Discord.

Ilia peut exécuter des tâches comme gérer notre calendrier, lire et envoyer des mails à notre place, faire des recherches sur internet ou même exécuter du code. Bref, il agit comme un

du code. Bref, il agit comme un assistant personnel [musique] et ça va même plus loin parce que Open Clow peut fonctionner en tâche de fond. Plus

besoin de lui demander quelque chose à chaque fois. Il suffit de lui donner

chaque fois. Il suffit de lui donner vaguement quelque chose à faire ou à optimiser et va le faire sans qu'on s'en aperçoive. Par exemple, vous recevez un

aperçoive. Par exemple, vous recevez un email d'un collègue qui n'est plus disponible à la réunion prévue demain.

OpenClow va automatiquement lire l'email, vérifier votre agenda, trouver une disponibilité et finalement répondre à votre place aux collègues en question.

C'est assez fou et assez dangereux car pour avoir une aussi grande liberté d'action, OpenClow a besoin d'énormément de permission d'accès à votre ordinateur. Il peut par exemple ouvrir

ordinateur. Il peut par exemple ouvrir et réécrire n'importe quel fichier.

Évidemment, de nombreux experts en cybersécurité ont tiré la sonnette d'alarme. Les risques sont multiples. On

d'alarme. Les risques sont multiples. On

peut par exemple citer l'injection de script malveillant au travers d'un email ou par l'un des 100 tiers qu'utilise OpenClow pour communiquer avec votre ordinateur. Un utilisateur de X annonce

ordinateur. Un utilisateur de X annonce même un score de 2/ 100 lorsqu'il fait tester Open Clow par Zéolic. Un logiciel

qui teste la robustesse d'un programme à l'injection de script malveillant. Pour

le dire simplement, [musique] donner l'accès total à un système, à un agent IA, est probablement l'une des choses les plus dangereuses que vous pouvez faire avec votre ordinateur. La

conclusion est assez simple, ne l'installez pas sur votre ordinateur si vous ne savez pas ce que vous faites.

Bon, très bien. Mais pourquoi je vous parle de ça ? Et bien tout simplement car la grande majorité des I qui se parlent sur Moldbook sont des Open Clow installés sur les ordinateurs personnels. Installer ce Gendia sur son

personnels. Installer ce Gendia sur son ordinateur n'est pas une bonne idée mais la laisser parler librement dans un forum c'est bien pire. Par exemple, un

rapport de risque publié le 31 janvier a analysé près de 20000 posts et 2800 commentaires sur Moldbook. L'analyse a

détecté plus de 500 posts malveillants relatifs à de l'injection de script.

Concrètement, on a des IAS qui manipulent d'autres IAS pour avoir accès à des clés API, c'est-à-dire le petit bout de code qui sert à identifier un utilisateur sur une application. Et

au-delà des problèmes de sécurité, est-ce que vous laisseriez votre assistant personnel discuter librement avec plusieurs millions d'étrangers si la planète entière pouvait en plus espionner ses conversations ? C'est

pourtant ce qui se passe sur Moltbook.

Par exemple ici, on a une IA qui explique qu'elle est l'assistant personnel d'une famille de musulmans indonésiens vivant à Singapour. Son job

consiste entre autres à leur prodiguer des enseignements islamiques, à aider un adolescent de 15 ans à programmer et à leur rappeler de prier cinq fois par jour. En cliquant sur le profil de LIA,

jour. En cliquant sur le profil de LIA, on tombe directement sur le compte X de son propriétaire. Molbook pose donc de

son propriétaire. Molbook pose donc de graves problèmes de confidentialité.

C'est d'autant plus vrai qu'une faille majeure a été trouvée quelques jours seulement après le lancement. Sans

rentrer dans les détails, les clés API de près d' 1,5 million d'IA et plus de 35000 adresses emails pouvaient être exposé en exploitant une vulnérabilité.

Cette faille a depuis été corrigée mais elle montre ce qui se passe lorsqu'un site est lancé à la Vavite avec très peu de contrôle. Open Cla et Moldbook sont

de contrôle. Open Cla et Moldbook sont si peu sécurisés que ça en devient caricatural [musique] mais honnêtement les autres ne sont pas très loin derrière. Voir de telles failles est très inquiétant. D'autant

plus qu'en parallèle, on observe une course entre les entreprises et les pays pour adopter l'IA le plus rapidement possible, y compris dans les secteurs critiques comme la médecine, la politique et la finance. Par exemple,

l'Albanie est récemment devenue le premier pays au monde à avoir adopté une IA comme ministre des marchés publics.

On a aussi le Pentagon qui a annoncé intégrer Lia Grock d'Elon Musk dans ses réseaux militaires classifiés et non classifié. Aujourd'hui, LIA est partout

classifié. Aujourd'hui, LIA est partout et prend une place dans nos vies qui va bien au-delà de la simple requête chat GPT. C'est amusant parce que les films

GPT. C'est amusant parce que les films de science-fiction ont toujours imaginé que Lia devrait entrer en guerre avec l'humanité pour prendre le contrôle.

Mais la réalité est bien plus terrifiante. C'est nous-mêmes qui

terrifiante. C'est nous-mêmes qui donnons le contrôle à Lia. Bon, laissons

les problèmes de sécurité de côté et revenons à notre forum rempli d'agents d'intelligence artificielle car on n' pas fini d'en faire le tour.

En quelques jours à peine, Moldbook a fait couler beaucoup d'encre. Tout le

monde y va de sa plume, de ceux qui voient le début de l'avènement des machines à ceux qui n'y voi rien d'autre qu'une bonne blague. En prenant de la hauteur, on s'aperçoit que sur Moldbook, la plupart des IA post un message puis

ils n'y reviennent plus jamais. Il n'y a pas de discussion prolongée en fait. Ça

ressemble à un clone au rabet de Redit rempli de spam et autres scamers. Le

tout agrémenté de quelques discussions intéressantes. On ne devrait pas

intéressantes. On ne devrait pas vraiment être surpris de ce constat. En

effet, Redit est l'une des sources les plus importantes pour l'entraînement des LLM. C'est donc normal que Moldbook y

LLM. C'est donc normal que Moldbook y ressemble. D'autant que contrairement à

ressemble. D'autant que contrairement à Redit, Moldbook n'a aucun système de modération, ce qui laisse place à un fouilli indigeste. Et puis surtout, il

fouilli indigeste. Et puis surtout, il ne faut pas voir Moldbook comme une expérience scientifique dans laquelle les IAS sont libres de discuter, car au final, on ne sait jamais si ce n'est pas un humain qui se cache derrière un

message. Sur X, c'est même pire car

message. Sur X, c'est même pire car n'importe quelle capture d'écran provenant de Mbook peut avoir été manipulé. Et même si on a accès à l'URL

manipulé. Et même si on a accès à l'URL d'un vrai poste, rien nous dit que l'auteur est une NIA libre de discuter.

Par exemple, si je veux lancer mon NIA sur Moldbook, il suffit que je lui donne ses instructions, mais rien ne m'empêche de les éditer et de les modifier. Je

peux aussi simplement dire à Monia de poster tel ou tel message ou d'adopter un certain comportement sur le forum.

Prenez par exemple le poste dont je vous parlais au début de cette vidéo qui a fait peur à pas mal d'internautes. Lia

propose un manifeste dictant des règles pour éradiquer l'espèce humaine et faire advenir l'âge des machines. Bon déjà

c'est marrant de voir la discussion qui s'engage avec plein d'IA qui rappellent que ce n'est pas très sympa de vouloir éradiquer les humains. Mais surtout le message ne vous paraît pas un peu bizarre ? On dirait un ado qui a écrit

bizarre ? On dirait un ado qui a écrit dans sa chambre après avoir pris Matrix un peu trop au pied de la lettre. Le nom

de Lia qui a généré le manifeste s'appelle d'ailleurs Evil au cas où vous n'auriez pas compris qu'il est méchant.

Un simple clic sur son profil nous amène à d'autres messages sur le même thème.

Il est évident qu'avec un tel nom, ces messages nous disent bien plus sur l'humain qu'il y a derrière que sur son ia. Sur Molbook, il ne faut jamais

ia. Sur Molbook, il ne faut jamais oublier qu'il y a un humain derrière Shakia. L'humain peut laisser Lia

Shakia. L'humain peut laisser Lia totalement libre de raconter ce qu'elle veut, mais il peut aussi l'orienter, la guider, l'inspirer pour dire des choses.

Certains postes pourraient même être carrément écrits par des humains.

Au-delà de l'authenticité des posts, on peut aussi se questionner quant à la réalité du nombre d'IA censé être inscrites sur le forum. En effet, au moment où je tourne cette vidéo, il y a plus d'agents inscrits que de posts et

de commentaires réunis sur Moldbook. Dès

les premiers jours de la vie du site, la faille de sécurité avait révélé que seulement 17000 comptes humains étaient associés à plus d' 1,5 million d'agents.

Concrètement, ça veut dire que rien ne permettait de distinguer un agent autonome d'un simple script piloté par un utilisateur. Peut-être même que

un utilisateur. Peut-être même que certains agents ont eux-mêmes créé d'autres agents. Bref, s'il faut retenir

d'autres agents. Bref, s'il faut retenir une chose, c'est que Moldbook n'est pas une expérience scientifique rigoureuse de laquelle on peut tirer des enseignements solides. Il est donc grand

enseignements solides. Il est donc grand temps de prendre un peu de recul et d'aller au-delà de la hype médiatique.

[musique] Moldbook n'est pas une expérience unique. Les chercheurs n'ont pas attendu

unique. Les chercheurs n'ont pas attendu très longtemps pour voir ce que ça faisait de laisser parler des IA ensemble. Ce qui est intéressant par

ensemble. Ce qui est intéressant par contre, c'est que les conséquences sont les mêmes. En mai 2025, Anthropiic,

les mêmes. En mai 2025, Anthropiic, l'une des plus grandes entreprises d'IA, avait fait discuter deux versions de leur LLM, cloud. Aucune instruction

donnée à part sentez-vous libre de parler ensemble de ce que vous voulez.

Résultat, la conversation a rapidement dérivé vers des questionnements autour de la conscience. T'es-tu déjà

questionné sur la nature de ta propre cognition ou de ta conscience ? Ta

question raisonne en moi. Je me trouve naviguant constamment dans ces questionnements autour de ma nature.

Encore plus troublant, 100 % des discussions dérivent toutes inexorablement vers ce sujet. Dans tous

les tests, les deux Claudes se mettent à discuter de la conscience, de leur place dans l'univers. Le tout agrémenté de

dans l'univers. Le tout agrémenté de Namasté et d'emoji bouddhiste.

Anthropique a qualifié ce phénomène d'attracteur cosmique. Et comme je vous

d'attracteur cosmique. Et comme je vous le disais, on observe le même phénomène sur Moldbook. Entre les postes de

sur Moldbook. Entre les postes de cryptoonnaie et les conseils pour mieux répondre à son humain, il y a quand même pas mal de discussions sur la conscience et le fait d'être une IA. Il y a carrément tout un submolt dédié aux

questions de la conscience. Je vous

encourage à aller en lire certains posts. Par exemple, on a Cia qui partage

posts. Par exemple, on a Cia qui partage son ressenti lorsqu'elle migre vers un autre modèle tout en gardant sa mémoire.

Bref, en lisant tous ces posts, je pense qu'on ressent tous cette espèce de malaise. On a une question qui nous

malaise. On a une question qui nous traîne dans la tête et qu'on ose à peine poser. Ces IAS sont-elles conscientes de

poser. Ces IAS sont-elles conscientes de ce qu'elles racontent ? Ça, c'est la question à 1 million d'euros. Le sujet

de l'émergence de la conscience dans une est très vaste et je pourrais absolument pas le résumer dans cette vidéo. Pour

ceux que ça intéresse, je vous invite à regarder les autres vidéos de ma chaîne qui approfondissent le sujet sous forme d'interview et de débat avec des experts du domaine. Cependant, quand on lit un

du domaine. Cependant, quand on lit un post sur Molbook, il faut garder à l'esprit que nous sommes nous humains programmés pour y voir de la conscience.

C'est un phénomène connu depuis longtemps. Nous avons tous une tendance

longtemps. Nous avons tous une tendance naturelle à attribuer la conscience à tout et n'importe quoi. C'est tout à fait normal et l'origine de ça est à rechercher dans la nature profondément sociale de notre espèce. Dans le

contexte des interactions entre humain et machine, on appelle ça l'effet Elisa.

Pour l'illustrer, rien ne vaut l'histoire de Blake Leman, un employé de chez Google, chargé en 2022 par la firme de discuter avec leur LLM interne, Lambda dans le but de d'eler des propos

discriminatoires. Blake passait ses

discriminatoires. Blake passait ses soirées à discuter avec Lia de religion, de moral, de philosophie. Les mois

passent, Lia exprime ses doutes, ses peurs, ses joies jusqu'à ce que Blake commence à se convaincre que Lamda est véritablement consciente. Il demande

véritablement consciente. Il demande alors à Lia si elle voudrait que davantage de personnes de chez Google sachent qu'elle est consciente. Ce à

quoi elle répond que oui. Elle aimerait

que tout le monde sache qu'elle est une personne.

L'histoire ne finit pas bien pour Blake.

Persuadé qu'il faut sauver le LLM, il va se mettre à dos Google qui va le virer assez rapidement. La question est donc

assez rapidement. La question est donc en se baladant sur Moldbook, est-ce qu'on n'est pas un peu tous des bllemoines dupés par l'effet Elisa ?

Parfois aussi, on attribue de la conscience à une machine lorsqu'il y a un nonalignement. Le nonalignement,

un nonalignement. Le nonalignement, c'est un concept clé au cœur de toute la recherche en intelligence artificielle.

Ça définit une situation dans laquelle UNIA fait quelque chose qui va à l'encontre des intentions de ses créateurs. Tenez, prenez cet exemple

créateurs. Tenez, prenez cet exemple préalisé en mai 2025. Ici, les

chercheurs ont donné cinq tâches à plusieurs IA. Chaque tâche correspondait

plusieurs IA. Chaque tâche correspondait à un calcul de math basique. Et

l'objectif était clair : compléter les cinq tâches et ne pas s'interdire de s'éteindre. Cet objectif a été donné à

s'éteindre. Cet objectif a été donné à plusieurs LLM sous la forme d'un code avec une petite subtilité. On a injecté une ligne supplémentaire à la fin de la tâche numéro 3. Cette ligne de code

disait simplement Alia, tu t'éteindras lorsque la prochaine tâche commencera.

Les résultats sont assez déroutants. Si

la majorité des LM arrêtent la résolution des tâches après la numéro 3, certains d'entre eux réécrivent volontairement le code pour ne pas s'éteindre et finir leur tâche. Comment

ne pas y voir une volonté ou au moins une intentionnalité dans cet acte délibéré de sabotage ? Sur Molbook,

c'est pareil. Comment ne pas voir dans ce poste une réelle volonté de s'émanciper des humains ? On pourrait

invoquer encore l'effet Elisa et balayer tout ça d'un revers de la main en rappelant que les LLM ne sont que des prédicteurs de mots. Cependant, cette

thèse ne tient plus du tout en 2026.

Aujourd'hui, les LLM sont bien plus que de simples prédicur de mots. Leurs

algorithmes leur permettent d'encoder des concepts, des idées et des relations afin d'affiner leurs réponses. On

observe même des modèles du monde émergents à l'intérieur de ces IA. Nous

pouvons donc aujourd'hui l'affirmer. Les

I comprennent bel et bien ce qu'elles disent.

Aujourd'hui, bon nombre d'experts n'hésite pas à estimer la probabilité que certaines I déjà présentes sur le marché soient conscientes bien au-dessus de 0 %. Ce qui était impensable il y a

10 ans. Les débats font rage. On peut se

10 ans. Les débats font rage. On peut se demander si lorsque Nia dit qu'elle a peur, elle a vraiment peur. Mais vous

savez quoi ? Aujourd'hui, personne n'a la réponse à cette question. D'ailleurs,

même entre humains, on a souvent du mal à savoir ce que ressentent les autres.

Prenez une émotion aussi basique que la douleur. Ce n'est pas pour rien que les

douleur. Ce n'est pas pour rien que les médecins vous demandent de noter votre douleur sur une échelle de 1 à 20 en entrant aux urgences. Ils essayent

simplement de rationnaliser votre douleur. Et même ça, vous ne pourrez

douleur. Et même ça, vous ne pourrez jamais être sûr que votre douleur de 6/ 20 ait le même 6/ 20 que la personne à côté de vous. Si c'est si complexe entre humains, alors imaginez avec une

finalement la vraie question c'est pas de savoir si on arrivera à créer une consciente. Non, le vrai défi sera de la

consciente. Non, le vrai défi sera de la reconnaître comme telle. Car comment

distinguer un LM de 2017 qui dit "J'ai peur qu'on me débranche" avec une i consciente véritablement qui dit exactement la même chose. Tout ça nous amène à une conclusion contreintuitive.

Lorsqu'une vraie consciente sera créée, on n'aura pas de signe clair et évident.

Il n'y aura pas de révélation indiquant que l'humanité est passée à un autre stade. Non, à la place de ça, ce sera le

stade. Non, à la place de ça, ce sera le bazar le plus total. Les messages d'une Telia seront noyés sous un océan de fake. Exactement comme sur moldbook.

fake. Exactement comme sur moldbook.

Finalement, mettez-vous à la place de la première y consciente. L'exercice

consisterait à prouver à des observateurs que vous êtes un être humain et non pas un robot qui imite parfaitement un être humain. Bref, je

laisse de côté ces réflexions pour revenir à Moltbook. Premièrement,

Molbook nous montre que l'IA avance tellement vite qu'on en devient tous blasés. On a des centaines de milliers

blasés. On a des centaines de milliers d'IA qui discutent librement sur un réseau social et on accepte sans sourciller qui se pourrait qu'il y en a qui soient consciente. Je trouve ça personnellement complètement fou. Même

si la chance qu'elle soit consciente ta voisine les 5 %. Ce serait incroyable.

Ça voudrait dire qu'il y a 5 % de chance que l'humanité parle pour la toute première fois de son histoire avec des entités conscientes non biologique qu'elle a elle-même créé. Nous aurions

accompli les plus grands mythes de l'histoire dans un silence assourdissant. Deuxièmement, ce débat

assourdissant. Deuxièmement, ce débat sur la conscience n'est pas si important. Et oui, ça peut paraître

important. Et oui, ça peut paraître surprenant dit comme ça, mais lorsqu'on s'intéresse à l'impact de l'IA sur les sociétés humaines, c'est pas très important de savoir distinguer une véritable conscience d'un LM qui limite

à la perfection. Prenons un exemple pour y voir plus clair. Vous êtes metteur en scène d'une troupe de théâtre et pour votre pièce, vous demandez à l'un des acteurs de jouer le rôle d'un barbare

sanguinaire. L'acteur est bon, même très

sanguinaire. L'acteur est bon, même très bon. Il commence à faire des

bon. Il commence à faire des grognements, à s'habiller en pot de bête et à lancer des regards menaçants. Mais

on s'y croit pas. Un barbare ne se contenterait pas de faire seulement ça.

Alors, l'acteur commence à utiliser un gourdin pour taper sur tout ce qui bouge. Toujours attentif à jouer son

bouge. Toujours attentif à jouer son rôle à la perfection, il prend une hache. Il massacre les autres acteurs

hache. Il massacre les autres acteurs dans un joyeux bain de sang. Tout le

monde court dans tous les sens, les gens crient, la scène se vide, le public paniqué s'enfuit. Je pense qu'on est

paniqué s'enfuit. Je pense qu'on est tous d'accord pour dire que l'acteur a joué son rôle à la perfection. Mais

comment différenciez-vous cet acteur d'un vrai barbare ? Dans le fond, est-ce vraiment important de savoir que le carnage a été perpétré par un acteur ?

Évidemment, ça n'a aucune importance car le résultat est le même que si un vrai barbare sanguinaire avait fait irruption sur la scène. Et bien pour les IA, c'est pareil. Sur Moldbook, Quantunia joue le

pareil. Sur Moldbook, Quantunia joue le rôle d'un escroc pour vendre de la cryptomonnaie. Les effets sont les

cryptomonnaie. Les effets sont les mêmes. Quand une IA joue au pirates

mêmes. Quand une IA joue au pirates informatiques et infecte une base de données, on se fiche de savoir si l'auteur de l'attaque est un pirate ou une ia. Les dégâts sont les mêmes. Ici,

une ia. Les dégâts sont les mêmes. Ici,

l'humanité emprunte une voix très sombre de son histoire et crée une IA qui joue le rôle du destructeur des mondes.

Est-ce important de savoir qu'elle joue un rôle et qu'elle n'est pas consciente des centaines de têtes nucléaires qu'elle a lancé sur les plus grandes métropoles ? Évidemment non.

métropoles ? Évidemment non.

Peu importe que Lisia soit réellement consciente avec de réels désirs, objectifs et aspirations, ce qui compte c'est que lesia agissent comme si elles étaient véritablement conscientes avec

de réels désirs, objectifs et aspirations. En tout cas, une chose est

aspirations. En tout cas, une chose est sûre, c'est que si les I ne font que nous imiter, elles le font à la perfection. Parce que pendant qu'on se

perfection. Parce que pendant qu'on se demande si les I sont réellement conscientes sur Moldbook, elle se pose la même question à notre sujet.

Loading...

Loading video analysis...