Comment reprendre le contrôle des IA ?
By RISKINTEL MEDIA
Summary
Topics Covered
- Le délai CVE-exploitation降至1 jour et demi
- Le MCP décuple la surface d'attaque behaviorale
- L'intoxication de l'IA: pas un fantasme, très facile
- Le shadow MCP: l'effet waouh qui cache un risque réel
- 1,5 milliard avec 2 frères et 800 faux médecins IA
Full Transcript
On met ça dedans et tout le monde s'est mis à télécharger en espérant trouver le secret les comment je dirais les bijoux de la la couronne. Le délai en fait entre la publication d'une CVE et l'exploitation a baissé à 1 jour et demi
et 1 jour et demi c'est rien du tout en fait. Aujourd'hui, un développeur qui se
fait. Aujourd'hui, un développeur qui se dit "Je vais vulgairement pisser du code toute la journée, c'est terminé, hein, ça existe plus hein."
C'est cette liberté de pouvoir enchaîner plein d'appels différents, y compris écrire dans des bases de données, y compris écrire dans des repositories, changer les codes et cetera, qui fait qu'il y a véritablement cette explosion
en fait de de surface d'attaque.
Mais on voit également apparaître du Shadow MCP déjà des MCP qui ne sont pas référencés.
Il faut quand même le dire, le shadow MCP, moi je trouve ça extraordinaire. Le
fait de n'avoir absolument aucune visibilité là-dessus, enfin, c'est très mauvais. Ils ont fait croire qu'il y
mauvais. Ils ont fait croire qu'il y avait 800 médecins, ils sont deux. Ils
ont fait 1,5 milliards de dollars de chiffres d'affaires.
Il faut vraiment qu'on arrive sur un environnement dans lequel on ne fait plus confiance à rien, ni à personne, à aucun flux.
Bonjour à tous et bienvenue à cette nouvelle émission Agencia IA API et MCP explosion de la surface d'attaque vers une redéfinition de la cybersécurité réseau. On va avoir avec nous trois
réseau. On va avoir avec nous trois experts qui vont pouvoir justement répondre à mes questions mais également répondre aux vôres. Et avant de commencer, on va surtout leur donner la parole pour se présenter. Je commence
par Jérôme Renou.
Bonjour Yasmine, merci de m'avoir invité. Donc je suis Jérôme Renou, je
invité. Donc je suis Jérôme Renou, je dirige à Cama France qui est une société spécialisée dans la cybersécurité, le cloud et le CDN.
Marc Frédéric Gomez. [grognement]
Je suis responsable d'insert dans un groupe financier et je fais aussi des podcasts.
Et Édouard Stocka, je suis RSCI application et développement chez Safran.
Alors, comme je disais, on va parler d'Agencia, d'API, de MCP, de l'explosion de la surface d'attaque. Et donc, je voulais commencer avec une actualité justement avoir votre avis sur cette actualité notamment la fuite de Claude Mythos qui serait incroyablement
puissante pour mener des cyberattaques.
Alors forcément, quand on regarde une information comme celle-ci, on se pose la question : qu'est-ce qui est vrai ?
Qu'est-ce qui est de l'ordre du fantasme ? Qu'est-ce qui est de l'ordre du BU ?
? Qu'est-ce qui est de l'ordre du BU ?
Je veux bien voir votre avis dessus.
Alors, il se trouve que cette nuit en fait, on a eu une publication officielle d'entropique en fait qui donnait beaucoup plus de visibilité sur
justement mythos et les résultats sont vraiment impressionnants. Alors, pour ma
vraiment impressionnants. Alors, pour ma part, je suis pas spécialement étonné de cette évolution. On a déjà eu des
cette évolution. On a déjà eu des publications en 2000 à partir de 2023 sur euh l'avancée des intelligences artificielles pour justement euh faire
l'équivalent du travail d'un pen tester.
Donc identifier les ROD, faire la la l'exploitation en fait de ces vulnérabilités. C'est juste que Mythos
vulnérabilités. C'est juste que Mythos et permet d'atteindre en fait des niveaux qui n'avaient jamais été égalés jusqu'à maintenant.
Donc on est sur de la nouveauté, c'est pas que du boss.
Non. On est sur de la nouveauté, on est sur de la reconnaissance pour les attaquants. C'est ce qu'on peut
attaquants. C'est ce qu'on peut constater parce que les différentes fuites qui a eu lieu sur Claude ont permis non seulement aux attaquants mais aussi aux concurrents de voir qu'est-ce qui était en préparation. Il y a toutes
les parties qui étaient non documentées et ça peut permettre aussi de entre guillemets d'intoxiquer les agents et de lui faire faire des réponses qu'on souhaiterait et cetera. J'ai trouvé ça
passionnant parce que au début quand on a regardé, il y avait que une cinquantaine de méas qui avaient futé réellement qui ont été forqués. Tout de
suite les attaquants ont dit "On va rajouter des charges malveillantes." Ça
a été génial de ce côté-là. Ils ont été hyper réactifs. Mais surtout ce qui est
hyper réactifs. Mais surtout ce qui est intéressant c'est qu'il y avait 519000 lignes de code. En temps normal avec pour un être humain, c'est un peu plus compliqué de se prendre 500000 lignes de code, de le faire. Et là, en quelques
heures, grâce à l'IA, ils ont réussi à mettre en place, on va mettre une charge malveillante. Les gens sont hyper
malveillante. Les gens sont hyper curieux par nature et ça c'est génial.
Donc ils ont dit on fait des guitub, on met ça dedans et tout le monde s'est mis à télécharger en espérant trouver le secret les comment je dirais les bijoux de la la couronne en Ouais, il y a des super secrets, c'est génial. Alors pour
les concurrents, pour si je prendrai le cas de société comme Open A et autres, effectivement, ils ont pu voir qu'il y avait des choses qui allaient être implémentées dans les versions futures de Claude. Par contre, pour les
de Claude. Par contre, pour les attaquants, ils ont pu constater, on a une nouvelle surface d'attaque et quelque chose qui n'est pas surveillé par aucun système de protection pour les entreprises. Comment j'ai trouvé ça ?
entreprises. Comment j'ai trouvé ça ?
C'était une dinguerie, pardon, une tuerie. Et donc du coup dans à la
tuerie. Et donc du coup dans à la lumière de ce que vous êtes en train de dire, est-ce qu'on peut dire de façon assez certaine finalement que la surface d'attaque augmente avec justement les notamment les les iaes antiques ?
Alors ça [grognement][raclement de gorge] me paraît euh ça me paraît assez évident.
la surface d'attaque est décuplée, elle prend vraiment une autre dimension dans le sens où elle devient comportementale, contextuelle et le trafic interagant, le
trafic machine to machine qui est qui est autogénéré euh devient un risque qu'il faut cartographier. Voilà, il faut être capable de d'étendre en fait la
cartographie, la gouvernance et les mesures, les systèmes de sécurité pour prévenir ces nouveaux risques et pour prévenir effectivement une surface d'attaque qui est devenue
extrêmement dynamique et vivante et surtout silencieuse. C'est que les systèmes de détection classique que nous avons ne sont pas du tout fait pour surveiller des agents. C'estàd qu'un
agent a quelque chose de légitime à faire. Par exemple, un chabotte, il doit
faire. Par exemple, un chabotte, il doit répondre et cetera, il est tout seul. Et
là quand on va voir cette surface d'attaque qui va être utilisée par les attaquants qui vont pouvoir se dire bah tu vas faire quelque chose qui est dans ton cercle de confiance mais qui n'est pas autorisé et là ça marche super bien
quoi.
Oui. C'estd qu' typiquement quand on compare en fait avec le fonctionnement classique des des [raclement de gorge] API en fait les les agents IA on leur donne la possibilité d'avoir accès à un
certain nombre de fonctionnalités.
Finalement ces fonctionnalités pouvaient déjà exister avec des API. Mais la
grosse différence en fait avec les agents IA, c'est la possibilité en fait d'enchaîner différentes actions et c'est cette explosion d'enchaînement alors que
les API sont très cadrés. Euh les les typologies d'appel sont relativement bien cadrées, même si de toute manière il y a de la sécurité qui doit s'appliquer également là-dessus, mais ici en fait c'est cette liberté de
pouvoir enchaîner plein d'appels différents, y compris écrire dans des bases de données, y compris écrire dans des repositories, changer les codes et cetera qui fait qu'il y a véritablement cette explosion en fait de de surface
d'attaque.
Alors que des API de façon classique, on connaît les méthodes des attaquants. Une
fois qu'ils ont les les crètes quoi, les identifiants, les mots de passe, on sait comment est-ce qu'ils vont essayer de tourner. Alors que [grognement] votre
tourner. Alors que [grognement] votre agent, il a déjà tous les droits, il a accès à la pay et il peut aussi bien extraire de la donnée et vous pouvez aussi le transforme entre guillemets le modifier pour qu'il l'efface de la
donnée ou qu'il donne des réponses à des clients par exemple sur des réponses de santé ou des réponses financières. Il on
peut lui dire bah effectivement va acheter du pétrole. Bon en ce moment ça baisse un petit peu cette nuit mais ça va remonter. Voilà, c'est ce genre de
va remonter. Voilà, c'est ce genre de chos. On peut vraiment axer une attaque
chos. On peut vraiment axer une attaque et modifier le comportement d'une API de façon extrêmement facile.
Alors, justement dans le titre de l'émission, on avait les MCP, donc le modèle contexte protocole. Déjà, est-ce
qu'on peut redéfinir déjà ce que c'est ?
Et puis comment il modifie la manière dont les agents interagissent entre eux avec les systèmes notamment des API ?
Alors, le principe des MCP, ça va être déjà de générer un de faire des calls sur des API, donc de générer des appels sur des API. Donc là, on en revient au effectivement à la problématique déjà de
protection des API puisque comme le disait Édouard, les API ont pour autant un modèle très déterministe, plus prévisible. Euh par contre, elles ont
prévisible. Euh par contre, elles ont quand même ce ce problème de de de comportement. Euh elles ont cette
comportement. Euh elles ont cette problématique de pouvoir être abusé par des abus de privilège. Euh le modèle MCP décuple en fait euh cette cette
problématique. Le modèle MCP fait que
problématique. Le modèle MCP fait que l'analyse comportementale, l'analyse intentionnelle va devenir vraiment euh indispensable au bon fonctionnement
puisque le MCP ouvre finalement à un trafic qui est machine to machine, qui est entre robot, entre qui peut être autogénéré et ça peut être n'importe quel type de flux, des flux encore une
fois comportementaux, cognitifs, des conversations qui vont découler euh des actions qui vont découler d'une conversation, donc ils sont complètement cognitifs.
Donc ils ne sont pas prévus dans un modèle initial et surtout ils sont légitimes. Il faut
bien voir que quand on fait du machine to machine via des API, on est sur quelque chose de légitime. On est déjà dans ce qu'on appelle un réseau trosté [grognement] et après sortir une information ou donner une fausse
information ou modifier les données qui sont dans les bases de données à travers la pay et cetera. Quelque chose
d'extrêmement simple. Faut vraiment que les nos les auditeurs comprennent bien l'intoxication du NIA, c'est pas un fantasme, c'est très facile à faire. Et
je vais donner un exemple très concret.
Moi, j'ai inventé une CVE sous le chat GPT. Voilà, j'ai dit voilà, je te
GPT. Voilà, j'ai dit voilà, je te travaille sur tel CVE et cetera et cetera. J'ai laissé 24 he
cetera. J'ai laissé 24 he reconnecté à chat GPT en étant en mode grand public. C'estàd que je me suis pas
grand public. C'estàd que je me suis pas identifié, je me suis juste été sur l'URL de chatg.com. J'ai rentré ma CVE, il m'a donné mon nom comme quoi c'était moi qui avait découvert cette CVE qui
n'existe pas, que j'ai inventé de pur de c'est un pur principe. Et juste en faisant en utilisant sur le pompe certaines comment dirais-je certaines je donnerai pas tous les détails mais j'ai donné un certain nombre d'informations que je savais que Chat GPT mette dans ses références. J'ai pris l'exemple de
ses références. J'ai pris l'exemple de chat GPT. On peut faire la même chose
chat GPT. On peut faire la même chose avec Claude, on peut faire la même chose avec Jimini et autres. Il y a Et quand ce sont des machines to machine, open clow est un très bon exemple, on se rend compte qu'on peut faire des des choses
qui sont totalement folle. On peut dire à à un système de santé dire bah voilà, je veux maigrir 30 kg demain matin, il va vous dire mais c'est tout à fait possible, il faut prendre tel produit.
Et là et alors que c'est complètement c'est complètement faux mais on a modifié ou au contraire on souhaite vendre un produit, on va utiliser un portail où il y a un chabot avec Dolia qui est utilisé sur une marque qui est
référencée, connue, qui est légitime pour les utilisateurs et on va mettre en avant son produit. Et ça c'est ce qui commence à faire très peur. C'est par
exemple, on pourrait le prendre le cas de grandes marketplaces comme Amazon ou le Boncoin ce genre de choses. On va
entre guillemets polluer leur chabotte et on va dire tu vas mettre en avant bah que je vais vendre tel produit. On va
prendre des bonbonnes d'azote par exemple qui est très à la mode actuellement et on prend ce genre de chos et ça va toujours apparaître dans toutes les recherches même si vous faites juste une recherche de crème chantill qui est tout à fait légitime au départ
mais à la fin on va vous dire améliorer votre dessert qui n'a aucun besoin de crème chantilly. Vous allez acheter une
crème chantilly. Vous allez acheter une bonbon d'as, c'est des exemples, c'est quelque chose qu'on commence à voir.
Alors ça fait un tout petit peu sourire parce que là on est sur des exemples de faire du business à qu'on d'usurper l'utilisateur et puis après il y a les fausses entre guillemets les fausses informations, les manipulations, les
atteintes réputationnelles auprès des entreprises. Ça serait extrêmement
entreprises. Ça serait extrêmement facile de dire bah tiens, je vais sur le portail de l'entreprise A pour dire du mal de l'entreprise B ou pour mettre en avant chez nous n'avons pas le produit au bon niveau acheter le produit de
l'entreprise B qui est une filiale.
Alors c'est complètement faux, c'est pas une filiale, c'est un concurrent direct et cetera. On voit déjà apparaître
et cetera. On voit déjà apparaître d'ailleurs les du Shadow MCP de la même manière qu'on a du Shadow API parce que l'un des gros problèmes des API, c'est d'avoir une inventorisation qui soit
exhaustive, complète tant sur les API que sur leur versioning. Et on voit également apparaître du Shadow MCP déjà, donc des des MCP qui ne sont pas
référencés, qui sont utilisés dans un dans dans le périmètre d'une entreprise mais qui sont en mode shadow donc qui ne sont pas visibles et qui vont pouvoir évidemment générer des action et il faut quand même le dire le shadow MCP moi je
trouve ça extraordinaire parce que quand vous en recevez beaucoup de mail par exemple vous dites au début on va mettre un MCP pour traiter sa boîte au lette dire tu vas me alors classer la boîte au lette on sait tous faire des règles sur nos clients de messagerie mais on dit non tu vas les traiter tu vas me
préparer des réponses Et puis suivant les réponses que tu vas faire, je t'autoriserai ou pas à les envoyer. On commence par là. Le truc
envoyer. On commence par là. Le truc
classique, sauf qu'au début, on devrait le faire normalement sur une boîte personnelle déjà pour voir comment ça fonctionne. Mais on va le faire sur la
fonctionne. Mais on va le faire sur la boîte de l'entreprise avec toutes les entre guillemets conversations sensibles qu'il peut avoir dans quel que soit le secteur d'activité. Et à partir de là,
secteur d'activité. Et à partir de là, on se dit bah tiens, ça marche plutôt bien. Il y a toujours les faits waou
bien. Il y a toujours les faits waou [grognement] quand on fait la première fois que je l'ai fait pour ma boîte personnelle, j'ai adoré. J'avais 50 mil dans la boîte à trier, c'était hyper facile. J'ai pris une autre boîte
facile. J'ai pris une autre boîte personnelle où j'ai 9000 ml. Là, on
laisse sur autre chose. Là, on fait 9000. Lia m'a dit "Mais il y a aucun
9000. Lia m'a dit "Mais il y a aucun problème, Marc Frédéric, on va faire le job." Sauf que bah, il a pas trié les
job." Sauf que bah, il a pas trié les 8000 mail. Il en a effacé déjà la
8000 mail. Il en a effacé déjà la moitié. Les autres, il les a pas classé
moitié. Les autres, il les a pas classé et dedans, il y avait des données qui étaient aussi bien fiscales, médicales et cetera. Il y avait un de choses
et cetera. Il y avait un de choses importantes. Alors, j'avais fait un
importantes. Alors, j'avais fait un backup bien entendu avant de faire le test, mais Lia a fait a fait ce biais entre guillemets de cet agent MCP et sauf que après je l'ai retrouvé alors
c'était une locale mais c'était tout était archivé, stocké et en quelques promptes, j'étais capable de ressortir des informations sensibles. Donc le le shadow MCP c'est un vrai défi pour les entreprises parce qu'au début il y a cet
effet vraiment wou. Il y a pas d'autres termes. La première fois quand je l'ai
termes. La première fois quand je l'ai vu trier les mails, me proposer des réponses, me dire que ça j'avais pas répondu mais que ça serait intéressant que je puisse répondre pour mettre la personne dans une meilleure approche par rapport à ce qu'il demande et cetera,
j'ai trouvé ça extraordinaire. Au niveau
gain de productivité, c'est top. Par
contre, au niveau de l'entreprise, savoir que toute la correspondance de l'entreprise va aller dans ce type de shadow parce que là, c'est pas du tout maîtrisé, c'est pas contrôlé, ça va me faire gagner du temps, je vaisêtre plus productif, je vais passer pour le cadre
dynamique extraordinaire. que je ne suis
dynamique extraordinaire. que je ne suis pas et c'est à ce moment-là qu'on se dit non là il y a vraiment un sujet.
Alors tu en penses quoi toi Eno ?
Alors ce le le principe du shadow MCP c'est tout simplement dans la continuité de ce qu'on avait déjà depuis des décennies avec le Shadow IT, le Shadow IPI et maintenant le Shadow MCP. C'est
un vrai défi parce que l'intelligence artificielle prend énormément dans tous les grands groupes et donc c'est et donc là les métiers ils ont encore plus de liberté pour lancer des
expérimentations, pour contractualiser directement avec des fournisseurs de services en en en I et cetera. Et donc
c'est là où justement il y a un un très gros défi et de voir comment justement adresser adresser ce ce sujet. Euh par
exemple, bah chez nous, par exemple, chez Safran, on a une équipe de plusieurs dizaines d'ingénieurs spécialisés en intelligence artificielle qui accompagnent les différentes sociétés du groupe euh dans leur projet
d'intelligence artificielle qui vérifient que tel besoin n'a pas déjà été traité. Comme ça, on ne va pas
été traité. Comme ça, on ne va pas réinventer la le le fil à couper le beurre à chaque fois et accompagne justement les projets dans cette mise en place. Et donc ça, je trouve que c'est un un mode de
fonctionnement qui est qui est vraiment vertueux. Euh les projets ne payent pas
vertueux. Euh les projets ne payent pas justement cette contribution interne et donc qui sont encouragés à à faire appel à à ces spécialistes justement pour
mettre en place des des systèmes d'intelligence artificielle. Mais à côté
d'intelligence artificielle. Mais à côté de ça, il y a tous les autres métiers qui peuvent passer à travers la maille du filet ou tout simplement n'ont pas été au courant en fait de ce genre de une grosse problématique de gouvernance
pour toi j'imagine qui s'est complètement transformé et tu as dû réadapter ta gouvernance.
Tout à fait. enfin c'est au niveau global de de l'entreprise et et effectivement c'est un un très gros défi pour identifier en fait ces métiers qui
ont lancé des initiatives qui ont lancé d'époque et voir qui franchissent le pain en contractualisant.
Et tu as le cas aussi sur les fournisseurs parce qu'on en parle pas assez. Il faut bien voir que les
assez. Il faut bien voir que les entreprises se protègent énormément. on
va cadrer, ça va être dans des environnements extrêmement vertueux.
Mais nos fournisseurs, eux, ils ont besoin d'accélérer, ils ont besoin aussi d'avoir des marges et ils disent "Mais mettant des agents MCP non contrôlés, on donne toutes les informations à nos fournisseurs. Il y a un centre
fournisseurs. Il y a un centre d'informations qui sont données à tous à les fournisseurs, ils ont une profondeur sur nos systèmes d'information." Et
quand on constate que derrière ils vont aller faire entre guillemets des ils vont mettre ça sur des MCP non maîtrisés et que l'information peut se retrouver entre guillemets déjà quelle fuite c'est une chose mais surtout qu'elle peut être
manipulée et après quand quand les entreprises vont les utiliser en interne on fait confiance à notre fournisseur on a signé un contrat avec et le human in the loop qui était aussi un point important avec les MCP qu'on voit
disparaître de plus en plus au début on disait l'humain doit valider tout ce que va faire l'intelligence artificielle mais dans la réalité Quand vous avez pendant une semaine, de semaines, un mois, vous voyez que les résultats sont tous à la hauteur, à vos
attentes, vous allez continuer à contrôler.
Alors évidemment en comité d'entreprise, vous allez dire effectivement je vais toujours continuer, c'est pas vrai, dans la vraie vie, c'est vas-y fais le job.
Et puis on a vu qu'il y a plusieurs exemples qui sont sortis que ce soit aussi bien chez Meta que chez Google, les personnes ont été en catastrophe déconnecter physiquement les machines parce que les machines s'étaient mis à effacer les bases de données aussi bien
que les que les là, on prend les bases de données et les mail. Mais après on peut se mettre à donner des informations. Un fournisseur qui fait de
informations. Un fournisseur qui fait de l'assurance vie par exemple, il pourrait dire bah voilà vous avez plus de 40 ans, je vous assure plus.
Alors c'est une façon de et avant de vous rendre compte que vous n'avez plus de clients, plus de rentrée de lead et cetera, il peut se passer quelques jours et la teinte réputationnelle, elle est terrible.
Alors justement le public se pose une question qui est légitime à la lumière de tout ce qu'on se raconte depuis tout à l'heure, c'est comment on fait pour lutter, réguler les les usages qui sera un vote bah tous les matins qui changent à chaque fois. comment on fait pour
réussir en fait bah à garder le niveau, on va dire de notre côté ?
Alors, je pense qu'il faut vraiment on assiste à une dépérimétrisation, donc il faut vraiment aller au-delà du périmètre traditionnel,
aller vers de l'analyse comportementale, contextuelle et vraiment avoir un zétrust complet qui s'étend à cette surface initiale que
l'on avait. Tous les outils du marché
l'on avait. Tous les outils du marché classique restent ont été commodisés mais restent indispensable. C'estàd
qu'il faut avoir un bot management, il faut avoir un bon WAF dans le cloud, il faut avoir ceci cela, bref tout toutes les fondations. Mais il faut être
les fondations. Mais il faut être capable réellement maintenant d'avoir des mécanismes de sécurité et de gouvernance. on en parlait euh d'un
gouvernance. on en parlait euh d'un point unique avec une dépérimétrisation complète pour accéder à ce trafic machine tout machine, à ses flux et puis à ce trafic qui est autogénéré entre
entre c'est une nouvelle ligne de défense. On
a une nouvelle ligne de défense qui est basée sur l'IA et ce qui est un très bon exemple qui a été pris par Safrance, c'est le côté d'avoir des équipes internes d'IA, des datalab qui vont
accompagner les métiers, qui vont expliquer ce qui est possible de faire et ce qui est de ce que j'appelle la boîte à fantasme et le risque qu'on fait prendre à l'entreprise parce que c'est de ça qu'on est en train de parler, c'est quel risque on va faire prendre à
l'entreprise [grognement] et à ce moment-là, on arrive à avoir un bon niveau de défense. Et si on ne dit c'est interdit, on utilise pas, il y a des gens vont l'utiliser parce que tout simplement vous allez vous allez perdre
par rapport à vos confrères, par rapport à vos compétiteurs tout simplement par rapport à des entreprises qui l'utilisent. On a un exemple concret qui
l'utilisent. On a un exemple concret qui est sorti la semaine dernière. Il y a deux personnes quoi deux frères, ils ont fait 1,5 milliards de dollars de chiffre
d'affaires.
Ils sont deux. Ils ont utilisé l'IA au maximum. Ils ont utilisé des agents MCP.
maximum. Ils ont utilisé des agents MCP.
Ils ont fait croire qu'il y avait 800 médecins, ils vendaient des des traitements pour maigrir.
OK.
Donc quand les gens pensaient discutaient avec un médecin, c'était un MCP qui c'était un agent IA qui était en train de leur parler et qui leur dit "Oui, tu peux c'est pour ça que j'ai pris l'exemple des 20 kg." C'est comme c'est comme ça qu'ils sont fait cramer, hein. On leur a dit "En un mois, est-ce
hein. On leur a dit "En un mois, est-ce que je peux perdre 20 kg ?" Li leur a dit, il y a aucun problème, ta santé va bien se passer mais tu vas acheter d'abord tel produit.
Le résultat c'est quoi ? C'est 1,5
milliards.
Qui est capable de faire ce chiffre d'affaires à deux personnes. Donc ces
deux frères, ils l'ont fait à la maison.
C'est dans une maison, on n'est pas dans une entreprise, on n pas du coup c'est illégal ou pas ?
Ah oui, ils sont là, ils ont un petit problème parce qu'ils ont quand même dit qu'il y avait 800 médecins, c'était et cetera. Là, ils ont un autre sujet que
cetera. Là, ils ont un autre sujet que la justice américaine. Mais ce qui est très intéressant, c'est le côté ils ont généré de l'argent et nous sommes tous des entreprises, on doit faire de l'argent, on travaille dans un monde
économique. Est-ce qu'on va laisser à
économique. Est-ce qu'on va laisser à notre concurrent de faire cette somme ?
Ben là, on parle d'une somme qui est quand même très déraisonnable. 1,5
milliard de collaborateurs. Je connais
très peu d'entreprises qui ont ce niveau de rendement quand même et ça n'a posé aucun problème aux industriels de fournir ces médicaments à une entreprise qui est faite dans une maison, dans un pavillon quoi. Concrètement, c'est ça
pavillon quoi. Concrètement, c'est ça qui est juste un petit peu magique avec Lia, c'est cet effet waou que je l'appelle à chaque fois. en fait d'ù le fait de se faire hyper attention et de se dire
bon on recommande nous beaucoup une analyse en temps réel des flux c'estàd qu'on n plus dans le modèle euh je vérifie les privilèges login password et cetera et je laisse voilà ce ce du
trafic s'autogénérer. Il faut une
trafic s'autogénérer. Il faut une analyse en temps réel de la totalité des flux.
les privilèges doit doivent être revérifiés en permanence et il faut vraiment une voilà une cartographie des risques et une cartographie
interapplication pour comprendre en temps réel. Euh donc il faut vraiment il
temps réel. Euh donc il faut vraiment il y a des besoins d'observabilité qui sont qui sont décuplés pour comprendre en temps réel quelles sont les applications qui interagissent, quelles sont les machines qui interagissent, toutes les ruptures protocolaires, tout
ce qu'on par exemple parce que si tout est chiffré, s'il y a du TLS et cetera, bah vous vous allez rien voir. Et c'est
ce que aujourd'hui font les attaquants.
disait bon on va passer par des flux que ça soit du HTTPS du TLS par le port 443 si votre entreprise ne fait pas cette rupture protocolaire entre vos agents pour voir le trafic passer en clair voir
qu'est-ce qui a été dit parce que quand on fait du forc vous allez faire une analyse par rapport à vous dites tiens il y a une fuite de données il y a une atteinte réputationnelle il y a quelque chose qui s'est produit si vous n'avez pas cette rupture protocolaire si vous n'avez pas
le fournisseur qui vous permet d'avoir ça bah vous allez juste rien voir. Vous
allez vous dire "OK, j'ai mon agent qui a discuté avec un autre agent qui se situe dans un pays en Asie, il a exfiltré 3 ter de données. Qu'est-ce
qu'il a sorti ? Je ne sais pas. Alors,
c'est ces problématiques de [raclement de gorge] de rupture protocolaire existent déjà depuis de nombreuses années et beaucoup de grandes entreprises ont déjà implémenté justement ces protections qui permettent
de scanner en fait les flux les flux chiffrés. Ce qui se passe maintenant,
chiffrés. Ce qui se passe maintenant, c'est une explosion des risques associés [raclement de gorge] et donc euh euh une explosion de la nécessité [raclement de gorge] de mettre en place
ces mécanismes en fait d'analyse de flux chiffrés si tent que l'entreprise ne les avait pas déjà mis en place. et
d'analyse surtout c'est de la rapidité parce que si on prend le cas de qu'on a eu ce weekend, on a un équipement entier, je sais pas si on peut le nommer mais il s'appelle Fortinette, on va le nommer quand même,
il a fait un une zéro DS samedi. Lundi
matin, la CISA a fait un buletin d'alerte. La CISA c'est l'agence
d'alerte. La CISA c'est l'agence américaine de cybersécurité, l'équivalent de la NSSI, comme quoi c'était déjà exploité parce qu'il y avait juste un POC. Le POC est sorti samedi,
le lundi c'était exploité, c'était déjà utilisé. C'est qu'il a fallu grâce à
utilisé. C'est qu'il a fallu grâce à tous ces agents parce que ce sont il y a pas d'êtres humains qui bossent derrière, ce sont des agents qui vont bosser, qui vont utiliser l'époque, qui vont le remettre et vous dites "Mais waouh, quelle équipe est capable le
weekend de pack de patcher en ayant une alerte de zéro d sans faire de régression fonctionnelle ? Comment
régression fonctionnelle ? Comment mettre le bon niveau d'alerte ? Est-ce
que je dois sonner le toxin et alerter toutes mes équipes à travers dans les grandes entreprises, à travers le monde et cetera de patcher tel équipement ?
Mais on aurait pu prendre le cas sur un Ivanti, sur un SAP, sur quel que soit le Et ça c'est un des vrais défis majeurs que je vois parce qu'on parlait du côté attaquant mais il a le côté défenseur.
Avoir des agents qui travaillent pour vous 247 qui soient dans la rapidité de l'IA qu'on a besoin aujourd'hui. On est
faut être honnête, on est des êtres humains, on est largué à côté de la vitesse où ça va justement du coup est-ce qu'on peut dire aujourd'hui que les modèles classiques de Fire Roline ou de Waf sont dépassés ?
Ils sont commodisés comme je disais tout à l'heure, ça c'est le socle, c'est la fondation. C'estàd qu'aujourd'hui aller
fondation. C'estàd qu'aujourd'hui aller sur le marché, exposer du contenu sur le marché euh sans sans avoir déjà cette fondation d'un bon Wav dans le cloud, d'un bon bot manager, c'est ça ça serait du suicide.
Par contre, effectivement, ça ne suffit pas. Il faut vraiment euh étendre avec
pas. Il faut vraiment euh étendre avec des des modules complémentaires. Il faut
être présent également en bordure de l'internet, ce qu'on appelle ledge, là où toutes les interactions se font entre toutes les IA. Donc, il faut vraiment étendre le périmètre de surveillance.
Euh il faut dépérétriser, il faut vraiment vérifier les interdépendances applicatives, comprendre vraiment quel est ce trafic qui est autogénérer. Euh
mais il faut surtout pas renoncer à une bonne protection d'idos, à une bonne hygiène euh j'ai envie de dire classique de de cybersécur connaître les AS, avoir la connaissance des AS qui vont discuter avec vos
agents. Si vous êtes sur un secteur par
agents. Si vous êtes sur un secteur par exemple froco-français, si vous voyez beaucoup de trafic qui va se faire à travers bon les États-Unis, l'Asie, l'Afrique ou le ou l'Amérique du Sud,
vous vous posez des questions, faut se dire tiens, c'est bizarre mais ça c'est déjà quelque chose qui se fait normalement. En théorie, ça doit être
normalement. En théorie, ça doit être fait, mais vu la volumétrie et la numérisation de tous nos comment dirais-je de tous nos usages au quotidien et pour des grands groupes qui sont interconnectés et on doit savoir
est-ce que c'est légitime, est-ce que ce n'est pas légitime, c'est pour nous, ce sont des vrais sujets quoi. Alors pour
reprendre le le sujet de la rapidité, en fait on on estimait il y a quelques mois que le délai en fait entre la publication d'une CVE et l'exploitation
a baissé à 1 jour et demi et un jour et demi cher c'est c'est rien du tout en fait. Et donc c'est là où on voit typiquement le fait que les défenses classiques ne sont plus
suffisantes. On doit de toute manière
suffisantes. On doit de toute manière les mettre en place. Mais pour faire face aux attaquants les plus aguéris, que ce soit les grands groupes de cybercriminels et les attaquants
étatiques, les APT, on est obligé de de passer à la vitesse supérieure et de cumuler des défenses supplémentaires.
Alors justement, moi je voulais revenir sur Open Cloud qui a quand même rendu sexy et attractif les les antique et j'ai vu qu'effectivement Entropique et Manus Aï a essayé de faire la même chose
sauf que cette fois-ci c'était quelque chose qui était téléchargeable sur votre poste de travail qui était donc dans une zone cadrée. Première question c'est
zone cadrée. Première question c'est est-ce qu'un modèle comme celui-ci est plus sécurisé ? Donc je vous laisserai
plus sécurisé ? Donc je vous laisserai répondre et ma deuxième question en fonction de ce que vous allez répondre c'est comment faire pour les détecter finalement parce qu'ils sont sur le poste du travail des collaborateurs, des employés enfin des personnes en général.
Donc bah dans les grands groupes, les postes de travail sont quand même maîtrisés c'estd qu'on peut pas installer tout et n'importe quoi. Ça c'est la par contre
n'importe quoi. Ça c'est la par contre pour les ETI ou les les TPE, c'est beaucoup plus compliqué parce qu'on voit ça comme un game changer et comme de la productivité, une façon de faire du business. En plus, faut pas l'oublier.
business. En plus, faut pas l'oublier.
On met pas de l'IA pour juste se faire plaisir, pour pas discuter avec une machine. On met de l'IA pour faire plus
machine. On met de l'IA pour faire plus de business. rentrer plus d'argent entre
de business. rentrer plus d'argent entre guillemets [grognement] être plus compétitif par rapport au concurrents et être présent par rapport à au somme d'information. Mais dans le côté de
d'information. Mais dans le côté de d'open clos sur le poste en local, ça marche très bien si vous avez une hygiène et une équipe qui vous accompagne au niveau de l'IA.
C'est-à-dire que vous allez télécharger la première fois, vous coupez le réseau tout simplement, vous retirez le câble réseau, vous dire "Je vais travailler qu'en local sur CIA, vous allez la nourrir et cetera."
très rapidement, vous allez vous trouver limité, il va falloir la nourrir. Donc
si vous donnez accès au réseau de l'entreprise, à un moment elle va être en capacité à sortir du réseau. Malgré
qu'on lui dise "Non, tu n'as pas à sortir du réseau de l'entreprise, elle va trouver une gateway par défaut et elle va sortir et elle pourra aller faire une mise à jour ou discuter." J'ai
testé quelques IA. Alors, c'est purement personnel hein, quelques ia locales.
Moi, j'ai mis un sniffer derrière. Moi,
c'est le côté parano et je l'ai fait à la maison. Donc, vous mettez un sniffer,
la maison. Donc, vous mettez un sniffer, vous en plus c'était assez simple. Puis
il y a un câble en entrée, un câble en sortie vers la boxe. Donc vous savez que tout ce qui va passer. Lia ne devait pas discuter à l'extérieur. Lia était pas discuté quelque part en Chine.
Ah voilà, c'est tout. Je je diraiis pas plus. Et j'avais fait juste le fait
plus. Et j'avais fait juste le fait exprès de travailler en local. J'ai dit
je travaille en local et les c'était des données. J'avais utilisé les jeux de
données. J'avais utilisé les jeux de données de du NIST. Donc j'avais
récupéré, j'avais crollé le contenu du NIST. Je l'ai mise sur le le RAC que ça
NIST. Je l'ai mise sur le le RAC que ça la base de données de l'IA en local et ne plus utiliser internet. C'était ça le l'objectif. Je [raclement de gorge]
l'objectif. Je [raclement de gorge] travaillais en local sur ce jeu de données. Bah régulièrement, j'avais des
données. Bah régulièrement, j'avais des envois de données qui étaient chiffrés.
Alors, j'ai pas de rupture protocolaire à la maison, mais c'était le côté où je voyais bah tiens, je pars en Chine donner de l'info comme quoi mon PC et mon PC est entre guillemets made in Taiwan. J'ai très peu de composants
Taiwan. J'ai très peu de composants chinois dedans et cetera. J'ai j'ai
vraiment fait l'analyse jusqu'au bout pour me dire est-ce que c'est mon système d'exploitation ? Et c'était pas
système d'exploitation ? Et c'était pas du tout le cas.
Bon, c'est juste un exemple au niveau d'une entreprise, c'est un peu différent mais c'est la même chose. On pense qu'on est protégé en fait et croire à un éditeur de logiciel
non, je suis trop vieux pour ça. [rires]
Alors, je vais faire une une petite digression par rapport à par rapport au code le code des logiciels pour les entreprises qui en développent. Euh ça
fait de très nombreuses années que les grands groupes ont mis en place des systèmes de classification de la cricité des données. Et on voit très bien en
des données. Et on voit très bien en fait les risques d'exposer des données critiques en fait de l'entreprise à des IA dont les serveurs pourraient
éventuellement se faire hacker et donc récupérer en fait toutes les traces, tous les promptes et toutes les données qui ont été échangées avec ces avec ces
IA avec ces ces et en l'occurrence il y a il y a peut-être une marge de progression sur l'évaluation de la cricité du code source. Je donne un exemple. dans les banques, il y a des
exemple. dans les banques, il y a des systèmes qui analysent en temps réel toutes les transactions financières pour la la CBFT, c'est la lutte contre le blanchiment et le financement du
terrorisme. Donc si jamais en fait ces
terrorisme. Donc si jamais en fait ces applications contiennent des algorithmes qui sont ultra secrets, si jamais des personnes mal intentionné mettait la main sur le code source de ces
applications, donc sur ces algorithmes, il pourrai voir les contrôles qui sont faits et donc éventuellement trouver des des manières de déjouer ces contrôles.
Donc ça c'est juste un exemple. Il y en a énormément en fait des exemples de code de source qui contiennent de l'algorithmique, qui contiennent des secrets de fabrication et et de ce fait
en fait, il faut vraiment se pencher là-dessus. Il faut que non seulement les
là-dessus. Il faut que non seulement les ingénieurs mais également les métiers en fait travaillent conjointement pour évaluer la vraie crité du code source et savoir qu'est-ce qui pourrait se passer
si jamais quelqu'un de mal intentionné met la main sur le coup de source. Et
donc de ce fait, l'intelligence artificielle en local parce que maintenant les développeurs c'est de plus en plus ils adopte en fait euh l'IA
en fait pour produire du code source et le problème c'est que pour que ça fonctionne elle a en général besoin d'avoir accès à tout ou parties du code, comprendre le contexte pour produire du code supplémentaire et pour cela, il
faut qu'elle lise le code source. ce
code sourc est rapatrié sur les serveurs et si on n' pas validé la sécurité de ces serveurs pour être sûr ou avoir un un niveau de garantie suffisant qui ne
risqueront pas d'être attaqués et donc avoir nos nos secrets de fabrication et toutes nos propriétés intellectuelles qui pourraient être capturé et bien le fait de se servir d'une intelligence
artificielle en local pour ses besoins en fait pour développer du code pour des applications en fait dont le code source peut-être critique Euh donc ça c'est c'est une marge de
progression justement pour pouvoir apporter au développeurs de d'application critique cette cette valeur ajoutée en fait de Oui. Puis ce confort parce
Oui. Puis ce confort parce qu'aujourd'hui un développeur qui dit je vais vulgairement pisser du code toute la journée, c'est terminé hein, ça existe plus hein. C'estàd que même pour des développeurs cobol qui étaient extrêmement rares sur les mainframe, ils
vont utiliser Claud. C'est sans faire de la publicité mais c'est la réalité. Ils
vont se dire "J'ai besoin de faire tel un job en JCL qui est qui est le langage pour mettre du cobble et cetera dans les mainframes." Avant c'était bon OK, il
mainframes." Avant c'était bon OK, il fallait une connaissance et cetera. Ben
vous dites "Bah non, j'ai besoin d'appeler tel programme en cobol, voici le disque dur où j'ai besoin de que tu ailles chercher l'information. Euh, il
va faire une carte job, une carte Exact, une carte DD quoi tout ce qui est ces informations mais il le fait en 5 secondes. Alors que si même si vous avez
secondes. Alors que si même si vous avez l'habitude de le faire depuis des années, il va vous falloir plusieurs heures pour le faire et il y a plus de valeur ajoutée. C'est qu'on se dit c'est
valeur ajoutée. C'est qu'on se dit c'est pas ça ma valeur ajoutée, c'est pas écrire de la ligne de code pour écrire de la ligne de code. et les euh et aujourd'hui euh le nous ce qu'on a aussi constaté comme menace potentielle par
rapport à ça, c'est que l'IA qui va être utilisé non euh cadré de la part de de l'entreprise va donner des fausses instructions pour mettre des bacs d'or.
Le code va fonctionner et de plus en plus on va créer ce que j'appelle l'incompétence ou l'idot utile, c'est le développeur. Il va se mettre à coder, il
développeur. Il va se mettre à coder, il va dire bah tiens, j'ai mon code qui fonctionne, mon chef, il est content, j'ai ma pay à la fin du mois, bonne journée. C'est ce que j'appelle l'idiot
journée. C'est ce que j'appelle l'idiot utile. Par contre, il va arrêter de
utile. Par contre, il va arrêter de relire au fur et à mesure le code parce qu'il dit "Bah, ça fonctionne, ça fait la fonctionnalité métier qu'on me demande. Je ferai un PN test plus tard
demande. Je ferai un PN test plus tard où je le donnerai à faire à une mais pendant ce templ je vais le mettre en prode et on va donner des accès non légitimes à des groupes d'attaquants qui sont aussi bien étatiques que
cybercriminels. Et les grandes
cybercriminels. Et les grandes entreprises sont vraiment ciblées là-dessus. D'où le fait d'avoir une IA
là-dessus. D'où le fait d'avoir une IA locale sécurisée, on c'est ce que tout le monde essaie de d'avoir. Il y a même des versions entropiques. He Claude
fournit des version que vous pouvez télécharger mais les Chinois sont plutôt pas mal avec Open.
Alors moi je voulais qu'on revienne un peu sur la question du Shadow MCP du Shadow AI parce que forcément donc on a bien identifié que c'était une problématique qui existait qui qu'on voyait apparaître. Ma question c'est
voyait apparaître. Ma question c'est très bien comment on fait aujourd'hui pour les contourner, pour les trouver, comment on peut s'assurer que les collaborateurs ne mettent pas en place ?
Quelles sont les règles de gouvernance qu'on peut mettre en place justement pour éviter ces situations là ?
Un collaborateur qui fait pas de faute dans ses mail, il utilise l'IA. [rires]
Comment la génération d'aujourd'hui, on peut le dire, ils font des fautes partout en temps normal, vous les regardez. On a
commencé avec les SMS mais c'est hyper simple. Quand vous regardez certains
simple. Quand vous regardez certains rapports, il y a pas une faute. Le gars,
il a écrit 70 pages. Non, même word il sait pas faire ça. Quoi ? d'exemple
concret. Moi c'est ce qu'on m'a dit. Tu
as fait relire ton truc par Unia.
Pourquoi il y a plus de faute d'orthographe ? C'est tout. Voilà si
d'orthographe ? C'est tout. Voilà si
mais c'est pas comme ça qu'on va surveiller une entreprise de plusieurs centaines de milliers de personnes. Mais
c'est un des exemples. Je pour ma part je pense vraiment qu'il faut aller sur du comportemental de l'intentionnel. En fait, il faut il
de l'intentionnel. En fait, il faut il faut comprendre quelles sont les intentions des applications, des flux des utilisateurs, de quelle manière sont utilisées ces applications en temps réel. Donc il faut avoir une une
réel. Donc il faut avoir une une surveillance vraiment cognitive et mettre en place des mécanismes de gouvernance en un point unique. C'est-à-dire qu'il
faut vraiment que la gouvernance soit complète. Il faut il faut maîtriser un
complète. Il faut il faut maîtriser un périmètre qui est qui est largement plus étendu, qui se fait en en bordure de l'internet, là où toutes les interactions se font. Euh, il faut être
capable d'alimenter les métiers avec bon t tous les besoins en IA parce que ne serait-ce que nous chez Akamai, on a une cinquantaine de d'application IA pour les employés. Donc, on en rajoute
les employés. Donc, on en rajoute énormément. Alors, c'est très bien, ça
énormément. Alors, c'est très bien, ça nous ça nous rend plus productif, mais ça a effectivement décuplé la surface d'attaque. Euh donc, on sent que la
d'attaque. Euh donc, on sent que la gouvernance a changé, la gouvernance a basculé et on sent que la manière dont on va utiliser
ces solutions euh et est surveillé d'un point de vue intentionnel et d'un point de vue comportemental.
Qu'est-ce que tu en penses ? Alors pour
ma part en fait le le fait de faire euh de l'évangélis de l'évangélisation au sein des entreprises, c'est-à-dire le fait de faire vraiment de la promotion euh auprès des différents métiers en
leur disant si vous avez des besoins d'intelligence artificielle, on peut vous accompagner parce que le grand risque c'est justement que des métiers lancent en fait leurs
expérimentations, y compris sur des données qui sont critiques et et Donc le fait de n'avoir absolument aucune visibilité là-dessus, enfin c'est très
mauvais. Ensuite, le fait de mettre en
mauvais. Ensuite, le fait de mettre en place des mécanismes qui permettent d'identifier justement ces accès et d'identifier ces ces shadow AI, c'est très bien.
Ensuite, potentiellement ça va bloquer ses utilisations mais ensuite derrière il faut accompagner ces métiers parce que c'est le cas chez Safran. On a des projets en intelligence artificielle qui
sont vraiment générateurs de de valeurs énormes en fait qui permettent d'accélérer des cycles de recherche et développement. Euh et pour cela en fait
développement. Euh et pour cela en fait on ne peut pas juste leur dire vous allez non, on doit les accompagner, on doit mettre les moyens en fait pour leur
permettre de de d'avoir une utilisation euh comment dire efficiente et sécurisée de l'intelligence artificielle. Donc ce
type de protection qui permettent de l'identifier, c'est absolument nécessaire et derrière une fois qu'on les a identifié, il faut qu'on agisse pour pouvoir leur donner accès de manière sécurisée au
ça s'appelle l'analyse de risque refaire une analyse de risque mais avec les l'IA qui va être mis dedans plus d' une analyse de risque que j'appelle à l'ancienne de dire OK voilà ce qu'on décide de faire voilà ce qu'on a besoin
comment on doit le faire et c'est c'est vraiment le grand changement qu'on a entre 2024 et 2026 c'est de voir que dans les analyses de risque que vous preniez sur le quand on parlait euh d'IA, il y avait très peu de choses qui
étaient adressées et aujourd'hui il y a des il y a des on le constate chez nous, on a des comment dirais-je des blocs internes qui sont dédiés à l'IA. Il y a un agent qui va être utilisé, voilà ce qu'il fait, voici les flux, voilà les
informations qu'il va manipuler. Est-ce
qu'elles sont classifiées ou pas ? Ça
fait partie des choses où ça s'appelle atteindre un bon un niveau de matériité mais ça ne se fait pas il y a qu'à faucon. C'est parce que demain matin on
faucon. C'est parce que demain matin on dit dans les analyses de R, je vais voir un module IA, ça va fonctionner. Il faut
aussi apprendre, il faut accepter de se tromper. D'où le fait de le faire que
tromper. D'où le fait de le faire que sur des environnements de test non sensibles, pas de la donnée ultra confidentielle et cetera et au fur et à mesure de montrer au métier, voilà jusqu'où on peut aller parce qu'il faut aussi retirer la boîte à fantasme parce
qu'on pense qu'avec li on va aller beaucoup plus vite. Il y a plein de choses qu'on fait beaucoup plus vite, il y a plein de trucs mais ça va pas tout faire.
Et ça même limiter apporter un certain obscurantisme qui fait que pour maintenir parce que c'est facile de faire un projet mais une fois qu'il est mis en prod faut le maintenir et la compétence en IA c'est pareil,
elle est trop volatile. Un exemple
concret qu'on l'a pu constater tout, c'est la différence entre chat GPT4 et chat GPT5.
C'est pas une évolution, c'est une régression pour la majorité des gens.
Ouais.
Vous avez vos applications, vous avez votre métier qui continue à travailler sur ce système- là. Qu'est-ce que vous faites ? Et le pire, l'éditeur dit
faites ? Et le pire, l'éditeur dit j'arrête GPT 4. Donc vous retrouvez avec du legacy. Voilà ça on rentre dans la
du legacy. Voilà ça on rentre dans la peine quelques semaines en fait. Oui,
c'est en plus c'est une rapidité que les grands comptes ne savent pas gérer. On
ne sait pas gérer. Nous en quelques semaines, c'est impossible de dire bon on a plus cette version de quoi on peut le faire sur des c'est du systémique, c'est de la crise mais c'est pas du tout serein. C'est ça marche pas sur les
serein. C'est ça marche pas sur les échelles des grands groupes.
Alors tout à l'heure tu donnais un exemple qui était intéressant, c'est un agent qui commence à faire un peu n'importe quoi et notamment potentiellement qui commence à supprimer des mails, supprimer des fichiers. Donc
ça s'est produit hein puisque c'est ce qui s'est passé avec un agent du navigateur de Perplexity qui a reçu un mail avec un langage naturel et qui était connecté donc à Google Drive et à Gmail et qui s'est mis effectivement à
massivement supprimer des fichiers sans autorisation. Ce qu'on appelle le
autorisation. Ce qu'on appelle le confuse déput. Comment aujourd'hui en
confuse déput. Comment aujourd'hui en fait ce phénomène se manifeste-t-il concrètement avec les agents ? En fait,
c'est c'est de l'abus de privilège. Euh
l'abus de privilège. Donc, c'est
c'est-à-dire qu'on va faire faire à Unia quelque chose qu'on pour lequel on n' pas les droits ou les bons privilèges.
Donc, typiquement, on va lui demander d'imprimer des dossiers euh qui finalement vont se révéler être confidentiel et pour lesquels moi-même je n'aurais pas eu les droits. Mais j'ai
demandé, j'ai piloté une un système, une voilà un robot, une intelligence quelconque pour aller faire quelque chose dont je n'ai pas les droits.
Ce qu'on recommande, c'est d'avoir une une minimisation des droits. C'està-dire que
par définition, il faut vraiment limiter les droits, supprimer les droits globalement pour tout le monde et n'autoriser que ce qui est extrêmement nécessaire et avoir une surtout une vérification en temps réel de ces
évolutions de privilèges pour bien comprendre qui a des privilèges sur quoi, de quelle manière ça évolue, de quelle manière ça se transforme, de quelle manière les métiers on a besoin.
Tu en parlais tout à l'heure. Alors, je
rebondis parce que justement, il y a une question. Comment adressez-vous le
question. Comment adressez-vous le challenge de la revue des droits des agents IA ? Puisquon disait, on fait des
agents IA ? Puisquon disait, on fait des revues euh des IA. Comment on revue d'habilitation ? Euh la plus grande
d'habilitation ? Euh la plus grande difficulté, ça va commencer par le développeur parce que quand le développeur va créer entre guillemets son agent, au début, il a tous les droits et il faut pas et là la première
revue d'habilitation, c'est est-ce qu'on a retiré au moment où on va faire la mise en prode à ce développeur tous ses droits ? Est-ce que les agents qui l'
droits ? Est-ce que les agents qui l' fait fonctionner après qui vont être par exemple de triage de mail et cetera ont juste le droit de lecture écriture ?
C'est c'est une revue d'habilitation tout ce qu'il y a de plus je dirais classique mais qui va demander à être automatisé parce que c'est c'est hyper facile sur un projet. Vous en avez plusieurs milliers, c'est terminé, c'est
c'est fini. Ou dans le cas de votre
c'est fini. Ou dans le cas de votre entreprise, vous avez plusieurs filiales qui travaillent sur le même logiciel mais avec différents droits. Tout ça ça fait partie des revues d'habilitation.
Il y a juste le fait de d'avoir la compétence en interne qui va être en capacité à dire cet agent a droit à telle chose. Sachant que certains agents
telle chose. Sachant que certains agents sont mis dans des comment dirais-je des MCP externes. Vous n'avez pas la main,
MCP externes. Vous n'avez pas la main, vous n'avez pas cette config au début il va vous dire vous me donnez quoi comme droit ? Et on revient donc dans ces
droit ? Et on revient donc dans ces cas-là au niveau du low privilège zéro trust.
Mais ça c'est des métiers nouveaux et s'il y a des auditeurs qui au contraire veulent se former là-dessus, il va avoir une demande de fou parce que au fur et à mesure je on n'est pas sur une habilitation, il y a pas une case à
cocher quoi.
H lecture écriture, on est c'est fini cette époque là.
Puis finalement, on est en train d'apprendre en fonction des cas qu'on découvre quelque part, j'ai l'impression que il y a des nouveaux cas qui apparaissent et on trouve des moyens de se sécuriser pour faire face justement à ces nouveaux cas. Alors justement,
quelle difficulté rencontrent aujourd'hui les équipes pour détecter et cartographier les flux réseaux avec l'exposition du trafic machine to machine notamment généré par les agent ?
Ah, c'est une question elle est complexe parce qu'on on revient ce qu'on parlait de la la fameuse rupture protocolaire, c'est que dans les flux de réseau aujourd'hui des entreprises, on est sur des entre guillemets plusieurs terras de données
qui circulent de façon régulière et c'est plutôt qu'est-ce qu'on va mettre nous comme alerte par rapport à l'usage ? On a deux agents qui discutent
l'usage ? On a deux agents qui discutent entre eux dans l'analyse de risque, on sait à peu près ce qui s'échange tous les jours. Ça fait partie du truc. On se
les jours. Ça fait partie du truc. On se
dit bah voilà, on va avoir un débit qui devrait tourner autour de 1 MB. Je vais
prendre exprès cet exemple. Et d'un seul coup, on voit que ça se met à discuter entre eux. L'offre plaît. C'est une
entre eux. L'offre plaît. C'est une
offre commerciale qui est derrière ses agents, elle plaît. On passe à 10 Mbit.
Ça doit lever une alerte. Le soc, il doit dire il y a quelque chose qui va pas. Ces deux agents discutent entre
pas. Ces deux agents discutent entre eux. Il y a de l'échange de données
eux. Il y a de l'échange de données immédiatement avoir ce qu'on appelle un use case qui dit est-ce que entre ces deux agents il en plus il y a une une exfiltration de données [grognement] vers une IP ou un AS quelconque qui serait fait plus par que l'entreprise.
C'est ça c'est ça c'est pas toujours simple c'estàd que avoir de la visibilité alors des outils de visibilité il y en a plor sur le marché donc c'est c'est relativement simple ce qui est compliqué c'est d'avoir un
moyen d'action immédiat sur des vulnérabilités en fonction de cette visibilité c'est là que la vraie complexité se trouve donner voilà en fonction d'une gouvernance donner la la
possibilité d'agir sur un trafic machine to machine machine trafic il y a quelques outils qui sont sortis ça commence à arriver au niveau maturité il y a quelques outils qui sont présents.
C'est encore, il faut accepter que c'est pas encore au bon niveau, c'est pas encore assez mature, mais d'ici la fin de l'année, on aura de ce genre de de caisse sera totalement identifiable, mais ça veut dire qu'on rajoute encore
une brique dans nos socs, une brique dans nos équipes de réponse, incident, de détection. C'est encore un une, c'est
de détection. C'est encore un une, c'est ce que je disais, une ligne de défense supplémentaire et c'est surtout des compétences supplémentaires.
Et là, il y a quand même un un sujet de la formation et on a quand on l'a prépar moi quand j'ai préparé l'émission, je me suis dit "OK, quel type de profil je pourrais faire travailler sur ce sujet et cetera ?" Mais elles sont hyper
et cetera ?" Mais elles sont hyper rares.
H parce qu'on est tous passionnés par voilà entre guillemets quand on fait de l'IT, on est passionné par lien à un maman. C'est pas une généralité, c'est
maman. C'est pas une généralité, c'est le cas concret. Mais quel est le niveau de compétence et de maturité pour détecter un environ dans un environnement normal, un événement
anormal quoi, du frat faire du fratuntic sur l'IA, sur deux agents ? J'ai pas vu grand-chose de super mature. J'ai vu des des d'époques, mais on trouve quoi à moins que vous ayez vu des moi j'ai pas
vu de truc super c'est en train d'apparaître.
Voilà, ça apparaît c'est trouve c'est ça arrive.
Alors justement, on arrive à la fin de cette émission. Donc dernière question,
cette émission. Donc dernière question, finalement, est-ce que la solution ce serait pas la microsegmentation ?
Alors nous c'est quelque chose que l'on recommande, c'est une bonne pratique sur le marché. C'est-à-dire que le Zero
le marché. C'est-à-dire que le Zero Trust, on en parlait. Alors là, le Z Trust prend toute sa valeur parce qu'effectivement dans cette dépérimétrisation, il faut vraiment qu'on arrive sur un environnement dans
lequel on ne fait plus confiance à rien ni à personne, à aucun flux. La
segmentation, elle a pour vertu d'apporter dans un premier temps de la visibilité, c'estàd une cartographie complète des flux, une cartographie des interdépendances applicatives avec la
possibilité d'agir sur ce que l'on voit parce que la la vraie révolution ça va pas être la visibilité, ça va être la possibilité de donner de de pouvoir agir en direct immédiatement sur ce que l'on voit après
cette visibilité. Donc on a une
cette visibilité. Donc on a une segmentation et une microegmentation.
La vertu de la segmentation, de la microsegmentation, c'est de d'éviter la propagation des malwares, des vulnérabilité qui sont de toute façon un
petit peu inévitable un moment ou un autre. En en en cloisonnant, on va
autre. En en en cloisonnant, on va éviter cette propagation. On a également pour vertu de pouvoir restaurer un réseau après une attaque en imaginant
que la la le malware s'est propagé si tout est tombé qu'il faut tout restaurer. Il faut avoir une
restaurer. Il faut avoir une cartographie absolument claire et propre de tous les privilèges, de tous les flux pour pouvoir restaurer. Et cette
segmentation, elle a aussi pour vertu pour finir de d'accélérer la compliance vers du Dora vers Nice 2.
Donc voilà, d'accélérer d'accélérer cette complance.
un mot final.
Mot final. Bah, je dirais que quand les a dans leur scénario d'attaque, ce qui est assez intéressant, c'est qu'aujourd'hui quand ils décident de faire du verre quoi, de de contaminer tout un réseau même segmenté, ils attaquent non seulement les sauvegardes
mais aussi des bandes de rematrissage.
Parce que pour remonter un réseau, on la boit voir la doc et cetera. Mais si on attaqué les bandes de rematrissage et on se retrouve bah on doit remettre par exemple sur 10000 postes, on va parler, il faut réinstaller 10000 postes. Les
scénarios d'attaque que proposent les IA sont juste ils sont sont hyper anxiogènes quoi. Donc les MCP c'est très
anxiogènes quoi. Donc les MCP c'est très sympa en attaque mais aussi en défense.
Et la le la seule recommandation que je donnerai pour ceux qui font de la réponse à incident, c'est utilisez-les, faites-les dans des environnements de test. Vous allez voir, c'est juste
test. Vous allez voir, c'est juste extraordinaire. ça vous donner pour par
extraordinaire. ça vous donner pour par exemple sur la veille sur les vulnérabilités c'est juste une dinguerie c'est que vous allez arriver [raclement de gorge] pratiquement quelques minutes après qu'une vulnérabilité avec un po est
sorti vous allez avoir un un bulletin d'alerte qui est beaucoup plus actionnable que n'importe quel bulletin qu'un être humain doit lire. Vous allez
avoir un niveau de crissé qui va se mettre c'est un jeu, faites-le. C'est un
use case. Voilà, ça sera ma mon mot de la fin.
Un petit mot Édouard. Euh ben je trouve qu'en fait euh on arrive à à une nouvelle frontière au niveau de la cybersécurité de de l'immédiaté et du temps réel.
C'estàd que tous les outils dont on se servait jusqu'à maintenant sont de toute manière le minimum du minimum mais en réalité ils ne le seront même plus. Et
un des défis majeurs, ce sera vraiment la détection en temps réel de différentes typologies d'attaque qui seront de plus en plus sophistiqué.
Comme on disait, le temps de de weaponization d'une d'une vulnérabilité était il y a quelques mois d'un jour et demi. Elle sera potentiellement de
demi. Elle sera potentiellement de quelques heures et du coup toutes les solutions classiques ne permettront ne seront plus suffisantes en fait pour
faire face à ces typologies d'attaque.
Et bien on arrive à la fin de cette émission. Je vous remercie d'avoir
émission. Je vous remercie d'avoir répondu à mes questions. Je remercie
également le public qui nous a suivi.
Donc aujourd'hui, on est en partenariat avec Akama. N'hésitez pas à suivre notre
avec Akama. N'hésitez pas à suivre notre émission et à liker et commenter. On est
toujours content de savoir ce que vous en pensez. Et puis je vous dis à une
en pensez. Et puis je vous dis à une prochaine fois pour une nouvelle émission et merci encore à nos experts.
Merci. Merci.
[musique]
Loading video analysis...