DeepSeek a tué GPT 5.5 en 24h chrono (gratuitement)
By Vision IA
Summary
Topics Covered
- La mémoire de l'IA réduite à 10% pour 10x plus de contexte
- Un modèle open source dans le top 25 mondial en programmation
- DeepSeek Pro coûte 7× moins cher que GPT-5.5 avec des performances quasi égales
- L'élégance surpasse la puissance brute en IA
Full Transcript
Vous pensez que Lia devient de plus en plus gourmand dans ressources ? Attendez
de voir ce qu'il vient de se passer. Il
y a quelques jours à peine, Dipsy a discrètement lâché quelque chose qui pourrait complètement changer la donne.
Il y a quelques jours, ils ont recommencé à faire trembler tout le monde et ils viennent de sortir leur tout dernier modèle phare Dipsic V4. Il
est massif, puissant, open source écoute une fraction du prix des modèles concurrents. Ce pourrait être le modèle
concurrents. Ce pourrait être le modèle qui met fin à l'avance américaine dans l'intelligence artificielle. Car oui,
l'intelligence artificielle. Car oui, cette fois c'est pire. Enfin pire pour ceux qui pensaient que la course Alia se gagnerait uniquement à coût de milliards. Alors non seulement dû au
milliards. Alors non seulement dû au fait que la Chine aurait rattrapé son retard mais aussi à cause de ce qui risque de se produire ensuite. Vous vous
souvenez de janvier 2025 une start-up chinoise dont personne n'avait entendu parler qui a fait s'effondrer Wall Street en quelques heures. Des centaines
de milliards de dollars évaporés parce qu'une équipe à Hangzu avait prouvé que l'on pouvait créer un modèld performance sans dépenser des sommes obsèes. leur
modèle Dipsic R1 rivalisé avec les meilleurs d'open AIG JPT Claude Gemini pour un coût d'entraînement annoncé à 5,6 millions de dollars quant plusieurs milliards pour les autres. Andr Schpati
le cfondateur d'opy avait même dit que c'était un budget ridicule. Le mot exact je cite, c'était joke, donc une blague.
Les marchés ont fini par s'en remettre.
Les investisseurs ont respiré et tout le monde s'est dit que c'était un coup unique, que ça ne se reproduirait plus, que Dipsic avait eu de la chance et que c'était du one shot. Le 24 avril 2026, ça s'est reproduit. Dipsic vient de
lancer la version 4. C'est en réalité deux modèles. Le V4 Pro a 1600 milliards
deux modèles. Le V4 Pro a 1600 milliards de paramètres au total, dont 49 milliards actifs à chaque requette. Donc
c'est un MoOE. Et le V4 flash, donc 284 milliards de paramètres avec 13 milliards actifs. Les deux supportent 1
milliards actifs. Les deux supportent 1 million de tokens de contexte. Si vous
suivez les évolutions dans le domaine de Lia, vous savez que ça représente environ 750000 mots. C'est un exemple qu'on utilise tout le temps. Vous
pourriez lui donner à lire l'intégralité des trois tomes du Seigneur des Anneaux et y ajouter Harry Potter à l'école des sorciers qu'il y aurait encore de la marge. Le tout en open source, licence
marge. Le tout en open source, licence MIT téléchargeable gratuitement sur Ginface. Le V4 Pro est désormais le plus
Ginface. Le V4 Pro est désormais le plus gros modèle open source au monde, plus gros que Kimik à 2.6, plus du double de leur dernier modèle Dipsic V3 qui était lui sorti il y a un moment maintenant en
décembre dernier. Le plus dingue c'est
décembre dernier. Le plus dingue c'est qu'il est sorti et attention 1 jour après Chat GPT 5.5. Open lance son nouveau modèle phare et 24 heures plus tard, nous avons Dips qui pose sur la
table modèle ouvert qui le talonne. Cela
nous rappelle fortement la première fois que Dipsic était sorti. C'était pareil,
souvenez-vous-en. Il l'avait sorti peu après une sortie de chat GPT et cela avait causé l'effondrement des entreprises tech. À l'époque. La bourse
entreprises tech. À l'époque. La bourse
avait chuté également. Bon, bien sûr, ayant dit tout cela, des chiffres comme ça, on en voit passer chaque semaine dans l'IA. Ça ça accélère énormément.
dans l'IA. Ça ça accélère énormément.
Mais ce qui est vraiment différent avec ce dipsic V4, c'est pas les chiffres en eux-mêmes finalement, c'est la manière dont ils y sont arrivés. Parce qu'il
faut comprendre un truc. Le vrai
problème de Lia aujourd'hui, c'est pas de construire des modèles toujours plus gros, c'est que ça coûte cher de les faire tourner une fois qu'ils existent.
Et là, il y a trois gros obstacles.
Quand vous discutez avec une IIA, tout ce que vous lui envoyez, vos messages, le contexte, les documents, tout ça reste stocké dans ce qu'on appelle la fenêtre de contexte. Et là, nous constatons un effet de seuil. En fait, à
chaque nouveau token que le modèle doit retenir, il remplit un peu plus ce qu'on appelle le KV cash, donc qui est en gros sa mémoire de travail. Le souci, c'est que plus cette mémoire grossit et
forcément plus ça va demander de la puissance de calcul. Et donc l'effet de seuil, c'est que au-delà d'un certain point, ça devient hors de prix. 1
million de tokens de contexte. En
théorie, les modèles savent faire, mais en pratique et bien personne ne les déploie vraiment en production parce que la facture est délirante. Le deuxième
obstacle, c'est le temps et l'énergie qu'il faut pour entraîner ces modèles.
On parle de mois entiers de calcul, des milliers de cartes graphiques qui tournent en permanence. une consommation
d'énergie comparable à celle d'une petite ville. Et pour la Chine, ce
petite ville. Et pour la Chine, ce problème est encore pire puisque les restrictions d'exportation américaine les privent des meilleur puces. Chez
eux, chaque carte graphique, chaque GPU disponible a une valeur stratégique. Et
enfin, le troisème obstacle, c'est que les deux premiers se combinent. Quand
vous essayez d'agrandir la fenêtre de contexte, le mécanisme d'attention du transformer donc l'algorithme qui permet au modèle de comprendre comment les mots sont lié entre eux, suit ce que l'on appelle une croissance quadratique.
Concrètement, si vous doublez la quantité de texte que vous envoyez à une IA, le calcul nécessaire est multiplié par 4. Donc, c'est un mur. Et la
par 4. Donc, c'est un mur. Et la
stratégie des grandes entreprises américaines jusqu'ici, ça a été de jeter toujours plus de GPU contre ce mur, toujours plus de puissance de calcul, donc plus de data center, plus de milliards dépensés, plus de puissances
brutes. Dipsic n'avait pas cette option,
brutes. Dipsic n'avait pas cette option, il n'avait pas les puces, il n'avait pas les budgets. Donc forcément au lieu de
les budgets. Donc forcément au lieu de foncer dans le mur avec plus de force, ils ont trouvé comment passer à travers.
Ils ont dû réfléchir en quelque sorte.
Alors oui, pour cette nouvelle version d'eptique V4, il y a vraiment des inventions. Ils ont dû en fait inventer
inventions. Ils ont dû en fait inventer de nouvelles façons de faire et être malin. Leur solution, c'est ce qu'ils
malin. Leur solution, c'est ce qu'ils appellent, ce que l'on va appeler à l'avenir puisque d'autres vont là vont l'utiliser également, c'est l'attention hybride CSA + HCA. C'est des termes informatiques, mais en gros le principe
c'est que au lieu de traiter chaque token exactement de la même manière, le modèle commence par compresser sa mémoire de travail en regroupant plusieurs tokens ensemble. Puis il va chercher uniquement les morceaux les plus pertinents pour comprendre chaque
requette. La couche CSA par exemple
requette. La couche CSA par exemple compresse le cavage par un facteur 4.
Rappelez-vous, le cavage c'est la mémoire de l'IA. Donc la mémoire de l'IA va être compressée par un facteur 4. De
l'autre côté la deuxième parade, donc la couche HCA pousse le principe encore plus loin avec une compression beaucoup plus agressive et elle applique une attention complète mais sur une version tellement condensée du contexte que ça
reste quand même rapide. En alternant
ces deux types de couches dans le Transformer, le modèle arrive à avoir à la fois une lecture fine et précise, là où c'est nécessaire et une vue d'ensemble du contexte complet. Les
résultats maintenant sont assez spectaculaires. Sur un contexte d'un
spectaculaires. Sur un contexte d'un million de tokens, V4 Pro ne consomme que 27 % de la puissance de calcul de V3.2 pour la même tâche, donc la version précédente. C'est vraiment beaucoup. Et
précédente. C'est vraiment beaucoup. Et
le KVCh, cette fameuse mémoire de travail tombe à 10 % de ce qu'il en était avant. Seulement 10 %. Cela veut
était avant. Seulement 10 %. Cela veut
dire qu'avec exactement la même carte graphique, vous pouvez gérer 10 fois plus de contexte qu'avant.
C'est ça qui rend le million de tokens réellement utilisable au quotidien. Euh
et pas juste en chiffre qu'on affiche sur une page marketing. C'est très malin ce qu'ils ont fait. D'ailleurs, ils ne se sont pas arrêtés à la compression. V4
embarque aussi un module qui s'appelle le peut-être la partie la plus intéressante sur le plan conceptuel.
C'est un système de mémoire conditionnelle qui tourne en parallèle du mécanisme d'attention classique.
J'aimerais vraiment que vous compreniez ce que c'est car c'est fascinant. Alors,
je vais essayer de l'expliquer simplement. Pour bien comprendre
simplement. Pour bien comprendre pourquoi c'est malin, il faut savoir que dans un Transformer normal, c'est le même mécanisme d'attention qui doit gérer deux tâches très différentes. Il
doit aller chercher des connaissances factuelles d'un côté, donc pour que Lia ne vous raconte pas n'importe quoi, et faire du raisonnement complexe de l'autre sur ces données-là. En gros,
c'est comme si vous demandiez à la même personne de gérer les archives de votre entreprise et en même temps de résoudre vos problèmes stratégiques à vous. Elle
peut faire les deux mais pas aussi bien que si elle se concentrait sur un seul forcément. Alors résout ça en séparant
forcément. Alors résout ça en séparant les deux fonctions. Les connaissances
statiques sont déchargées sur un canal dédié qui fonctionne avec un temps de récupération constant. Alors pour les
récupération constant. Alors pour les plus techniques d'entre vous, c'est en O1 mais je vais pas creuser plus le détail. Ça veut dire que peu importe si
détail. Ça veut dire que peu importe si la base de connaissance fait 1000 entrées ou 100 millions d'entrées, le temps pour aller chercher l'information reste exactement le même. Et ce qui est fascinant, c'est que ce type d'architecture, les chercheurs en
parlaient depuis des mois sous le nom de oubli computationnel qui est un mécanisme inspiré de la mémoire biologique humaine, de notre mémoire à nous quoi les humains. J'en avais
d'ailleurs dédié une vidéo à l'époque quand cette technique et ce ce concept de recherche était sorti dans le monde de Lia. L'idée c'est de doter l'IA de la
de Lia. L'idée c'est de doter l'IA de la capacité d'oublier comme nous. C'est que
les anciennes conversations ou le contexte de travail pourrai être progressivement compressé à des résolutions plus basses en consommant moins de tokens et donc tout en gardant les informations essentielles. Jusqu'à
maintenant, c'était un concept de papier de recherche. Dipsic a réussi à le
de recherche. Dipsic a réussi à le mettre dans le modèle. C'est concret,
c'est déployé et ça tourne en ce moment.
Vous le voyez hein, mais plus on avance dans le développement des IA et plus elles deviennent comme nous un petit peu, plus on leur accorde des mécanisme qui nous ressemblent.
C'est assez fou à observer. Côté
performance, nous avons V4 Pro Max qui est aujourd'hui le meilleur modèle open source tout simplement au monde en raisonnement et en coding. Pour vous
donner une idée sur Code Force qui est une plateforme de compétition de programmation où des développeurs très expérimentés s'affrontent sur des problèmes réels et complexes, Dipsic V4 atteint un rating de 3206 de HO. Ça le
place 23e parmi les compétiteurs humains, un Modelia open source dans le top 25 mondial face à des développeurs professionnels. Il rivalise avec par
professionnels. Il rivalise avec par exemple Chat GPT 5.2 et Gemini 3.0 Pro sur plusieurs benchmarks standard et il se rapproche de Chat GPT 5.4 sur les tâches de code. En mathématiques
formelle, c'est encore plus net. Sur le
benchmark Pudman, V4 Flash Max obtient 81 quand Gemini 3 Pro est à 26,5. Et sur
la version 2025 du PNAM avec une vérification formelle, V4 obtient un score parfait 120/10. Après, comme
d'habitude, sur la chaîne, vous le savez déjà hein, la pro technique, la press de recherche est impressionnante, mais il faut tout de même rester lucide et et pour être honnête, il y a quelques défauts. Euh d'ailleurs, Dipsy
défauts. Euh d'ailleurs, Dipsy est également honnête à ce sujet-là, ce qui est suffisamment rare dans ce milieu hein pour le souligner. Donc dans leur propre rapport technique qui est sorti en même temps que le modèle, ils
reconnaissent un retard d'environ 3 à 6 mois sur les meilleurs modèle fermé comme Chat GPT 5.5 par exemple et même Gemini 3.1 Pro qu'il nous cite. La
plupart des entreprises vous montrent uniquement les benchmarks où elles brillent et bien ici Dipsic publie aussi ceux où elles sont en derrière. C'est un
détail que je voulais souligner.
Maintenant on arrive au détail qui transforme tout ça en vrai séisme le prix. Car oui, V4 Flash, c'est 0,14
prix. Car oui, V4 Flash, c'est 0,14 dollars 14 centimes par million de tokens en entrée et 0,28 dollars 28 centim en sortie. V4 Pro, c'est environ
3,48 dollars par million de tokens en sortie. En face, nous avons chat GPT 5.5
sortie. En face, nous avons chat GPT 5.5 qui est sorti littéralement la veille et c'est 30 dollars par million de tokens.
Claud 4.7, lui c'est 25 dollars. On est
sur un rapport de 1 à 7, cette fois moins cher pour des performances qui ne sont pas très loin. Et Dipsic a déjà annoncé que le prix de la V4 Pro allait encore baisser dans les deux dans la
deuxième moitié de cette année euh quand quand Huawei donc commencera à produire ses supernodes à saintes à grande échelle. Donc en fait, quand Huawei va
échelle. Donc en fait, quand Huawei va commencer à produire des cartes graphiques euh des puces de calcul pour l'IA, pour une entreprise qui fait tourner de l'IA en production avec des volume importants, donc on ne parle pas
juste d'une d'un simple avantage sur la concurrence, vous l'avez compris, on parle d'un changement de catégorie complet et je parle en connaissance de code. Je fais tourner moi-même des
code. Je fais tourner moi-même des agents IA dans des entreprises. Et c'est
exactement ce genre d'avancée qui rend soudainement les agents IA beaucoup plus intelligents. Du jour au lendemain. Euh
intelligents. Du jour au lendemain. Euh
c'est très intéressant et tout le monde en profite d'un coup. Maintenant, ayant
dit tout cela, c'est à partir de là que cette histoire dépasse complètement le cadre, le simple cadre technique. En
fait, 8 jours avant que Dipsic lance la V4, Johnson Wang, le patron de Nvidia, passait sur le sur un podcast sur internet, sur YouTube qui s'appelle le Dark W podcast et il a lâché une phrase
qui avec le recul prend un autre sens.
Je vous cite, il dit "Le jour où Dipsic sort d'abord sur Huawei, c'est un résultat catastrophique pour notre pays." Fin de citation. Et 8 jours plus
pays." Fin de citation. Et 8 jours plus tard après cette déclaration de Johnson et bien c'est exactement ce qui est arrivé à croire que le PDG chez était à l'affu de cette interview. Dipsic a
choisi de donner un accès anticipé au modèle uniquement aux fabricants de puces chinois. Nvidia n'a rien eu AMD
puces chinois. Nvidia n'a rien eu AMD non plus. Le jour même du lancement,
non plus. Le jour même du lancement, Huawei a annoncé que toute sa gamme de Supernodes Asen 950 était compatible avec Deepsic V4 et que ses puces avaient même été utilisés pour une pour une
partie d'entraînement de V4 Flash. Et le
logiciel qui fait tourner tout ça, c'est Cann qui est l'équivalent chinois de KUDA. Mais ce n'est pas KUDA et ça, ça
KUDA. Mais ce n'est pas KUDA et ça, ça va changer énormément de choses. KUDA,
pour ceux qui ne connaissent pas trop, c'est l'écosystème logiciel de Nvidia sur lequel repose aujourd'hui la quasi totalité de l'industrie mondiale de LIA, mais pas que un, du jeu vidéo, des
simulations 3D, de la modélisation physique, chimie et cetera, j'en passe parce que la vraie force de Nvidia, ça n'a jamais été seulement la puissance de CCU. C'est le fait que tout l'écosystème
CCU. C'est le fait que tout l'écosystème tourne autour de KUDA. Euh les
bibliothèques, les frameworks, les formations, les tutoriels, tout est construit sur KUDA. Quand une start-up développe un produit DIA, elle le développe sur KUDA. Quand un
gouvernement investit dans l'infrastructure IA, elle l'achète du Nvidia parce que c'est eux qui ont le logiciel KUDA. Ce que Dipsic et Huawei
logiciel KUDA. Ce que Dipsic et Huawei sont en train de construire, c'est un écosystème entièrement parallèle des puces chinoises, des du logiciel chinois, des modèles chinois. Le tout un open source bien sûr est donc accessible
au reste du monde. Sur le marché la réaction a été immédiate. Smich, le
fondeur qui fabrique les puces de Huawei a pris 9 % à Hong Kong dans la foulée.
Wa Hong semiconductor 15 %. De l'autre
côté, les rivaux chinois de Dipsic se sont pris une claque. Zipo, AI et Minimax qui ont lâché 9 % chacun. Alors
attention, nous ne sommes pas dans le sensationnalisme. On n'est pas sur le
sensationnalisme. On n'est pas sur le séisme que que nous avons vu en janvier 2025 non plus. D'ailleurs, Morning Star l'a l'a bien résumé. Il dit que les marchés ont déjà intégré le fait que
l'IA chinoise est compétitive et moins chère. Donc l'effet de surprise n'est
chère. Donc l'effet de surprise n'est plus le même qu'avant. Mais ce qui est nouveau et ce qui est vraiment intéressant à observer, c'est que pour la première fois, les benchmarks publiées par Dipsic incluent d'autres
modèles chinois dans la comparaison.
Nous avons Kimika 2.6, GLM 5.1. Ils sont
là au même titre que Claude, Géini et GPT. Ce cadrage n'existait pas avec R1.
GPT. Ce cadrage n'existait pas avec R1.
La concurrence domestique en Chine est devenue tellement intense que dipsic ne se mesure plus uniquement aux Américains maintenant. Et enfin, le contexte
maintenant. Et enfin, le contexte politique autour de son lancement est aussi dingue. V4 est sorti un jour, donc
aussi dingue. V4 est sorti un jour, donc littéralement un seul jour après que la Maison Blanche a accusé la Chine de voler la propriété intellectuelle des laboratoires américains à échelle
industrielle. Michaell Ktios qui dirige
industrielle. Michaell Ktios qui dirige donc le bureau de la science et de la technologie à la Maison Blanche a décrit des campagnes de distillation orchestrée via des milliers de comptes bot proxy.
Pour faire simple et très rapide, la distillation de modèles, c'est quand vous entraînez un nouveau modèle IA qui est plus petit en lui faisant copier les réponses d'un modèle plus gros. Openai
et Anthopiic accusent donc psic de faire exactement ça avec leur modèle. La Chine
de son côté a répondu que ses accusations étaient sans fronement et relèvent de la diffamation contre les réalisations dans l'industrie chinoise.
Pendant que tout ce bras de fer politique se joue en haut, les développeurs eux n'attendent pas. V4 est
devenu le modèle le plus rapide de l'histoire à atteindre la première place sur Hugin Face. C'est Lewis Stal ingénieur machine learning chez Hugin Face qui l'a confirmé lui-même. Ce qui
se joue en ce moment dépasse largement Dipsique en tant qu'entreprise. En
réalité, ce que cette boîte démontre à chaque nouvelle sortie, c'est que les restrictions américaines sur les exportations de puces chinoises n'ont pas ralenti la Chine ni l'é chinoise de
progresser. Au contraire, elle a l'air
progresser. Au contraire, elle a l'air de d'avoir réussi à rendre l'a chinoise plus maline. Et Jansang en est
plus maline. Et Jansang en est conscient, il l'a dit lui-même à nouveau sur ce fameux podcast. Il dit "Même avec des puces inférieures, la Chine a les moyens de rattraper les États-Unis grâce
à son énergie abondante et son réservoir de chercheurs en rendez-vous compte que la puissance du matériel brut, c'est une variable parmi d'autres. Nous avons
l'optimisation logicielle, le talent des équipes eux-mêmes, le l'ingéinosité architecturale des puces et cetera. Tout
ça peut compenser un handicap en silicium, donc en puissance de calcul.
Dipsy car la démonstration vivante.
Privé des meilleurs GPU Nvidia car privé des meilleures technologies et puces Nvidia, leurs chercheurs ont été obligés de trouver des solutions plus intelligentes. Chaque contrainte imposée
intelligentes. Chaque contrainte imposée de l'extérieur a fini par produire une innovation technique. Et quand tout ça
innovation technique. Et quand tout ça est publié en open source, ces innovations profiteront et vont profiter à tout le monde. Un développeur à Paris, un chercheur à Genève, une start-up à
Bruxelles, n'importe qui peut télécharger V4 demain matin sans servir.
Après, il faut aussi poser les limites parce que elles existent bien sûr. V4 ne
gère que le texte, donc pas d'image, pas de vidéo, pas d'audio. Sur le
multimodal, les modèles fermés comme chatbt 5.5 ou j'ai mini 3.1 Pro gardent une avance claire bien sûr. Et puis le modèle est encore en preview, donc ça veut dire que Deepsic n'a même pas
encore de date pour la version finale.
Ils vont ils vont les sortir petit à petit. Donc nous allons voir des
petit. Donc nous allons voir des incrémentations petit à petit de ce modèle là V4. Donc possiblement V4.1, V4.2 et cetera assez rapidement. Mais
quand on prend du recul et qu'on regarde la trajectoire, elle est très nette. Le
fossé entre les modèles ouverts et les modèles fermés se réduit à chaque nouvelle sortie. Il y a un an, les
nouvelle sortie. Il y a un an, les modèles ouverts étaient objectivement un cran au-dessus. Aujourd'hui, il joue sur
cran au-dessus. Aujourd'hui, il joue sur le même terrain et pendant que les performances convergent, les coups eux continuent de s'effondrer. Ce qui me fascine dans toute cette histoire, c'est qu'on est en train de voir le même schéma se répéter, pas l'identique mais
avec la même logique. En octobre
dernier, c'était Dipsic OCR qui arrivait à compresser 1000 mots en 100 token visuels avec un petit modèle de 3 milliards de paramètres. Aujourd'hui,
c'est Dipsic V4 qui compresse le KVCH à 10 % de sa taille d'origine pour rendre viable un contexte d'un million de tokens. La philosophie derrière est
tokens. La philosophie derrière est exactement la même. On ne résout pas un problème en jetant plus de ressources dessus. On le reformule jusqu'à qu'il
dessus. On le reformule jusqu'à qu'il devienne simple. Carpati le disait à
devienne simple. Carpati le disait à propos de l'OCR. Johnsengwang le redoute à propos de la V4. Et franchement, les deux ont raison. L'avenir de l'IA ne sera pas uniquement déterminé par qui dispoit du plus gros budget ou du plus
grand nombre de data centers. Ce sera
aussi une affaire d'élégance de qui trouvent les approches les plus intelligentes pour résoudre les bons problèmes. Ces approches, elles ne
problèmes. Ces approches, elles ne tombent pas du ciel bien sûr. Elles
viennent d'une compréhension profonde de comment ces systèmes fonctionnent, de ce qui les rend coûteux, de ce qui peut les ralentir, de ce qui va les bloquer et cetera. Et ça c'est une compétence qui a
cetera. Et ça c'est une compétence qui a énormément de valeur aujourd'hui. Pas
seulement pour les ingénieurs, hein. En
fait, en réalité dans les années qui viennent, ce qui va compter professionnellement, ce ne sera pas une compétence technique isolée comme savoir coder dans les années 2000 ou maîtriser Excel dans les années 90. Ce sera la capacité à comprendre ces outils, à
travailler avec eux au quotidien et à prendre des décisions éclairées dans un monde où l'IA touche déjà tous les secteurs, tous les métiers, toutes les industries. Ce que Dipsic vient de faire
industries. Ce que Dipsic vient de faire rend tout cela encore plus concret. Donc
vous l'avez vu, vous vient de le voir, un modèle de classe mondiale gratuit ouvert que n'importe qui peut utiliser dans le monde aujourd'hui. Les barrières
à l'entrée n'ont jamais été aussi basses. Ce qui fait la différence
basses. Ce qui fait la différence maintenant, ce n'est plus d'avoir accès à l'outil, c'est de savoir quoi en faire. Messieursdames, si vous regardez
faire. Messieursdames, si vous regardez tout ce qui se passe en ce moment et que vous vous dites que comprendre l'IA en 2026, c'est aussi fondamental que de savoir utiliser internet en 2005, euh si vous sentez que le bon moment pour s'y
mettre sérieusement, c'est maintenant et pas dans 6 mois, quand le prochain modèle sera encore plus impressionnant, vous avez raison. Et j'ai justement quelque chose pour vous. J'aimerais vous
dire que depuis quelques mois déjà, j'ai construit un programme d'apprentissage unique. Je vous apprends l'IA sur tous
unique. Je vous apprends l'IA sur tous ces aspects. C'est un parcours que j'ai
ces aspects. C'est un parcours que j'ai créé et pensé pour vous transmettre tout ce que je sais. Alors, non seulement sur les modèles DI comme Chat GPT, Gemini de Google, Grock de Elon Musk, Cloud et
cetera, je vous montre en fait et surtout la manière de les intégrer concrètement dans votre vie, dans votre travail, dans vos projets et ce que vous soyez salarié, indépendant, entrepreneur
ou même à la retraite. Car oui, nous avons beaucoup beaucoup de retraités dans la communauté et ils utilisent l'IA au quotidien. J'ai récemment sorti la
au quotidien. J'ai récemment sorti la plus grosse mise à jour à ce jour de la formation. Euh ça fait un petit moment
formation. Euh ça fait un petit moment que j'en parlais mais ça y est, elle est là, elle est en ligne. Euh c'est un module entièrement dédié à l'automatisation par IA, donc à un utilisant N8N. Autrement dit, la
utilisant N8N. Autrement dit, la création d'agents IA, donc des espèces de salariés virtuels qui vont travailler pour vous et tout faire pour vous. En
somme, vous faire gagner des heures et des heures et des heures. Vous êtes déjà plus de 6 à 7000 à avoir rejoint ce programme. Donc merci pour tout ce
programme. Donc merci pour tout ce soutien. Et enfin, sachez qu'il n'y a
soutien. Et enfin, sachez qu'il n'y a pas besoin d'être développeur, pas besoin d'avoir un profil technique. Je
vous prends par la main et pas à pas avec des leçons vidéo clair, des cas concrets et pratiques, on voit tout ce qui touche à Lia. Dernier point, mais pas des moindres bien sûr, si vous nous
rejoignez aujourd'hui, vous aurez accès à toutes les évolutions du futur, sans surcoup accès illimité à vie, à tout ce que je veux vous apprendre. Donc
aujourd'hui, c'est un paiement unique.
Ce n'est pas un paiement mensuel, hein.
C'est juste un paiement unique et vous aurez accès à vie à toutes les mises à jour que je vais faire en permanence et que je fais en ce même d'ailleurs. Donc
si cela vous intéresse, vous avez les liens en dessous de la vidéo. Donc soit
en description, soit en commentaire épinglé pour nous rejoindre. Dans tous
les cas, moi je serais très heureux de vous accueillir dans le programme Vision. Si vous êtes encore là, merci
Vision. Si vous êtes encore là, merci d'avoir regardé cette vidéo jusqu'au bout et je vous dis à très très vite pour la prochaine vidéo. À bientôt.
Loading video analysis...