L'IA coûte 85% moins cher cette semaine. Vous devez en tirer les conséquences.
By IA et Stratégie | Le SamourAI
Summary
Topics Covered
- La fin du monopole CUDA et le cauchemar de Jensen Huang
- Le pivot stratégique d'OpenAI : dominer l'exécution plutôt que le raisonnement
- Anthropic asphixié par son propre succès
- Google : le gagnant silencieux qui vend des pelles
- Le transfert massif du capital humain vers le silicium
Full Transcript
La première année, on démarre avec 400000.
Au bout de 1 an, 320 milliards de chiffres d'affaires.
OK.
On prend minimum 10 % là-dessus. Fait 32
milliards divisé en 2 16 milliards chacun. Ah bon ? Il est il est où le
chacun. Ah bon ? Il est il est où le problème ? Mais non, tu as raison. Quand
problème ? Mais non, tu as raison. Quand
tu as raison, tu as raison. Monsieur si
je dis à mes collègues de le civit écoute j'ai rencontré deux très gentils hommes avec avec homme d'affaires. Ouindustrie ouais
Captain of Industri il m'a donné ça. Voilà tu sais ce qu'il va faire avec moi in my face.
pas courarrive pas à comprendre que pied joint vous ne sautez pas dans la nous on veut du pognon on veut du pognon pour démarrer ce projet
j'ai pas l'impression qu'on le lune.
En 1969 l'industrie horlogère suisse domine le monde. Elle s'appuie sur les meilleurs mouvements mécaniques, un savoir-faire accumulé au fil des siècles et des montres qui se transmettent de père en fils. Bref, une quête
d'excellence unitaire qui fonde une réputation perdurant encore aujourd'hui.
Puis débarque sur le marché un objet moins prestigieux, moins esthétique. La
montre japonaise a un mouvement quartz.
Elle est moins précise qu'un chronomètre certifié certes, mais elle est amplement suffisante pour qui veut simplement lire l'heure et surtout elle est produite par millions à un coup dérisoire. En 6 ans
c'est 60 % de l'industrie horlogère suisse qui s'effondre. Les Suisses
conservent le marché de luxe, mais les Japonais raflent tout le reste. La leçon
de cette crise ne porte pas sur la qualité intrinsèque de la pièce. Elle
réside intégralement dans le volume et dans le prix de vente. Aujourd'hui, en
avril 2026, cette même mécanique se rejoue sous mesure. À la différence près, que le champ de bataille n'est plus l'horlogerie, mais la guerre des puces et des fameux GPU qui font tourner toute l'intelligence artificielle mondiale. Et cette semaine, nous avons
mondiale. Et cette semaine, nous avons assisté à la naissance de l'équivalent du quartz japonais. Comprendre cette
dynamique, c'est donc dépasser le spectacle médiatique pour commencer à réfléchir à la manière de placer ses propres pions avant les autres. Dans
cette vidéo, je vous propose de décortiquer avec moi quatre mouvements stratégiques. La bombe Dipsic V4 et son
stratégiques. La bombe Dipsic V4 et son alliance avec Huawei, la reposte défensive d'open avec GPT 5.5 sous pression face à Anthopique et aux enjeux du dernier trimestre. Dans un troisème
temps, nous verrons l'asphixie denthropique victime de son propre succès. Et enfin, je vous dévoilerai qui
succès. Et enfin, je vous dévoilerai qui est selon moi le grand gagnant silencieux de cette grande recomposition, celui que personne ne regarde. Si vous suivez cette chaîne et
regarde. Si vous suivez cette chaîne et l'industrie de l'IA, vous savez que Deepsic a déjà bousculé toute l'industrie l'an dernier avec des modèles comme V3 et R1 que nous avons analysé en détail sur YouTube. Ce sont
des modèles qui ont tenu tête au meilleur, entraînés pour une fraction du budget habituel et distribué en open source. Ce qu'il vient de sortir cette
source. Ce qu'il vient de sortir cette semaine s'inscrit dans cette continuité mais relève d'une logique totalement inite qu'il faut disséquer. En réalité,
le modèle en soi n'est pas la véritable information quand bien même il excelle et égale tous les modèles frontières sur les benchmarks les plus reconnus. Vous
connaissez ma prudence historique face au modèle chinois notamment à cause du problème de distyation et de conformité.
Le modèle distyé impose souvent de son architecture et du dataset sur lequel il a été nourri des limites strictes sur les workflow qu'il est capable de gérer et tout particulièrement sur les
workflow agentiques qui demandent une réflexion sur le long terme avec beaucoup d'étapes qui se suivent et ce genre de chaîne multiplie les risques et les probabilités d'échec. Le véritable
bouleversement d'aujourd'hui concerne le hardware sur lequel il tourne ou plutôt l'optimisation native et architecturale autour de laquelle il a été conçu. En
effet, Dipsic V est le premier modèle nativement optimisé pour le matériel chinois de la marque Huawei. Il ne
s'agit pas d'une adaptation à postériory ou d'un portage réalisé en urgence. Je
parle ici d'une architecture conçue par des ingénieurs de qualité dès l'origine pour tourner sur du silicium 100 % chinois via un framework logiciel CAN C
n signifie compute architecture forural network et qui est l'équivalent direct de KUDA et de Nvidia. Si vous êtes ingénieur ou dans le domaine du machine learning, vous connaissez parfaitement cette stack puisque c'est le standard
mondial incontesté depuis près de 20 ans pour le développement de modèles de langage. Or, le jour même du lancement,
langage. Or, le jour même du lancement, Huawei vient de confirmer que l'ensemble de sa gamme Atlas Superpod, du 910C au nouveau 950 PR qui sont des GPU prennent
désormais en charge nativement Dipsic V4. Cela signifie que ces deux
V4. Cela signifie que ces deux entreprises, Dipsic et Huawei ont coopéré une stratégie de codéveloppement. Voilà pourquoi le
codéveloppement. Voilà pourquoi le lancement de Deepsic a été volontairement retardé de plusieurs mois pour réécrire l'intégralité des kernels de concert avec les équipes de Huawei.
Ce fameux Day Z0 n'est donc pas le fruit d'une simple réactivité, c'est de la planification conjointe, de la planification à la chinoise et selon les accès anticipés exclusifs confirmés par
Rutters et Fortum AMD et Nvidia ont été soigneusement et explicitement exclus du pipeline de prélancement. Pour saisir
l'ampleur de cette manœuvre, il faut comprendre comment s'articule le contrôle américain sur l'intelligence artificielle mondiale. Il repose en
artificielle mondiale. Il repose en réalité sur deux coups. La première,
elle est visible de tous, on en parle assez souvent, elle est matérielle. Ce
sont les puces elles-mêmes, les fameux GPU de Nvidia qui sont fondus par TSMC à Taiwan puis exporté sous licence américaine. C'est grâce à cette licence
américaine. C'est grâce à cette licence américaine que Washington peut contrôler qui a accès à l'intelligence mondiale en appliquant des sanctions. Des sanctions
qui jusqu'ici bloquaient l'accès de la Chine au modèles les plus puissants. La
seconde couche plus invisible, elle est logicielle, c'est kuda. Lorsqu'un
chercheur écrit du code pour entraîner un modèle, il l'écrit pour KUDA. Ce
qu'il faut bien comprendre, c'est qu'actuellement l'IA mondial est sous perfusion américaine à cause d'un goulot d'étranglement précis. Le couplage entre
d'étranglement précis. Le couplage entre la carte graphique, le matériel Nvidia physique et l'écosystème logiciel KUDA.
Cependant, face à l'embargo américain et aux tensions sur la chaîne d'approvisionnement, la Chine a été forcée de développer une infrastructure alternative, notamment grâce à Huawei et d'optimiser drastiquement son code pour
s'affranchir d'Nvidia. En fait, ce qu'il
s'affranchir d'Nvidia. En fait, ce qu'il faut bien comprendre, c'est que KUDA, c'est le langage exclusif que les GPU de Nvidia comprennent tout simplement. Sans
kouda, la puce ne sait pas quoi calculer, ne sait pas quoi faire au moment de l'entraînement du modèle. Et
acheter un GPU Nvidia sans maîtriser cet environnement logiciel, c'est littéralement acheter une voiture sans volant. Le moteur est puissant mais on
volant. Le moteur est puissant mais on ne sait pas le piloter. Pour replacer
les choses dans leur contexte historique, Nvidia avait distribué KUDA gratuitement dès 2006 à une époque où personne n'envoyait l'intérêt. C'était
une stratégie brillante car ils ont ainsi verrouillé les développeurs dans leur écosystème, un écosystème logiciel avant d'être physique et même avant que le marché de lien émerge. Le résultat
était simple quand le deep learning a explosé 10 ans plus tard. C'est
l'ensemble du code mondial qui allait être écrit et optimisé pour leur puce.
Leur véritable avantage stratégique n'a donc jamais été le silicium. Mais c'est
ce million de développeurs qui connaissaient Kuda, qui ne savaient coder que pour Nvidia, qui était là pour faire émerger la puissance d' Nvidia et qui les a fait rentrer ce weekend dans
la catégorie des entreprises valorisées à plus de 5000 milliards de dollars.
C'est précisément ce que Jenson Wong, le CEO d'Nvidia craignait. Ce que Dipsic vient de prouver, ce n'est pas juste qu'un bon modèle IA peut exister en dehors de l'écosystème américain, mais
c'est la preuve technique que le monde n'est plus obligé d'acheter du matériel américain à prix d'or en pleine pénurie de GPU pour le futur de l'intelligence artificielle. Et ça c'est une donnée
artificielle. Et ça c'est une donnée qu'on a tendance à oublier et qu'il est bon de rappeler. Jensen Wang, le PDG de Nvidia, l'a d'ailleurs souligné lui-même sous le podcast Dark Cash Patel la semaine dernière. Son constat était
semaine dernière. Son constat était clair. Si les futurs modèles parviennent
clair. Si les futurs modèles parviennent à s'optimiser sur une stack technologique et par un logiciel différent de couda affranchi du standard américain et que cette alternative se
diffuse dans le monde, alors ce sera l'écosystème chinois qui prendra l'ascendance. Et si l'homme à la tête de
l'ascendance. Et si l'homme à la tête de l'entreprise qui profite le plus de ce monopole actuel et celui-là même qui tire le plus la sonnette d'alarme, j'imagine qu'il a dû être extrêmement surpris lorsque 48 he après son
intervention, Dipsy a littéralement matérialisé le scénario exact qu'il redoutait. Je pense donc que tout le
redoutait. Je pense donc que tout le monde se doutait plus ou moins de ce que la Chine était en train de préparer.
Maintenant qu'on a compris le contexte et l'importance de Deepsic et de la stratégie chinoise, j'aimerais revoir avec vous les chiffres les plus importants parce que Deepsic V4 est un modèle open source extrêmement puissant
qui se décline aujourd'hui en deux versions. Vous avez d'un côté Dipsic V4
versions. Vous avez d'un côté Dipsic V4 Pro avec 1600 milliards de paramètres au total. Une architecture en mixture avec
total. Une architecture en mixture avec experte conçue pour n'activer qu'une certaine partie de ces paramètres par requête. C'est mathématiquement
requête. C'est mathématiquement intelligent, financièrement optimal et c'est aussi le modèle à poids ouvert le plus capacitaire jamais déployé jusqu'ici. Ensuite, vous avez V4 flash,
jusqu'ici. Ensuite, vous avez V4 flash, un modèle plus léger de 284 milliards de paramètres pour seulement 13 milliards actifs à l'inférence. Il est plus véloce et son empreinte mémoire réduite permet
très certainement de l'autohéberger sur vos propres infrastructures. D'ailleurs,
les deux nouvelles versions intègrent nativement une fenêtre de contexte d'un million de token, soit 10 fois la capacité de la génération précédente.
C'était un luxe que seul Gemini offrait, queus et viennent de nous offrir il y a pas si longtemps et désormais c'est tout l'écosystème open source qui peut en bénéficier. Sur les performances brutes,
bénéficier. Sur les performances brutes, Dipsic V4 Pro talonne les meilleurs modèles propriétaires. GPT 5.5
modèles propriétaires. GPT 5.5 conservant une légère avance, mais Deepsyc l'admet très honnêtement dans son rapport technique. Le modèle accuse un certain retard d'environ 3 à 6 mois sur l'état de l'art. C'est factuel mais
c'est surtout hors sujet car le véritable levier d'adoption est avant tout stratégique. Comme tout le monde le
tout stratégique. Comme tout le monde le sait, le prix et l'accessibilité de ce modèle est absolument imbattable. Et
d'ailleurs en parlant du prix, V4 Flash est facturé 14 centimes le million de token. V4 Pro 1,74 centimes. 3 dollars
token. V4 Pro 1,74 centimes. 3 dollars
en sorti. En face GPT exige 5 dollars et opus 5 dollars avec 25 et 30 dollars en sortie. Je sais, ça fait beaucoup de
sortie. Je sais, ça fait beaucoup de chiffres mais faites le calcul. Une
session d'inférence applicative un peu lourde autour du million de tokens justement coûtera environ 5 dollars sur V4 Pro contre 35 dollars sur la PI d'open AI. C'est une compression des
d'open AI. C'est une compression des coûts de 85 %. Cette mécanique va d'ailleurs s'accentuer. Dipsy annonce
d'ailleurs s'accentuer. Dipsy annonce une nouvelle baisse tarifaire au second trimestre de cette année portée par la production de masse des clusters Huawei Asend 950 qui arrive. C'est une
politique de volume et de production de masse d'une qualité moyenne supérieure qui prend le modèle américain totalement à contre-courant. Aujourd'hui, Open AI
à contre-courant. Aujourd'hui, Open AI et Anthropique se battent sur le terrain de haut de gamme, augmentent leurs tarifs et imposent des quotas pour gérer la demande. Dipsic de leur côté opère
la demande. Dipsic de leur côté opère une manœuvre totalement inverse et inonde le marché d'une tarification assumée à un coût marginal frôant leur coût d'exploitation réelle avec une
marge unitaire quasiment pour le fabricant. L'objectif n'est tout
fabricant. L'objectif n'est tout simplement pas la rentabilité immédiate.
L'enjeu pour dipsic, Huawei et plus largement l'écosystème chinois et l'acquisition massive de volume pour verrouiller tout un univers, toute une sphère d'influence hors d'atteinte du
modèle américain. Il s'agit d'offrir une
modèle américain. Il s'agit d'offrir une véritable alternative au modèle de pointe américain accessible qui attire le volume et c'est ce volume qui drainera des développeurs vers leur
écosystème logiciel qui ensuite de par leur usage générera des flux de données nécessaires pour affiner les futures versions du modèle. On crée ainsi des économies d'échelle tournées vers le
long terme qui font mécaniquement chuter les prix et assure à la Chine un avantage à long terme. Et c'est ici que l'analogie du quartz dont je vous parlais un petit peu plus tôt dans cette
vidéo prend tout son sens. Huawei ne
révalise absolument pas avec les GPU de Nvidia en puissance brute. La Cinde 910C qui est leur modèle de pointe ne délivre environ que 60 % des performances d'une
puce Hent. J'ai fait le calcul. Les
puce Hent. J'ai fait le calcul. Les
puces américaines restent donc environ cin fois plus puissantes aujourd'hui et c'est cet écart capacitaire qui est projeté à un facteur 17 d'ici 2027. Mais
l'écosystème chinois ne cherche pas à battre l'axe Nvidia Open Air anopique à puissance égale. Ils appliquent tout
puissance égale. Ils appliquent tout simplement la leçon de l'industrie japonaise avec leur logerie suisse. Le
véritable goulot d'étranglement économique en 2026, ça n'est pas l'entraînement, c'est l'inférence. Il
faut bien que vous reteniez ceci.
L'entraînement est un investissement initial massif. Certes, mais c'est une
initial massif. Certes, mais c'est une opération asynchrone et ponctuelle, tout à fait gérable avec une bonne planification de la location et que vous exécutez en lissant la charge sur des heures creuses, par exemple quand la
demande est moindre. L'inférence, au
contraire à l'air de l'adoption massive des workflow agentiques est beaucoup plus difficile à gérer, beaucoup plus délicat. Elle exige une disponibilité
délicat. Elle exige une disponibilité continue, une consommation qui explose avec des agents autonomes à certaines heures, des chaînes de tâches complexe, une adoption en entreprise qui est
toujours en augmentation, des workflow tout nouveaux comme la recherche agentique qui consomme beaucoup plus qu'une recherche Google. Ce sont des sujets dont nous parlons régulièrement sur la chaîne et je vous le répète ici
encore une fois, mais cette charge de travail continu pèse beaucoup plus lourd que l'internet froid des années 2010. 10
puces fiables et bon marché supplanteront toujours deux puces de pointe perpétuellement en rupture de stock. Il faut voir le problème comme un
stock. Il faut voir le problème comme un problème de demande pour une société de taxi par exemple. Si vous avez d'un côté 10 Toyota Corolla extrêmement fiable, toujours disponible et jamais en panne
et de l'autre de Ferrari hors de prix et souvent au garage pour des problèmes techniques, pour faire tourner des millions d'agents pour faire tourner votre flotte de taxi en production 24 he/ 24 dans des infrastructures
industrielles, la flotte de Toyota Corolla sera toujours le choix rationnel le plus rentable. Vous voyez donc que le Huawei Ascent qui se négocie aujourd'hui est autour de 7 à 10000 dollars l'unité
contre 30000 dollars pour une Hente de chez Nvidia. Même en ajustant la
chez Nvidia. Même en ajustant la différence de performance, c'est-à-dire environ 60 %. Le coût par token servi en inférence reste 40 à 50 % inférieur du
côté Huawei et chinois. L'avantage
structurel du ratio performance prix penche donc massivement du côté de chez Huawei et donc on comprend un petit peu mieux pourquoi et comment Dipsic a été construit. Les résultats dans l'année
construit. Les résultats dans l'année qui va venir, c'est que Huawei prévoit de livrer 750000 plus en 2026 et d'inonder le marché de leur RAC et de leur GPU avec une production domestique
totalement affranchie des licences américaines. Bref, l'approvisionnement
américaines. Bref, l'approvisionnement est non seulement souverain, mais il est massif et dimensionné pour absorber l'explosion de la demande avant tout pour le territoire chinois, mais aussi pour tous ceux qui voudront s'inscrire
hors de la sphère d'influence américaine. Le paradoxe des sanctions
américaine. Le paradoxe des sanctions américaines que je soulevais l'an dernier se matérialise donc brutalement et montre un paradoxe inhérent à la politique de Washington. Toutes les
restrictions conçues pour étouffer les capacités I de la Chine les ont en réalité forcé à développer une chaîne d'approvisionnement souveraine de bout en bout. Et en travaillant sous la
en bout. Et en travaillant sous la contrainte, les développeurs chinois ont dû optimiser radicalement leur approche de l'architecture mais aussi du hardware pour forger une efficacité structurelle
supérieure qui est aujourd'hui un avantage massif et décisif à l'heure où la consommation est en train d'exploser.
Le 23 avril, Open AI dévoilait GPT 5.5, 5. Un modèle aux capacités agentique
5. Un modèle aux capacités agentique renforcé, aligné techniquement et tarifaement sur les standards qu'anthropique est en train de dicter à l'industrie. À peine 24 heures plus
l'industrie. À peine 24 heures plus tard, Dipsig déployait sa V4 destinée au professionnels.
timing, je pense qu'il est la continuité de la stratégie millimétrée de l'alliance Dipsic Huawei qui a attendu Copen AI sature l'espace médiatique avec un modèle dont la tarification premium
serait d'autant plus contestée et ferait d'autant plus ressortir l'engouement autour du modèle chinois et de l'écosystème dipsi. Ils ont donc
l'écosystème dipsi. Ils ont donc intelligemment imposé un comparatif tarifaire dévastateur en proposant l'équivalent open source pour un coût 5 à 10 fois inférieur et des benchmarks
qui matchent tout à fait ce que le modèle frontière est capable de faire.
J'ai l'impression qu'ils ont l'habitude d'habilement transformer le lancement d'open AI en une immense campagne promotionnelle à chaque fois et on retrouve un petit peu ce schéma de la
sortie de GPT 4.o et de Dipsic 3 à l'époque pour ceux qui regardaient un petit peu déjà ce qui se passait dans le monde de l'IA. C'est à la fois gratuit et humiliant pour le monde américain.
Mais au-delà de l'anecdote, je pense que la véritable menace qui est immédiate pour Openai, elle ne viendra pas forcément de la Chine, elle vient aussi de son flan ouest parce qu'en tropique
leur rafle désormais le segment le plus juteux de leur marché sous leurs yeux en quelques mois à peine. J'ai regardé les données de Rampe et elles indiquent toutes que Anthropiic capte aujourd'hui 70 % des nouveaux contrats d'entreprise.
Ces contrats à haute marge avec une conformité exigeante avec un effet de locking sur des revenus récurrents à long terme. Une programmation beaucoup
long terme. Une programmation beaucoup plus professionnelle qui donne à Claude un avantage décisif font que Open AI est sous pression non seulement par le bas à cause des modèles open source mais aussi
par le haut à cause de leur rivalité avec Anthropique. Les revenus annualisés
avec Anthropique. Les revenus annualisés d'anthropique sont aujourd'hui à 30 milliards et dépassent ceux d'Open AI qui sont toujours à 25 milliards pour la première fois de l'histoire. Et donc
face à l'hémorragie sur le segment entreprise, Open AI a tenté de lancer GPT 5.5 comme une reposte d'urgence.
Quand on regarde ce que techniquement GPT 5.5 est capable de faire, on remarque que Samaltman repositionne désormais Open AI sur la couche d'exécution, autrement dit sur l'inférence plutôt que sur la simple
recherche et le développement de modèle frontière. On voit aussi que
frontière. On voit aussi que l'intégration de Codex transforme l'interface en un véritable espace de travail antique, un petit peu comme ce que Cloud et Cloud Code et Cloud Cower ont introduit en premier trimestre. Des
environnements capables de contrôler nativement un navigateur, un environnement macOS. C'est extrêmement
environnement macOS. C'est extrêmement pertinent, je pense, et même très bien intégré. Honnêtement, ça a dépassé
intégré. Honnêtement, ça a dépassé toutes mes attentes en terme de performance. J'ai trouvé même
performance. J'ai trouvé même l'expérience beaucoup plus agréable dans la manipulation de macOS chez Codex par rapport à Anthropiic, leur computer use dont on a déjà parlé sur la chaîne. On y
trouve également une intégration native avec la suite de Microsoft, un mode de vérification croisé. Vous avez des
vérification croisé. Vous avez des agents secondaires qui viennent auditer les tâches un peu plus longues. C'est
donc définitivement plus un simple outil de génération de code de la même manière que Cloud Code avait dépassé ce stade un peu plus tôt dans l'année. Ce qu'on
remarque également sur GPT 5.5, c'est que les benchmarks valident le pivot. On
remarque qu'il se distingue vraiment particulièrement sur le contrôle de la machine, des workflow agentiques, du terminal, des itérations et de la coordination, mais aussi de la récupération après erreur beaucoup plus
performante. On voit que GPT 5.5 a une
performante. On voit que GPT 5.5 a une meilleure capacité à travailler sur le long terme en autonomie. La stratégie
d'open AI est donc lampide. Céder le
volume d'entrée de gamme pour attaquer le bastion qu'anthropique vient de leur piquer via l'exécution autonome. La
riposte ciblée versant tropicque est clair. Vous excellez en raisonnement,
clair. Vous excellez en raisonnement, nous dominerons l'exécution. Et
contrairement à vous, notre infrastructure ne souffre plus d'aucunot d'étranglement. En effet, et c'est là
d'étranglement. En effet, et c'est là qu'il faut que je vous parle rapidement de la mise au banc de Sora, le modèle de génération vidéo de chez Open AI qui était extrêmement gourmand en ressources
GPU a été mise au banc pour laisser place à cette nouvelle stratégie.
Aujourd'hui, Anthropique qui souffre de GPU est contraint d'augmenter les prix, d'augmenter aussi les limites à leur modèle tandis qu'open AI vient tout simplement de récupérer une énorme
passante pour servir leur modèle au mieux pour les entreprises. Et ça c'est un véritable argument qui pourrait convaincre les comités de direction.
Attention, la manœuvre n'est pas complétée. Open AI est dans une position
complétée. Open AI est dans une position structurellement plus complexe en raison de leurs finances catastrophiques, mais aussi parce que par le haut en tropique verrouit la conformité et la confiance des grands comptes. Et comme je vous le
disais, par le bas, Dipsic détruit toute marge via une tarification au coût marginal. Opel et AI se retrouvent donc
marginal. Opel et AI se retrouvent donc compressés au milieu et je me demande combien de temps pourront-ils justifier leur positionnement de tarifaire face à cette double pression quand un modèle 85
% moins cher couvre la majorité des cas d'usage courant. Ce qui se joue cette
d'usage courant. Ce qui se joue cette semaine dépasse donc largement la guerre des annonces ou la suprématie des benchmark. C'est plus une recomposition
benchmark. C'est plus une recomposition totale de la chaîne de valeur de l'IA.
On part du silicium jusqu'à l'agent en production dans sa globalité. un
échiquier qui vient de bouger et je pense que il faut apprendre à lire l'échiquier plutôt qu'à de regarder chaque pièce bouger individuellement. Et
si vous voulez apprendre à lire les chiquiers plutôt que de regarder les pièces bouger à chaque fois, c'est le moment de penser à s'abonner parce que le cas entropique qu'on va voir maintenant illustre justement ce piège
dans lequel beaucoup d'entreprises sont en train de tomber sans le savoir.
Aujourd'hui, Anthropique jouit de la position la plus paradoxale du marché.
Ils ont remborté la bataille B2B, ils ont le modèle de référence absolu pour la programmation et la conformité. Et
aujourd'hui, il propulse ou encadre la plupart des processus déjà mis en place en production, les plus critiques professionnels à travers le monde. Les
métriques sont aujourd'hui vertigineuses. Près de 1000 clients
vertigineuses. Près de 1000 clients entreprises à plus d'un million de dollars annuels, un protocole d'orchestration qui dépasse 90 millions d'installations, des revenus annualisés bondissant de 9 à 30 milliards en un
trimestre. Bref, tous les fournisseurs
trimestre. Bref, tous les fournisseurs DIIA d'aujourd'hui livrent des outils compatibles à leurs solution parce qu'ils sont tout simplement incontournables. C'est un écosystème
incontournables. C'est un écosystème entier qui s'aligne déjà sur leur sandal. Pourtant, malgré leur succès
sandal. Pourtant, malgré leur succès fulgurant, leur position est plus délicate. Comme je le soulignais la
délicate. Comme je le soulignais la semaine dernière, ils sont victimes de leur propre succès et désormais par la couche la plus basique de l'industrie. Ils n'ont tout simplement
l'industrie. Ils n'ont tout simplement plus assez de puce pour servir la demande. Dario Amodei lui-même l'a
demande. Dario Amodei lui-même l'a concédé cette semaine, le manque de puissance et le principal goulot d'étranglement pour leur croissance aujourd'hui. Comme vous le savez, Claude
aujourd'hui. Comme vous le savez, Claude Code a subi de lourdes instabilités.
J'en ai parlé la semaine dernière.
Certains pensaient que je faisais du complotisme, mais le rapport d'incident publié le 23 avril liste trois bugs distinct qui montre que l'effort de raisonnement par défaut avait été
secrètement rabaissé, rendant le modèle objectivement moins intelligent jusqu'à sa correction du 7 avril. D'autres
optimisations qui vidaient le cash et l'historique de réflexion pour économiser de la VRAM, ce qui était pratique de leur côté puisque ça diminue les coûts en GPU, mais le modèle en pratique devenait beaucoup plus oublieux
et répétitif. et ce n'a pas été corrigé
et répétitif. et ce n'a pas été corrigé avant le 10 avril. Bref, pour vous qui êtes des utilisateurs avancés de Cloud Code, vous le savez, la qualité de la production s'était effondré et
l'ensemble semble n'avoir été purgé que le 20 avril avec le déploiement de plus 4.7. Je vous invite ici à lire entre les
4.7. Je vous invite ici à lire entre les lignes parce que ces bugs ne sont pas des accidents isolés. Ce sont des arbitrages d'infrastructure forcés pour réduire l'empreinte mémoire et la latence de leur côté. Quand la puissance
de calcul manque pour soutenir un trafic en surchauffe, l'entreprise doit dégrader l'expérience utilisateur pour maintenir les serveurs en vie. C'est
normal, c'est même compréhensible, mais quand tous ces compromis s'empilent les uns sur les autres en un seul mois sans que personne ne le détecte ou que ce soit communiqué à l'utilisateur final, et bien c'est évidemment votre
réputation qui risque d'en prendre un coup. Autre signal flagrant pour moi,
coup. Autre signal flagrant pour moi, c'est la fuite de Mythos, leur véritable modèle frontière aux capacités cyber et agentique surpuissante. Apparemment,
agentique surpuissante. Apparemment, l'Entropique ne peut tout simplement pas le déployer publiquement car l'usage intensif de ce modèle par quelques baleines ferait instantanément effondrer leur infrastructure technique.
L'entreprise a donc packagé cette limitation d'infrastructure sous couvert de sécurité, restreignant l'accès à un consortium fermé de partenaires dont on sait que ce sont en réalité leur investisseurs. Et ce qui m'a vraiment
investisseurs. Et ce qui m'a vraiment fait lever le sourcil cette semaine, c'est qu'un groupe sur Discord avait obtenu un accès non autorisé à ce modèle mythos et un membre contractant anthropique avait exploité des données
issues du piratage de Mercor pour simplement deviner l'URL d'hébergement.
Bref, ce joyau de sécurité d'anthropique se baladait donc librement sur le web, simplement exploitable pour quiconque avait accès via l'URL à Mythos. Revenons
à l'enjeu principal. C'est dans cette course à l'infrastructure qu'Antropique commence à s'épuiser. Les accords
massifs signés en début avril avec Google et Broadcom pour sécuriser 3,5 GW de TPU de nouvelle génération ne seront opérationnels qu'en 2027. Ce déploiement
colossal s'ajoute aux investissements vertigineux d'Amazon, 25 milliards de dollars et d'alphabet 40 milliards. Mais
comme l'a noté un analyste de Mind Studio, l'injection massive de capital ne compresse pas les délis physiques. Il
faut encore 12 à 24 mois pour qu'un investissement se traduise en capacité de calcul disponible et 12 à 24 mois, il peut se passer beaucoup de choses dans le monde de l'IA. Le cash ne résoudra
donc pas le problème immédiatement, ni pour cette année, je pense. Et ces data center n'arriveront pas ce trimestre.
C'est exactement la fenêtre de vulnérabilité qu'open AI exploite avec GPT 5.5. Leur message au marché est
GPT 5.5. Leur message au marché est clair. Pendant qu'open AI bride ses
clair. Pendant qu'open AI bride ses accès et perd le contrôle de ses déploiements, nous nous commençons à livrer une exécution agentique fiable, dimensionné pour l'échelle industrielle et avec les mêmes standards
professionnels qu'Antropique. Donc si
professionnels qu'Antropique. Donc si vous voulez commencer à voir un petit peu plus loin que ce qu'on vous présente toujours dans le duel entre deepsic, open AI et anthropique, il faut comprendre que la crise actuelle est
avant tout une crise matérielle de la puissance de calcul. Si vous observez les quatre acteurs de cet épisode et vous avez un pattern qui saute aux yeux, deux sont verticalement intégrés.
Silicium plus modèle plus donné, c'est dipsy Huawei côté chinois et Google avec ses TPU et son empire de données côté américain. Deux ne le sont tout
américain. Deux ne le sont tout simplement pas. Open AI dépend de Nvidia
simplement pas. Open AI dépend de Nvidia et d'Azur. Anthropique jongle entre les
et d'Azur. Anthropique jongle entre les TPU de Google et Tranium d'WS et les GPU de Nvidia. Cette asymétrie explique en
de Nvidia. Cette asymétrie explique en réalité 80 % des mouvements qu'on vient de décrire. Google ne participe même pas
de décrire. Google ne participe même pas à la guerre d'GO de laboratoire sur les benchmark. Ils construisent en silence
benchmark. Ils construisent en silence une infrastructure souveraine monétisée auprès de leurs propres concurrents. Le
22 avril, lors du Google Cloud Next, ils ont d'ailleurs discrètement dévoilé la Géini Enterprise Agent Platform et leur 8e génération de TPU. Pour schématiser,
les TPU sont l'équivalent des GPU mais développé et optimisé spécifiquement par Google. Et cette 8e génération se
Google. Et cette 8e génération se décline en deux sous-architectures distinctes. Vous avez le TPU 8T pour
distinctes. Vous avez le TPU 8T pour l'entraînement intensif et le TPU8i dédié à l'inférence. On voit encore une fois que l'inférence est traitée différemment et aujourd'hui la demande
est pour l'inférence. Google revendique
une performance par dollar triplée et une évolutivité sur leur cluster de plus d'un million de puces et le meilleur rendement énergétique du marché. 75 % de leurs clients cloud utilisent déjà leur
produit IA et leur modèle traite plus de 16 milliards de tokens par minute, ce qui est un chiffre absolument colossal.
En réalité, Google contrôle l'intégralité de sa chaîne de valeur et vendent leur capacité de calcul à leurs propres concurrents. En Tropique, en
propres concurrents. En Tropique, en consomme massivement, Google rentabilise son infrastructure matérielle pendant que les autres s'épuisent dans une guerre de modèle destructrice de valeur.
Dans la métaphore classique de la rue verslor, les laboratoires cherchent des filons au hasard de l'entraînement.
risquant la ruine à chaque itération.
Google eux vendent des pelles. C'est une
métaphore usée, peut-être même surusée dans le monde de l'IA, mais c'est une métaphore qui colle bien. Nvidia aussi,
mais Nvidia peut-être commence à faire face à la fermeture de son marché chinois. Google en contrôlant son
chinois. Google en contrôlant son design, les TPU, la fabrication par broadcom et la distribution via le Google Cloud c'est bâti une verticalité telle qu'elle les protège de quasiment
tous les allé géopolitiques. Et sur la couche logicielle, Google déploie et consolide maintenant Agent Studio avec trois produits Registry, Gateway et Observability qui ne sont pas des noms
de produits marketing pour le coup.
C'est une véritable pile technologique complète, très claire qui permet déjà de déployer, de gouverner et de passer les agents à l'échelle sans friction au sein
de l'écosystème Google, surtout si vous êtes déjà sur le GCP ou sur Workspace parce que ça simplifie énormément votre chemin jusqu'à la réussite de votre
projet. Si vous êtes dans l'écosystème
projet. Si vous êtes dans l'écosystème GCP et Workspace, n'hésitez donc pas à essayer ces solutions qui peuvent être un petit peu coûteuses. Mais en réalité, Google s'adresse à des décideurs qui ont
les moyens technologiques et financiers pour mettre en place ce genre de solution rapidement. Pour ces décideurs,
solution rapidement. Pour ces décideurs, la question n'a d'ailleurs jamais été quel est le meilleur modèle choisir ? Ce
qui compte vraiment et je les audite chaque semaine, c'est la robustesse de la plateforme intégrée, capable de piloter mais aussi de sécuriser une flotte d'agent directement dans un
écosystème d'entreprise et de manière autonome et à l'échelle. Reste donc la question macroéconomique majeure que tout le monde esquive qui est en train de financer l'explosion de ces coûts d'infrastructure. Parce que les
d'infrastructure. Parce que les hyperscaleurs américains ont déjà dépensé 1000 milliards de dollars dans le CAPEX en IA. 600 milliards sont concentrés rien qu'en 2026. MTA vient
tout juste de doubler son enveloppe pour atteindre 135 milliards. Alors, on peut se demander mais où trouve-t-il cet argent ? et bien en partie et c'est le
argent ? et bien en partie et c'est le sujet que je voulais aborder avec vous directement dans leur masse salariale.
Vous le savez cette semaine MTA vient de purger 10 % de ses effectifs, environ 8000 postes tout en gelant 6000 nouvelles ouvertures. Microsoft licencie
nouvelles ouvertures. Microsoft licencie directement et propose des départs volontaires à plus de 7 % de leurs équipes américaines. Snap a coupé 16 %
équipes américaines. Snap a coupé 16 % de leur poste. Nike 1400 employés, GoPro 25 % et cetera et cetera. C'est un
transfert massif du capital des ressources humaines vers l'infrastructure de calcul, donc des OPEX vers le Capex. C'est un sujet qu'on a déjà couvert sur la chaîne, mais je pense que de le souligner une fois de
plus au mois d'avril permet de réaliser à quel point la brutalité et surtout la longueur du phénomène réside désormais dans sa normalisation. En réalité, quand on regarde ce que le CEO de Snap, Evan
Spigle, dit en citant explicitement l'IA comme levier pour éliminer les tâches répétitives et accélérer la vélocité des équipes et cetera et cetera, tous ces euphémismes de communication RH sont en
réalité le signal le plus fort d'une doctrine déjà assumée d'un nouveau modèle opératoire et désormais industriel. C'est une réalité brutale
industriel. C'est une réalité brutale avec laquelle il faut désormais composer. D'ailleurs, le signal le plus
composer. D'ailleurs, le signal le plus clair de cette mutation, c'est la réaction des marchés financiers. Toutes
ces annonces de licenciément massif ne déclenchent même plus de hausse spéculatives. Meta a même reculé de 2 %
spéculatives. Meta a même reculé de 2 % et Microsoft de 4 %. Ce transfert de la force de travail vers le silicium est donc clairement devenu la norme attendue et aujourd'hui ce n'est même plus un
événement, c'est tout simplement le nouveau régime normal. Reformulé sous un angle différent. On ne licencie plus des
angle différent. On ne licencie plus des humains. On se contente de réallouer du
humains. On se contente de réallouer du capital du travail vers le silicium. Et
cette équation brutale, encore peu de gens l'ont intégré dans leur logiciel.
Chaque poste supprimé finance directement un RAC de serveur dans un data center au Texas, en Virginie ou en Scandinavie. Un serveur qui tourne 24h/
Scandinavie. Un serveur qui tourne 24h/ 24, qui n'exige ni congés ni avantages sociaux et dont le coût unitaire d'exécution s'effondre à chaque nouvelle optimisation des modèles. L'impact sur
votre carrière est donc direct. Tous les
rôles standardisés à haut volume qu'on pense à la QM annuelle, au support de premier niveau, au RH de premier niveau, les analyses de données basiques, le reporting récurrent et bien sûr le
management intermédiaire. Tous ces
management intermédiaire. Tous ces métiers, on en a déjà parlé, sont en première ligne. Je voulais quand même
première ligne. Je voulais quand même faire un rappel ici parce que ce sont des postes qui sont directement concurrencés par l'effondrement des coûts d'inférence justement permis par l'approche de DISIC. Donc, je m'attends
à une accélération de ces phénomènes dans les semaines qui viennent. À
l'inverse, les profils plus préservés sont ceux qui orchestrent et gouvernent ces architectures agentiques. Dipsic est
open source et pas cher, mais dips est excellent sur des tâches très unitaires et ne possède pas la profondeur de raisonnement des modèles les plus frontières pour redessiner la structure organisationnelle complexe d'une
entreprise. Faites attention donc au
entreprise. Faites attention donc au marketing agentique. Comme toujours, la
marketing agentique. Comme toujours, la valeur se déplace vers le management agentique justement. Décider de la
agentique justement. Décider de la location des tâches, comprendre et prévoir les coûts en tooken de ces infrastructures, évaluer la pertinence des sorties, comprendre ce que l'agent
fait, être capable de faire du business avec des humains. Tout ça, si vous le faites correctement et si vous êtes capable de prendre la main en cas de dérive ou d'hacination, je peux dire avec confiance que votre travail n'est
pas impacté par l'IA et l'automatisation. En tout cas, pas tout
l'automatisation. En tout cas, pas tout de suite. Si votre travail s'apparente à
de suite. Si votre travail s'apparente à de l'exécution stricte d'un arbre de décision, vous êtes dans la zone d'impact direct. Si vous êtes celui qui
d'impact direct. Si vous êtes celui qui conçoit cet arbre, celui qui dessine et supervise cet arbre, alors vous êtes dans une position plus défendable.
Derrière donc la guerre d'infrastructure et des capacités de calcul se prépare un second goulot d'étranglement majeur que je vous promettais d'aborder plus tôt.
Si le calcul et la puissance de calcul concentrent aujourd'hui toute la tension à juste titre, c'est la donnée de haute qualité selon moi et selon beaucoup d'experts, le prochain mur de
l'industrie. Le rapport de Stanford
l'industrie. Le rapport de Stanford Index publié il y a quelques semaines confirme que l'industrie s'approche du Pic data. Ce sont ces réserves de
Pic data. Ce sont ces réserves de contenu humain de haute qualité qui s'épuisent à vitesse grand V et qui sont les éléments en réalité différenciant les plus important aujourd'hui au niveau
des modèles les plus récents. Un point
de rupture qui a été projeté entre 2026 et 2032 par époque AI et la conséquence directe, c'est que la taille et la nature des jeux de données d'entraînement des grands laboratoires est désormais devenu un secret
industriel jalousement gardé. Et quand
une information devient secrète, c'est qu'elle est souvent devenue stratégique.
Sur le champ de bataille de la donnée fraîche, regardez qui a quoi et qui a l'avantage. L'avantage est clairement à
l'avantage. L'avantage est clairement à Google puisque Google est aujourd'hui hégémonique. Ils ont search YouTube,
hégémonique. Ils ont search YouTube, Android, MAP, Gmail, des volumes colossaux, multilingue continuellement mis à jour, profondément ancré et chez
le consommateur et en entreprise avec des données réelles, massives et diversifiées. C'est absolument
diversifiées. C'est absolument imbattable. Open AI tente de compenser
imbattable. Open AI tente de compenser cette asymétrie par une génération de données synthétique toujours plus sophistiquée avec un retour humain manuel de plus en plus matur. Vous avez
également Elon Musk avec X et Grock qui détient un flux de conversation non filtré, peut-être le plus riche et en temps réel. Des données fraîches
temps réel. Des données fraîches consolidées par une approche verticalisée redoutable. Ils ont en
verticalisée redoutable. Ils ont en effet aujourd'hui une infrastructure qui arrive sur pied. Je dirais que X rentre désormais dans la catégorie des acteurs qui maîtrisent toutes les couches au même titre que Google. Et il faut le
souligner parce que c'est une véritable performance quand on y pense. On pourra
si ça vous intéresse, dédier une vidéo complète surtout au vu de récent rachat de cursor qui ressemble plus à une option d'achat en réalité qui honnêtement et stratégiquement extrêmement intéressant à analyser. Côté
chinois, le volume brut généré par l'écosystème Tens ou Bidance est absolument pharamineux. Mais son
absolument pharamineux. Mais son intégration dans les processus industriels occidentaux est aujourd'hui lourdement compromis par la censure politique, directement ancrée dans les poids mêmes du modèle, ce qui les rend
souvent inutilisable pour des raisons de compliance dans des grosses entreprises européennes ou américaines. Je sais que vous êtes nombreux en commentaire à me demander pourquoi est-ce que je ne mets pas en avant les modèles chinois autant
que cela. Et bien voilà, vous avez votre
que cela. Et bien voilà, vous avez votre raison. C'est en réalité applicable à
raison. C'est en réalité applicable à l'échelle de l'individu ou de la petite équipe, mais ça devient vite un véritable calvaire à faire à accepter en entreprise, surtout quand vos partenaires sont des non sérieux. En
tropique, bien que paradoxalement leader incontesté sur le segment entreprise possède aujourd'hui un volume assez faible en terme de brut de données. Ils
ont fait un pari radical qui jusqu'ici est payant, celui de la qualité, celui de développer une pipeline de retour humain, expert, peut-être le plus abouti du marché, notamment dans le monde de la
programmation et de la sécurité. C'est
un paris asymétrique sur la supériorité du signal de préférence face à la puissance brute du volume de token. En
réalité, si les loi d'échelle des données de préférence tiennent, alors c'est un avantage défendable. Mais si le volume brut prime, je pense qu'opique est peut-être sur une position de faiblesse. Ce qu'il faut bien comprendre
faiblesse. Ce qu'il faut bien comprendre ici, c'est que cette année, la véritable ligne de fracture se jouera aussi bien sur l'accès couplée au comput et à l'exploitation des données dites fraîches et de qualité. Les modèles les
plus performants à l'avenir ne seront pas nécessairement issus des laboratoires ou des entreprises qui disposent uniquement du plus grand parc de puce, mais aussi de ceux capables de maintenir un apprentissage continu
post-raînement via des gisements de données exclusifs. Cela permet une
données exclusifs. Cela permet une amélioration continue des modèles. Et si
l'infrastructure de l'inférence que Huawei est en train de développer permet de servir des clients, et bien vous avez là tous les ingrédients pour un succès pour 2026. C'est ce qui rend pour moi la
pour 2026. C'est ce qui rend pour moi la forteresse de Google absolument inattaquable à l'heure actuelle. Ce
n'est pas juste un vendeur de PL, c'est aussi le propriétaire de la mine, le plus grand gisement de données au monde.
Bref, j'ai hâte de voir la prochaine itération de Géini qui, un point douté, s'annonce particulièrement redoutable.
En guise de conclusion, un mot sur les sanctions américaines. L'intensification
sanctions américaines. L'intensification de ces restrictions n'a fait qu'accélérer l'indépendance de la supply chain chinoise. La banalisation de
chain chinoise. La banalisation de l'infrastructure de calcul brise aujourd'hui le monopole américain de façon très claire. et entraîne
mécaniquement aussi la chute vertigineuse du coût de l'intelligence.
Et lorsque les prix s'effondrent, l'hypervolume écrase toujours la pointe artisanale qui reproduit à l'identique la crise du mouvement mécanique face au quartz, celle dont je vous parlais en
introduction. La guerre académique des
introduction. La guerre académique des benchmarks n'est donc officiellement plus une source de signal aussi puissante qu'elle l'était. L'industrie
bascule dans une guerre d'infrastructure, de distribution et d'acquisition continue de données de qualité. Si vos décideurs doivent
qualité. Si vos décideurs doivent trancher d'entre ces arbitrages massifs, Nvidia versus Huawei, KUDA versus Scan, API fermé versus déploiement local de
modèle open weight, tous ces choix technologiques ne sont plus de simples décisions d'ingénierie. Il dicte votre
décisions d'ingénierie. Il dicte votre positionnement et géopolitique et quant à votre indépendance et aussi sur la pérennité de votre stratégie si vous êtes une grande entreprise pour la décennie à venir. Cette vidéo, je
l'espère vous aura fourni une compréhension et une grille de lecture nécessaire pour dépasser le bruit, anticiper les mouvements structurels et penser vos stratégies technologiques sur le temps long, que ce soit pour
l'échelle individuelle, si vous êtes freelance, entrepreneur ou indécideur dans une entreprise. Si cette approche raisonne avec vos enjeux professionnels et bien je vous invite à nous rejoindre, nous et notre communauté sur Patreon et
de plus en plus sur Discord. Nous y
rassemblons des DS, des CTO, des fondateurs de start-up, des chefs de produits, des profils un peu plus techniques, mais aussi quelques juniors.
Et je pense sincèrement que d'avoir une communauté de qualité avec laquelle on peut échanger quotidiennement permet justement d'avoir une pratique presque sportive de l'intelligence artificielle,
de maintenir ce muscle critique, votre jugement et votre veille technologique.
Vous le savez, j'ai toujours défendu Lia comme étant une discipline plus sportive qu'un diplôme figé qui vous assurera une connaissance pendant 15 ans. Nous avons
un nouveau programme qui vient de sortir, un nouveau projet, le second cerveau auquel je dédierai une vidéo très bientôt. C'est un parcours
très bientôt. C'est un parcours d'apprentissage très pratique et guidé en quelques leçons pour concevoir, déployer et gouverner votre première architecture cognitive basée sur un
système agentique. derrière ces mots un
système agentique. derrière ces mots un petit peu compliqués. Concrètement, vous
apprendrez à construire un petit wiki personnel maintenu par un agent pour vous à partir de vos sources de données, vos notes. Vous y mettrez en place une
vos notes. Vous y mettrez en place une première architecture de base pour y écrire quelques fichiers de configuration. Tout ça sur votre
configuration. Tout ça sur votre ordinateur. Si vous préférez utiliser
ordinateur. Si vous préférez utiliser Cloud code avec Opus, qui est le chemin par défaut le plus fluide et le plus facile, vous avez cette option. Si vous
voulez utiliser Open Code avec Dipsic V4 en local sur votre machine pour garder toutes vos sources privées et rester indépendant, vous pouvez le faire. C'est
l'occasion aussi de développer ces quelques compétences pour votre carrière. Aucun pré-requis technique
carrière. Aucun pré-requis technique n'est exigé et vous aurez toutes les ressources accessibles qui vous prendront étape par étape le plus rapidement possible pour progresser sur ces sujets. Si vous avez le moindre
ces sujets. Si vous avez le moindre souci, la communauté est là pour vous aider, pour vous débloquer et l'objectif de mes vidéos est comme toujours de vous donner les outils intellectuels pour aborder, comprendre, mais c'est dans la
communauté patrion qu'on passe réellement à l'action. Et donc pour passer de l'analyse théorique à l'exécution technique et stratégique, je vous invite à nous rejoindre. Merci pour
votre écoute, pour votre patience et si un membre de votre réseau est actuellement en phase de renouvellement d'infrastructure logicielle ou matériel, n'hésitez pas à lui partager cette vidéo. Au regard de ce qui s'est passé
vidéo. Au regard de ce qui s'est passé cette semaine, je pense que son choix doit tenir compte d'une partie au moins de la grille de lecture que j'ai tenté de vous partager aujourd'hui. Nul doute
que les critères de décision viennent d'être brutalement mis à jour cette semaine. Restez curieux et à la
semaine. Restez curieux et à la prochaine. Il faut savoir que les
prochaine. Il faut savoir que les ordinateurs ont remplacé les employés et les machines des ouvriers. Et là, je barre la route, c'est le cas de le dire,
qui dit barrage du pH.
Et je pense que moi avec mes barrières automatiques, c'est fini les grossesses, les congés payés, les 13e mois, les certificats médicaux et les gens qui carotent chez eux. Vous comprenez ? J'ai
moins. C'est une fois par an entretien et puis c'est terminé. Et j'ai un outil économique qui est cohérent et qui fonctionne perturbant.
On vous sent euh Oui. perturbé.
Oui. Dire que les salariés c'est que définiant par c'est ce qu'il vient de dire. Les salariés c'est souffert de ma
dire. Les salariés c'est souffert de ma part et j'en vois tous les jours des gens qui souffrent c'est des êtres humains. Une barrière c'est loin d'être
humains. Une barrière c'est loin d'être un être humain.
Moi je souffre pas.
Non mais j'ai jamais dit que vous étiez un être humain.
Souffre pas.
J'ai jamais dit que vous étiez un être humain. On est bien d'accord.
humain. On est bien d'accord.
Loading video analysis...