LongCut logo

FABIO AKITA - Flow #588

By Flow Podcast

Summary

Topics Covered

  • O ponto de virada da IA que ninguém percebeu

Full Transcript

Flow.

Salve salve família, bem-vindos a mais um Flow. Eu sou o Igor e hoje eu vou

um Flow. Eu sou o Igor e hoje eu vou conversar com Fábio Aquita. Cara, muito

obrigado por vir aí de novo.

Não, eu que agradeço pelo espaço. Espero

que a gente possa explicar tudo de IA dessa vez e finalmente responder todas as perguntas.

Cara, eu acho que essa foi a última vez da última vez. A gente ficou respondendo um monte de pergunta.

A gente tentou, inclusive, até interessante você falar isso, que eu não tinha notado isso na época. Depois as

pessoas vieram me falar, ah, da forma como eu falei, eh, eu não tinha entendido que eu tava passando essa mensagem, mas parecia que eu não gostava de porque é, não foi isso que eu saquei, mas realmente eu vive muitos comentários

assim é é, mas porque das últimas vezes o que eu vim fazer explicar como funciona na teoria e tudo mais e falar que aquele

medo de Skynet, agi e toda aquela baboseira não fazia nenhum sentido e explicar para onde que as coisas poderiam estar indo. Então, aí hoje a gente chegou num ponto de virada que eu

tava te falando e inclusive no último ano teve vários convites de podcast para falar de Acho que até vocês me chamaram, só que não tinha nada de relevante para falar e eu não queria só ficar repetindo

a mesma coisa, mas dessa vez eu eu voltei porque eu tenho literalmente metaforicamente parece que eu escalei o Evereste, voltei e aí eu

vim, eu tô me sentindo a Mircleink, eu atravessei o Atlântico, voltei e aí agora quantas horas por dia sentado na frente de 16 horas por dia, 7 dias por semana, mais de 2 meses, mais de 500 horas

experimentando todas as IA. Eu fiz

benchmarks e eu escrevi no meu blog aqui tomraes.com tem acho que 50 posts só este ano. A gente tá em abril ainda,

este ano. A gente tá em abril ainda, então tem bastante coisa.

E o que que teve você falou, a gente você antes da gente começar um pouco, tu falou de um ponto de virada que teve no final do ano passado, né? Eh, é a partir desse ponto de virada que tu que tu

entra de cabeça nessas ferramentas, o que que aconteceu que chamou tanto atenção.

Então, o que que aconteceu foi o seguinte, desde que saiu GPT2, GPT3, tudo mais, lá em 22, 23, eu fiquei testando

e nunca foi útil. É todos aqueles memes que todo mundo viu falar: "Ah, você pede para Yat ficar consertando e tudo mais".

É dessa geração. Essa foi a geração que ficou aí subiu de 1 bilhão de parâmetros para 1 trilhão de parâmetros e ficou só naquela corrida de parâmetro. Mas por

mais que aumentasse 10 vezes 100 vezes a quantidade de parâmetros, não multiplicava 10 vezes 100 vezes a a inteligência, vamos dizer assim. Agora,

no ano passado, finalmente a gente chegou, eu vou depois eu vou explicar mais sobre isso, mas parece que a gente chegou num ponto onde acabou as possibilidades, eles finalmente tiveram

que vamos parar de ficar aumentando, ver o que a gente tem e realmente usar o que a gente tem. E aí durante o ano de 2025, isso ajudou bastante que a gente teve a

Open AI, a Antropic, aí teve também os chinêes, Alibabá, Tencente, todo mundo, Google entrou no jogo finalmente.

Então teve uma competição ali e por causa dessa competição, no final de novembro do ano passado, a gente teve de fato os lançamentos que me interessam,

que foi o Antropic, o Cloud Opus 4.5, o GPT 5.1, um as ferramentas que a gente chama de harness, que é o cloud code e o codex. E aí durante o mês de dezembro

codex. E aí durante o mês de dezembro todos os desenvolvedores que estão tão mais na fronteira brincando de IA começaram a descobrir coisas muito diferentes que dava para fazer. Quando

eu voltei em janeiro, eu comecei a olhar esses desenvolvedores que que eu acompanho, falei: "Caralho, o que que mudou?"

mudou?" E aí eu eu comecei a me sentir, cara, alguma coisa aconteceu no último nos últimos três meses que eu não tô sabendo.

Aham.

Porque eu também saí de férias, ano novo, pá, pá, pá. E eu falei: "Cara, mudou tanto as coisas que agora eu tô me sentindo atrasado, atrasado para caramba". Eu comecei, então eu já tinha

caramba". Eu comecei, então eu já tinha até cancelado minha conta do Cloud, que eu falei: "Cara, o Claud não é tudo isso que todo mundo falava, 3 sonet que todo mundo falava, blá blá

blá". Então, 2025 eu não dei muita

blá". Então, 2025 eu não dei muita atenção também para isso. Quando começou

isso, vou reassinei o Clud, comecei a fazer os experimentos e aí aconteceu que eu tenho hiperfoco, né? Eu tenho meu nível altista nível um e o meu problema,

o meu hiperfoco, se eu não tenho obstáculo, eu vou. E o problema de projeto de software é que por melhor que eu seja, eu não sou bom em tudo. Então

sempre tem alguma coisa, tipo, eu odeio fazer tela, eu odeio fazer HTML, eu sei fazer, mas eu odeio fazer. Então sempre

que eu for fazer um projeto e cai num pedaço desse, aí eu fico, ai que bosta, deixa eu olhar um tutorial, deixa eu aí eu vou fazer outra cor, jogar videogame, etc. e não sai o projeto. Dessa vez

acabou os obstáculos. Foi indo, foi indo, foi indo, foi indo, foi indo, foi indo. E nesse foi indo, foi indo,

indo. E nesse foi indo, foi indo, começou no final de janeiro, quando eu fui ver, eu tava em abril assim, inspirando isso diretão.

Eu tava almoçando e jantando na frente do computador e para E eu também uma coisa que eu não gostava antes, porque tinha muita teoria, mas muita coisa para todo mundo chegar a futurologia, ah, vai

dar para fazer, vai dar para fazer, fiz um livro, fiz uma palestra, mas cadê o resultado? ning mostra umado. Então,

resultado? ning mostra umado. Então,

para quebrar isso também, tudo que eu fiz, praticamente tudo que eu fiz, eu abri open source e documentei. Então, no meu blogon Ross tem o a documentação do que

eu fiz, a como foi o passo a passo de tudo que eu fiz. E no GitHub, no meus repositórios, tem lá 16 projetos que estão abertos, são mais de 300.000 linhas de código, que é um o equivalente

a um projeto médio, vamos dizer assim.

Ã, então tudo aberto para que as pessoas possam ver. Alguns pro open source já

possam ver. Alguns pro open source já tem contribuidor, tem issos que as pessoas coloquem, ele tá rodando versão 01, 02, 03, então tem ferramental que as

pessoas já estão usando. E aí a ideia toda é que mudou esse esse essa forma de trabalhar. Então aí a ideia é que eu eu

trabalhar. Então aí a ideia é que eu eu quero tentar mostrar o que significa isso sem ser futurologia, o que de fato dá para fazer, coisas que dá pra gente fazer na prática

agora, né? Então eh vamos começar então

agora, né? Então eh vamos começar então no seguinte, cara. Eh, o existem várias formas de você lidar com aqui a gente tá falando de código, tem várias formas da

gente lidar com inteligência artificial e código, né? Para começar, eh, o teu jeito de escolha é rodando local ou tu roda em nuvem? Como é que tu como é que tu prefere usar?

É uma excelente pergunta. você vai ver 500 milhões de opiniões a respeito.

Então, na semana passada eu realmente resolvi fazer um teste mesmo. Então, eu

fiz, tem um, o projeto tá no, no GitHub, ele chama LLM Coding Benchmark. Eu não

gosto dos benchmarks oficiais porque normal, a maioria dos oficiais eles são pequenos trechos de código muito simples. É o que a gente chama até e é

simples. É o que a gente chama até e é de lite. Então, ah, como fazer a

de lite. Então, ah, como fazer a ordenação de uma lista? Ah, como eu mudo as cores disso para isso? Hum. umas

coisas bem pequenininha, não é um projeto.

Então o que eu fiz foi, eu automatizei uma ferramenta chamado Open Code, que é uma versão open source do que você conhece como Codex ou Cloud Code, tá?

E eu fiz esse Open Code, eu fiz com ele porque o Open Code conecta com quaisquer outros LLMs locais e comerciais, tá?

Então eu fiz um eu fiz uma bateria de testes rodando mais de 33 modelos. Então

isso tá tudo documentado, rodando modelos open source locais na minha máquina e os as versões comerciais desses open source que tá rodando na nuvem. Então existe um serviço chamado

nuvem. Então existe um serviço chamado Open Routers, conhece?

Não.

Open Router funciona assim. Em vez de você criar uma conta em cada uma do do dos provedores, você cria na Open Router, paga só para Open Router e ele

permite escolher. Eu posso ir de Cloud

permite escolher. Eu posso ir de Cloud para GLM, para Minimax, para Kim, Dipsic, o que eu quiser. Eu numa única API com um único token, numa única

bilhetagem, eu pago uma vez só, eu recarrego os créditos e ele usa em quaisquer que eu pedi. Então eu

automatizei o Open Code para desenvolver um microprojetinho. É nível Hello World,

um microprojetinho. É nível Hello World, tipo nível entrevista de emprego de projetinho, que era para fazer uma aplicação web que tem uma pequena cara parecida com chat GPT, que você vai

online, tem um chat que conecta no Open Router para fazer um chat mesmo. Então

ele, eu pedi para cada um deles fazer uma aplicação de um mini chat, então, ou seja, não é não é complicado de fazer. Qualquer programador júnior

de fazer. Qualquer programador júnior deveria fazer isso em um ou dois dias, no máximo. Então eu fiz como como se

no máximo. Então eu fiz como como se fosse no cloud Code ou no Codex, que você começa a fazer prompt, ele faz as coisas. Eu fiz um prompt para gerar a

coisas. Eu fiz um prompt para gerar a primeira versão e um segundo prompt para amarrar o projeto no final. Então são

dois prompts.

Aham. que é diferente de você fazer, faça um algoritmo, faça um pequeno trecho. E aí eu fui rodar em todos eles.

trecho. E aí eu fui rodar em todos eles.

Para rodar em todos eles, eu tenho uma RTX 5090 da Nvidia e que é a melhor placa de vídeo que tem hoje no mercado.

Só que ele tem um grande problema que ele tem muito pouca vran, que é a memória que tem nele, é 32 GB só.

Significa que eu não consigo rodar modelos com mais de 30 bilhões de parâmetros. Então, para isso, eu comprei

parâmetros. Então, para isso, eu comprei um mini PC que é fraco, que é a MD Ryzen AI Max, que é o chip AI Max, e ele tem uma GPU1 embutida que permite

compartilhar a RAM que vem nela. E eu

comprei com 128 GB de RAM, aí eu consigo dar 96 GB para essa máquina. Aí eu

consigo rodar modelos maiores como o Quenten 3, 122 bilhões de parâmetros.

Então eu fui até o eu fui até os open 122. acontece se tu tentar rodar isso

122. acontece se tu tentar rodar isso numa máquina que não aguenta, fica lento, fica lento, fica lento só.

Então foi isso porque eu tentei, eu baixei o aquele o o lhama, eu acho, né? E aí eu tentei alguns modelinhos

né? E aí eu tentei alguns modelinhos quando eu tava brincando, tentando descobrir onde é que eu me encaixava melhor.

Eh, e eu tentei, [ __ ] deixa eu ver qual que é o mais fodão aqui, sem noção nenhuma. Baixei enquanto eu jogava minha

nenhuma. Baixei enquanto eu jogava minha partidinha de Heartstone, né? Quando eu

fui rodar a parada, o computador virou uma carroça na hora.

Vira, vira carroça, porque ele vai usar toda a sua GPU e dependendo o tamanho do modelo, ele vai consumir toda a sua VRAM e vai começar a usar a sua RAM da CPU. E

isso é um sério problema, porque ele vai ficar transferindo camadas do modelo entre RAM e VRAM. E isso ele usa CPU no meio do caminho numa ran que é muito

mais lenta. Então memória hoje não é à

mais lenta. Então memória hoje não é à toa. Todo mundo sabe que memória ficou

toa. Todo mundo sabe que memória ficou caro para [ __ ] Ah. Por causa, maior parte foi por especulação. Foi o

desgraçado do STM.

E lembra que eu falei, eu falei mal dele da última vez, vou continuar falando mal dele.

Tu fala mal dele nos podcasts também.

Falo mal dele, cara. O cara ele encomendou antes de

cara. O cara ele encomendou antes de fabricar todo o estoque de RAM para ele, na cabeça megalomaniaca dele, ele ia precisar de toda a rã que tinha, mais as

que iam ser fabricadas. Tava neste

nível. E de fato tem uma demanda que não é só dele de criar mais data center para pr inferência de de IA, mas ele ele

essas essas notícias que um STM da OPAI dá, o Dario Amodei dá, cada twet que desgraçado dá move o mercado. Ah, o

mercado teve alto, o mercado teve baixo porque o Amodei soltou um tweet, entendeu? Então

entendeu? Então que que tu acha da Modei também? Outro desgraçado.

também? Outro desgraçado.

Outro desgraçado. Tá bom. É outro

desgraçado. É que são desgraçados de jeitos diferentes. O S Altman, ele é um

jeitos diferentes. O S Altman, ele é um mafioso. Ele sabe que é um mafioso. Todo

mafioso. Ele sabe que é um mafioso. Todo

mundo sabe que ele é o mafioso. Ele acha

que é o Michael Corleone, mas na verdade ele é Alfredo.

Tá.

Quem assistiu sabe o que eu tô falando.

Sim, sim.

Você não é da minha família.

O Dário Amodei, por outro lado, ele tem God Complex. Ele quer ser Deus. Ele acha

God Complex. Ele quer ser Deus. Ele acha

que ele é a voz certa da humanidade e ele tá lá para salvar o mundo.

Entendi. Entendi. Eh, dá para sentir na vibe mesmo, né? Até quando tu assina os serviços dele, tu até os termos são meio nessa vibe.

Isso. E aí, ironicamente, os dois melhores do mercado de fato são o Opus 4.6, agora vai ser o Mitos que tá saindo

agora. Não, o mitos não pode. O mitos

agora. Não, o mitos não pode. O mitos

ele ele conseguiu sair do do confinamento programado cuidadosamente para mantê-lo preso e ele saiu. E,

portanto, o Aquita, nós não podemos usar o mitos aqui, eu e você na nossa casa.

Exatamente. É perigoso demais. Ele pode

causar uma terceira guerra. É nossa,

mito.

Ainda bem que você já entendeu isso também e todo mundo de casa espero que esteja entendendo, porque os dois melhores modelos de fato hoje são o Ops 4.6 e o GPT 5.4 X High porque tem várias

camadas né?

E eu vou explicar por depois. Dos

modelos não americanos, o máximo que você tem é o da Zai, que é chinesa, que faz o GLM 5.1. ainda tá

abaixo. Ele tá mais próximo do Sonet 4.5 4.6 do que do Ops 4.6, mas já é mais, ele é usável hoje. E os outros é bullshit. O

bullshit. O isso aqui tudo a gente tá falando de código, de código.

Fazer código.

De código. Sim, sim. Então, desculpa até a o contexto é que eu sou programador, né?

É porque assim, tem tem não tem uma no teu podcast, eu ouvi inclusive de de modelos que eh eles alucinam como se estivessem

fazendo código, mas eles estão só isso. Isso e vai continuar alucinando,

isso. Isso e vai continuar alucinando, tá? Isso não, eu vou explicar por como a

tá? Isso não, eu vou explicar por como a gente conseguiu controlar essa alucinação também. Eh, é natural de LLMs

alucinação também. Eh, é natural de LLMs alucinar, faz parte do processo. Eh, o

problema não é se ele vai errar, é quando, é quantas vezes o que que eu faço quando ele erra, entendeu? Hum.

Mas dos modelos open source, ah, ou modelos não, não, os frontier modelos que a gente chama, existem uma categoria enorme. Quando eu falo que são bullshit,

enorme. Quando eu falo que são bullshit, não é que são ruins, tipo inusável, é que comparado ao Opus e e ao GPT, eles estão uma camada abaixo. Então, existem

modelos uma camada abaixo que dá para usar para programar, mas você como programador vai ser exigido mais de você. Então, modelos que estão abaixo

você. Então, modelos que estão abaixo deles. Então, tem o GLM e embaixo aí

deles. Então, tem o GLM e embaixo aí você vai ter modelo Kimi, modelo Minimax. Ã, nos níveis open source que

Minimax. Ã, nos níveis open source que dá para rodar na sua máquina, a única que vale a pena é o do Alibaba, que é o Coen 3.5 de 35 bilhões. Fodeu minha

máquina. É,

e esse esse é o mais rápido, é o mais performático e e o que melhor gera código. Mas tipo dentro de um ranking,

código. Mas tipo dentro de um ranking, eu tenho um ranking lá, ele tá tipo lá embaixo no ranking, entendeu? Então eu

podendo pagar, eu prefiro pagar o Opus do que rodar o Coin.

Perfeito. Entendi. Entendi. Entendi.

Entendi. E o o por o por o por o que que faz o Opus ser tão incrível assim? Eh, a

gente eh tem lá inclusive no aplicativo, dá para eu escolher o Opus. com

pensamento estendido, tem como escolher o Opus com 1 milhão de tokens de contexto, né? Eh, ele é ele, eles são

contexto, né? Eh, ele é ele, eles são esse esse e o GPT 5.4, eles são objetivamente melhores que os outros.

São objetivamente melhores.

Mas por quê?

Tá. Então, vamos lá. Ah,

durante 2022 até 2024, o que aconteceu foi uma corrida de parâmetros. Então, eu diria que foi a guerra dos parâmetros. Então,

ah, o GPT lança com 1 bilhão, aí a meta lança o lama com outro bilhão e meio, ah, 10 bilhões, 50 bilhões. E a gente chegou no trilhão. Acho que os modelos

de fronteira hoje todos estão na faixa de 1 trilhão de parâmetros. Então, só

que como eu falei, essa proporção de parâmetros não representou proporção de melhores respostas, tá? ele melhora, mas é aquilo que eu tava explicando da

última vez, é uma curva em S. A partir

do ponto de 2023 para 24, o você aumenta 10 vezes o número de parâmetros, mas você só melhora duas vezes a inteligência. Só que se você aumenta 10 vezes o parâmetro, você

precisa de 10 vezes mais energia, 10 vezes mais máquina para ter só uma um ganho de duas vezes, sabe? Então,

próxima versão, daqui a pouco tá economicamente inviável. inviável. Já é

economicamente inviável. inviável. Já é

inviável hoje. Já é inviável esse tipo de crescimento.

Esse tipo de crescimento já é inviável.

Quando chegou 2024, a gente já tava acho que no saiu, começou no 2024 piorou a inferência, porque aí a o GPT lança o

modelo O1, que é o modelo OMni.

E esse modelo O1, a grande diferença dele é a ideia de thinking, a ideia de pensamento. Então o que que é uma LLM?

pensamento. Então o que que é uma LLM?

LM é um modelo feito para gerar texto.

Esse é o propósito dele. Então aquilo

que todo mundo já falou milhões de vezes, eu gastei 5 horas explicando último podcast, que você pega o seu contexto, calcula a tensão em cima desse contexto para gerar um novo token. Aí

você pega agora o contexto mais o novo token, calcula tudo de novo para gerar o próximo token e vai fazendo isso até ele soltar uma resposta, certo? Essa é a versão do GPT2. Então você tem o seu

contexto, que é a sua pergunta, por exemplo, e quaisquer outros instruções que ele dê.

E aí ele gera uma resposta imediatamente. E essas respostas são

imediatamente. E essas respostas são muito burras. O que o Finking faz?

muito burras. O que o Finking faz?

Então, aí você treina uma nova categoria de modelo para que em vez dele já começar a te dar a resposta, ele primeiro começa a gerar novas perguntas para ele mesmo. Então ele se

retroalimenta de novas perguntas. Então,

é como se você fizesse uma pergunta, daí em sequência fizesse crie perguntas para minha pergunta, aí ele cria perguntas para isso, fica escondido. É aquele

momento que fica girando no seu chat o thinking, é porque ele, esse thinking tá gerando novas perguntas e e devolvendo para ele mesmo. Então ele tá gerando

novas respostas e aí no final depende de quantas camadas de resposta, é o tal do deep thinking ou high thinking que eles chamam, eu posso ir quão longe eu quiser

ou parar no meio. É isso que determina a qualidade da resposta. Por exemplo, a diferença do sonet pro opus é justamente essa profundidade de pensamento. O Opus

vai ter um pensamento muito mais longo do que o Sonet. Por isso o Sonet é mais rápido também. Só que ao fazer isso você

rápido também. Só que ao fazer isso você gasta mais token.

Entendi para [ __ ] Muito obrigado aqui. Agora

eu entendi.

Entendeu? Então a ideia dos modelos mini ou os modelos rápidos é que eles têm ou não tem thinking ou o thinking deles é limitado. Então por exemplo, a antropic

limitado. Então por exemplo, a antropic ele tem o modelo opos, que é maior esforço que se chama, né? maior esforço,

profundidade de pensamento, eh, qualquer um desses termos quer dizer quantas camadas a mais de pensamento vai ter.

Cada camada a mais aumenta o número de tokens que você tá gastando, porque ele tá criando mais perguntas, mais respostas, portanto, por isso que nada de repente gasta para [ __ ] porque

ele tá lá, o modelo Sonet tenta ser um balanço para ser Quanto mais burra a tua pergunta ou mais quanto mais genérica a tua pergunta, mais token tu gasta também?

Gasta também. Depende. É tudo depende, depende do problema que você quer resolver, porque às vezes você pode perguntar: "Confirma para mim essa informação". Daí ele vai entender que

informação". Daí ele vai entender que tem que procurar na internet e vai trazer um texto que vai consumir seu espaço de contexto, entendeu? Ele vai

falar: "Ah, confirmei, eu li a a enciclopédia inteira para te confirmar".

Fodeu? Entendeu? Você vai gastar todo o seu contexto. No modelo, no mundo do

seu contexto. No modelo, no mundo do GPT, você tem os modelos mini que são rápido. No modelo do Cloud, você tem o

rápido. No modelo do Cloud, você tem o RikuQu rápido. Então, Haiku e Mini são

RikuQu rápido. Então, Haiku e Mini são os rápidos. Aí você tem o GPT normal e o

os rápidos. Aí você tem o GPT normal e o Sonet, que é aquele que você normalmente usa eh eh primeiro, e você tem os de mais caros porque vai gastar mais token,

que é o High ou o Opus. E agora o mitos.

Aham. E cara, mas ainda assim, ainda assim o o a diferença entre o Opus no

máximo pro pro GPT 5.4 no máximo, eu ainda me ainda me parece que o que o Claudio é melhor, cara.

Então, e aí eu até brinquei hoje que GPT versus Claud é o novo PlayStation versus Xbox, Sega versus Nintendo,

já tá todo mundo Não, porque o GPT é melhor, não porque o Cláudio é melhor e já está, já tem gente escolhendo o time, tá todo mundo assim. E e tem a ver com

essa experiência que você teve. Então,

eu já eu usei os dois por centenas de horas. Então, ah, nenhum. Eu, eu hoje em

horas. Então, ah, nenhum. Eu, eu hoje em abril de 2026 tenho preferido o Opus, mas não quer dizer que eu não uso o

codex. Vira e mexe eu caio em coisas que

codex. Vira e mexe eu caio em coisas que o Opus não consegue fazer e o codex consegue. Então, quando eu vejo que o

consegue. Então, quando eu vejo que o Opus tá pensando demais, então ele demora mais, ele demora mais, ele tenta fazer uma coisa, não consegue, fica tentando, fica tentando, eu paro e vou

pro Codex. Codex e a gente já tentou

pro Codex. Codex e a gente já tentou fazer isso, isso, isso. Pega o projeto da da onde parou e vê se você consegue.

Muitas vezes ele consegue continuar ou vice-versa.

Aconteceu oposto também. Eu fiz no Codex, ele ficou literalmente uma manhã inteira rodando sem conseguir resolver o problema. Eu vou mostrar depois. Mandei

problema. Eu vou mostrar depois. Mandei

pro Opus hoje e eu e eu só fiz isso porque eu acabei com o meu plano do Clod. Aham. Quinta-feira eu acabei com o

Clod. Aham. Quinta-feira eu acabei com o meu limite semanal do plano Max 20X com extra usage. Aí eu fui pro Codex e eu

extra usage. Aí eu fui pro Codex e eu fiquei o fim de semana usando Codex. Aí

segunda hoje e ontem hoje e resetou o limite. Eu já nem sei que dia mais é. Tá

limite. Eu já nem sei que dia mais é. Tá

nesse nível. Resetou o limite, aí eu voltei pro Opus, pro pro Claud e aí eu voltei pro problema que ele patinou no Codex e resolveu o problema. Então você

vê que ele fica indo, eu sempre, para quem me acompanha, assiste meu canal, assisti o meu canal no YouTube, uma das coisas que eu sempre falei, isso acontece com linguagem de programação.

Ah, JavaScript ou Python ou Java, qual que é melhor? [ __ ] eu não sou outdoor de linguagem. Eu vou usar a resolver o meu problema melhor naquele momento. Eu falo que todo bom

momento. Eu falo que todo bom programador tem que ser promisco e desleal com toda a tecnologia. E eu sou assim, eu sou totalmente desleal. Então,

hoje, abril de 2026, por mais que eu odeie o Dario Amodei, eu separo, porque Antropic não é o Dario Amodei. Antropic

tem centenas de excelentes engenheiros trabalhando, ã, independente do Dario Modei. Então, eles têm uma boa

Modei. Então, eles têm uma boa ferramenta. Hoje funciona melhor. Eu

ferramenta. Hoje funciona melhor. Eu

tava hoje, inclusive nessa discussão, conversando com com um conhecido meu que é o Felipe, foi até streamer, eu nem sabia disso, Mr. Kibs. Ah, e aí ele tá hoje na Open EAI e ele tava justamente

tentando evangelizar o Codex. E aí eu falei pr ele, cara, por que que o Codex não atende 100% que o Claud me faz hoje?

Aí o problema não tá no modelo, o problema tá no harness, que a gente, o harness, é, como é que chama harness em português que você e coloca no cavalo para controlar ele?

Ah, rédias. É isso. Isso são as rédeas que

rédias. É isso. Isso são as rédeas que você coloca no modelo. O modelo sozinho é um componente. O outro componente é a ferramenta que usa o modelo. E as duas

tá trabalhando em conjunto para isso funcionar. O cloud code neste momento,

funcionar. O cloud code neste momento, ele tem melhores, um melhor hardness, uma melhor rédia do que é hoje o Codex.

Então, se o Codex implementar a mesma estratégia que o Cloud Code usa usando o mesmo GPT, ele provavelmente vai ter respostas melhores ou superiores. Então,

é por isso que eu até falei, esquece livro, essas coisas, porque hoje tem uma versão, amanhã pode sair o Codex novo. Ele inclusive me falou que

Codex novo. Ele inclusive me falou que eles estão trabalhando em muitas dessas coisas que eu tô sentindo falta e quando sair essa versão, provavelmente pode mudar o jogo.

Perfeito.

Entendeu?

E aí? Entendi, entendi. E que bom, porque é isso que é é para aí que a coisa parece ter espaço para evoluir,

não é aquita é num harness melhor. É num

é num até, por exemplo, uma coisa que o Opus faz que eu não sei se quer dizer que o que o aplicativo do Cloud pro pro Windows, ele faz um ele, por exemplo,

ele ele organiza a minha pasta de de download, tá ligado? Pode, pode fazer o que quiser, faz umas coisinhas assim que me parecem vantagens competitivas pro aplicativo do chat PT, por exemplo, entendeu?

O Codex faz também. Eu não sei no Windows, no no Linux ele faz, faço também, mas o CLI CLI CLI.

É, então o o o Clud, ele é é mais amigável, manja. Ele para um cara que

amigável, manja. Ele para um cara que não é o Akita, é isso faz diferença, né?

Faz, faz faz. E

faz. E até foi engraçado porque semana, acho que foi semana passada ou retrasada que teve o vazamento do Cloud Code. Você

chegou, você chegou, você viu isso que o o Codex da Open AI, pelo menos o Codex, ele ele ele ele tá no nome Open, ele é aberto, então ele tá no GitHub, todo mundo já podia contribuir com o Codex.

Eu fiquei sabendo disso só hoje também porque o meu amigo me falou, eu não sabia, mas o Cloud Code sempre foi fechado e aí teve aquele vazamento de deles e aí em todo vir, todo mundo viu

como é que o Clud foi feito, o que que tinha dentro. Eu fiz o eu fiz uma

tinha dentro. Eu fiz o eu fiz uma cobertura gigante disso no meu blog explicando passo a passo tudo. E o

código deles é macarrônico, mal feito.

Então ele, eles estão naquele ritmo de de empurrar código mais rápido possível para sair na frente, sabe? Não entendo, tô entendendo.

Mas significa assim, tá todo mundo nessa competição, a antrópica, não podem se ver, se se encontrar na mesma rua ou eles brigam atravessa rua, mas eles não

conseguem olhar olho no olho ness nessa briga ferrenha e isso é excepcional. Eu

espero que continue dessa forma, porque é isso que faz a OpenIi querer fazer mais coisas mais rápido e antrópic também para um não passar o outro, que a gente tá agora num momento em que eles

estão tentando absorver a maior quantidade de gente possível como assinante. Então a ideia é que quem

assinante. Então a ideia é que quem assina o Claud não vai querer pagar para OpenI duas. Então eles eles todo mundo é

OpenI duas. Então eles eles todo mundo é é a ideia da Netflix versus Amazon Vídeo versus Disney Plus. Então, todo mundo tá brigando pelos guist da ideia de quem

tem a melhor harness, por exemplo.

Então, o hoje para mim no nos projetos que eu testei, todos esses projetos que estão abertos no GitHub, o Cloud tem sido mais disciplinado, mais organizado,

mais previsível do que o Codex. O Codex

ele tende a não terminar tudo que eu pedi, especialmente se forem coisas mais complexas. Ele, se eu peço coisas em

complexas. Ele, se eu peço coisas em paralelo, às vezes ele não faz tudo. Se

eu interrompo e tento fazer alguma coisa, ele não volta pra primeira coisa.

Eu tenho que ficar lembrando, ó, você não terminou a primeira coisa, termina.

O Cloud, eu consigo fazer ele fazer uma tarefa complicada, ele quebra num plano, faz tudo em tarefas paralelas. Se eu

interrompo e peço mais alguma coisa que eu lembrei depois, ele ele ou cancela, se se for uma um ajuste, ou cria uma tarefa paralela e continua tudo em paralelo, ele termina todos. No final,

ele me dá um valor, terminei tudo que você pediu. Então ele tende a ser mais

você pediu. Então ele tende a ser mais disciplinado e organizado. Para mim isso é muito útil. Se eu tô, por exemplo, com três, quatro projetos em aberto e eu não lembro se ele terminou ou não terminou,

o Codex me deixa nessa dúvida. [ __ ] ele tinha terminado, não tinha terminado o o Opus não, ele consegue me, eu consigo confiar que eu posso deixar ele fazendo alguma coisa enquanto eu tô vendo outra e depois rechecar e eu consigo ver.

Então, mas isso de novo é a versão de abril de 2026. Pode ser que amanhã saia a versão nova do Codex e inverta tudo, entendeu?

Por eu sei que eu sei que eu poderia eu sei que eu poderia criar um, usando, por exemplo, o Codex CLI, eu sei que eu poderia criar um arquivo, um MD com

algumas instruções para ele usar como se fosse uma skill do Cloud, sabe? Eh, eu

sei que eu poderia fazer isso, mas o Cloud para eu poder falar pro Cloud, criar uma habilidade também é muito [ __ ] Ele pode ele, eu, por exemplo, se

eu for eh criar um, eu vou criar um aplicativo aqui e eu quero fazer uma user experience ou uma user interface e diferenciada, eu posso eu posso

instruí-lo a criar uma uma habilidade específica para lidar com isso. Meio que

ali no chat ali rapidinho. Eu não sei se os outros têm um conseguem fazer algo assim também.

É que essas facilidades do Claud, isso é bacana porque é o seguinte, até pro pessoal que tá ouvindo ainda não sabe ainda, tem um vocabulário novo que a gente precisa falar por até então é IA.

IA é o guarda-chuvão. Aí o povo já fala: "Não, eu já sei que existe LLM e LLM é uma coisa, computer vision é outra. Eu

já sei que tem. Agora, qual a diferença do LLM da Open pro Llropic? Aí, aí já começa a ficar mais difícil. É porque um pensa mais, um pensa menos, o fica mais,

né? E aí você começa a descer pras

né? E aí você começa a descer pras ferramentas. Então a gente já falou,

ferramentas. Então a gente já falou, existe um harness, tem a rédia. E nessa

rédia você pode ter skills, que são as habilidades, e aí todo mundo fica fodeu.

Que [ __ ] [ __ ] toda. Você sabe me definir o que é uma habilidade, uma skill?

Eu acho bom, como eu uso, eu uso assim, cara. É, eu pedi pro Claud fazer uma

cara. É, eu pedi pro Claud fazer uma parada aqui nesse meu aplicativo, nesse meu projetinho aqui, que ficou meio ficou tosco. Olhei e ficou tosco. Eu sei

ficou tosco. Olhei e ficou tosco. Eu sei

que ele consegue fazer melhor porque aleatoriamente de uma outra vez ficou melhor. Então, cara, ó, eu descobri que

melhor. Então, cara, ó, eu descobri que um amigo meu me falou que eu posso pedir para ele criar umas habilidades. Então,

eu vou lá e peço assim, cara, ó, eh, cria uma cria a seguinte habilidade, ainda dou o nome, ó, vai ser eh o I, o X Master, tá ligado? Eh, toda vez que eu que que a gente for fazer alguma coisa

nesse sentido, eu queria que você carregasse essa habilidade. O que que tem nessa habilidade? Eh, você vai, você agora é o melhor do mundo. Aí eu vou viajando lá no que, como eu quero que ele construa essa persona, no fim das

contas, esse personagem que ele vai incorporar. Eh, e aí ele cria um arquivo

incorporar. Eh, e aí ele cria um arquivo que ele salva na minha máquina e toda vez que a gente vai fazer mexer em algum

em código que tem a ver com o user interface, user experience, ele carrega essa habilidade e acaba me dando um resultado melhor, porque ele é é como se

fosse uma rédia dentro da rédia, quase isso, ou em parte, tá, tá próximo. Então agora vamos vamos agora você vai entender, tá?

Então quando o a tal da LLM é um modelo que é um arquivão, lembra que a gente explicou? É um arquivão que sobe ali na

explicou? É um arquivão que sobe ali na memória da GPU que ele vai usar para calcular coisas bacana. Para calcular o próximo token que forma a resposta. Para

você manipular esse modelo, você faz um prompt, certo? Um prompt é o texto que

prompt, certo? Um prompt é o texto que você digita, o que você pede, seja na web, seja na rédeia, que é linha de comando, que é o programa ã cloud code

ou codex. Prompts existem vários tipos

ou codex. Prompts existem vários tipos de prompt. Um dos prompts que você não

de prompt. Um dos prompts que você não vê, a gente chama de system prompt.

Então isso é o é a por que que chama rédia. A rédia manda para aquela sessão,

rédia. A rédia manda para aquela sessão, ele já inicia com um contexto com um monte de instruções que não tem na web ou é diferente do da web. A web também

tem, mas é diferente. Então ele inicia, você é um assistente de programação, você tem acesso às ferramentas A, B, C, D. Toda vez que o usuário fala A ou B,

D. Toda vez que o usuário fala A ou B, você responde C ou D. Já tem uma série de instruções. Então, você abriu o o

de instruções. Então, você abriu o o cloud Code ou o Codex, ele já tem essas system instructions.

Daí tu manda o prompt. Ah, gostaria de fazer a minha interface com front end tal, com interface tal, com design e

tal. Você faz o prompt. Esse prompt vai

tal. Você faz o prompt. Esse prompt vai cair, vai via API para LLM que vai fazer o deep thinking. Então, o que que esse promptito quer dizer? Ah, ele quer dizer

que eu tenho que ir pesquisar o documentação do, sei lá, de qualquer ferramenta de frontend, tend, qualquer coisa assim. E aí ele devolve uma

coisa assim. E aí ele devolve uma resposta. Ah, para executar o que você

resposta. Ah, para executar o que você mandou. Eu vou ter que criar um novo

mandou. Eu vou ter que criar um novo arquivo, vou ter que baixar uma biblioteca, vou ter que fazer, ele destrincha para você e você fala: "Quer fazer isso aqui ou não quer", né? Aí ele

manda, quando ele manda iniciar o você devolve, eu quero iniciar esse plano.

Daí do lado da LLM ele é treinado hoje em dia, e essa que foi a grande diferença a partir de 2024 para 25, que a gente chama de tool calling, que é chamada de ferramentas. A LLM que está

rodando o servidor, ela não ela não executa nada, ela pede para a rédia executar pro hardness, pro cloud code. Quem executa é o cloud code. Então ele foi treinado

para que toda vez que tenha nesse plano eu preciso criar um arquivo, ele manda uma função chamada aqui createfileor.html

da TML. E aí o Harness recebe esse essa

da TML. E aí o Harness recebe esse essa estrutura com essa função e executa na máquina a criação desse arquivo aonde a LL me mandou executar. Ou a LLM me pede,

cara, para eu poder modificar esse site, eu preciso saber que arquivos que tem.

Então ele manda de volta a resposta no chat para a rédeia. Aqui a rédia não mostra para você o comando listar diretório. Aí ele lista os arquivos e

diretório. Aí ele lista os arquivos e devolve como novo prompt, um system prompt para ll. Aí é assim que ele sabe o que tem. E é por isso que a é importante, porque é ela que executa

todos esses comandos. Então, a o tool calling antigamente, antes de ter eh eh isso programado, treinado neles, a gente mandava como prompt, ó, toda vez que

você precisar mexer no arquivo, me manda uma uma um texto dizendo criar arquivo entre aspas, entre parênteses, entre colchetes, porque aí no meu aplicativo

de chat eu tento ver se apareceu esse texto e aí eu tento executar e mando. Só

que como ele não foi treinado para isso, não tem nenhuma garantia que ele realmente ia responder com exatamente aquela função. Ele podia só devolver,

aquela função. Ele podia só devolver, preciso ver um arquivo, tipo, na cabeça, ele ele não foi treinado para devolver isso. Então, to

calling é uma coisa que tem que ser treinada no modelo. Ele tem que saber que tem ferramentas, ele tem que saber que tem que devolver uma resposta sabendo que vai ter um intermediário que

vai executar e devolver. Então esse

suporte de tool Colin é que ajuda. Então

você junta o deep thinking, que é pedir pedir para ele pensar quais passos tem que fazer. Nesses passos que ele

que fazer. Nesses passos que ele devolve, ele já tem que ter treinado para devolver chamada de função para complementar o prompt para ele continuar pensando e aí devolver os comandos que o

harness tem que fazer. E aí o harness é burro. O harness ele não tem

burro. O harness ele não tem inteligência. Ele só recebe uma função,

inteligência. Ele só recebe uma função, executa, recebe uma função, executa. Ele

executa, devolve para LM. Executa,

devolve para Ll. E aí LM vai pegando a resposta, vê se deu erro, vê se deu OK e vai continuando essa resposta. Então ele

é um chat que tá continuando ali atrás, que antes eu precisava fazer manualmente. Então antes eu pedia para

manualmente. Então antes eu pedia para ele gostaria de fazer, sei lá, o o a página, ele ia falar: "Ah, preciso fazer um Igor. HTML, cria aí para mim". Aí

um Igor. HTML, cria aí para mim". Aí

você copiava o texto, colavainar. É

assim ou era assim até, sei lá, o mês passado.

É o o Gemin depende de novo do harness que você tá usando. Você usa, por exemplo, o antigravity da do Google.

Eu usei isso daí.

Isso. Então é mais ou menos a mesma ideia. Então vou

ideia. Então vou por que que eu t desculpa aqui te interromper. Eu tentei o antigravity e

interromper. Eu tentei o antigravity e ele tem e era sempre o projeto que eu tava mexendo era um era aquele organizador de ROM. Sabe qual é? Por

quê? Por quê? Porque eu eu queria botar tudo no meu no meu o bagulho SD. oz lá o FX Pack que é o mais moderno. Eh, só que tu baixa a

mais moderno. Eh, só que tu baixa a [ __ ] do do pacote, ele vem cinco ROMs pro mesmo jogo e um em japonês que eu nunca vou abrir porque eu não sei japonês, tá ligado?

Eu tenho a mesma coisa que você. Eu

queria arrumar essa [ __ ] e eu não tinha um aplicativo e eu fiz um e até eu fazer um, eu fui, [ __ ] eu tentei diversas ferramentas e eh eu fui chegar no Gemin

CLI meio que atrasado e aí tentei o o com a que tu acabou de falar antigravity, que inclusive ele tem algum tipo de integração com Clud também e ele pode usar outros modelos. É,

e é sempre o cara, o Cloud ele engole todos os outros, sabe? A sensação que eu tenho é ele engole todos. Verdade,

verdade, é verdade. Mas aí por que que por que que tem todos esses harness diferentes? Porque cada uma dessas

diferentes? Porque cada uma dessas empresas faz o formato de tool calling proprietário deles.

Entendi.

Então assim, no digamos na Open AI chama create file, na Antropic chama file new, na GL me chama new file, a o nome da

função, sabe? Então isso simplificando

função, sabe? Então isso simplificando muito, né? Mas tem toda uma estrutura

muito, né? Mas tem toda uma estrutura que ele que ele define. Então eles é como se fosse um em Java, um em Python em JavaScript. E aí o harness ele tem

em JavaScript. E aí o harness ele tem que saber falar todas elas. Então um

open code que é open source, ele tenta ou falar todas elas ou pedir pro modelo devolver no formato que ele entende.

Então ele fala assim, ó, eu só entendo Java, me devolve todas as funções em Java. Só que aí se o modelo não foi

Java. Só que aí se o modelo não foi treinado em Java, ele vai ficar tentando traduzir de Python para Java, faz de conta. E aí ele vai ter uma performance

conta. E aí ele vai ter uma performance pior, porque ele não foi treinado com essas funções. Então, por isso que você

essas funções. Então, por isso que você pode ligar outros modelos num harness que parece que funciona, mas ele vai degradar a performance porque não foi treinado na linguagem que o Harness

fala. Por isso que normalmente o cloud

fala. Por isso que normalmente o cloud Code você usa com o Opus, o Codex você usa com GPT, o Gemini você usa com o Gemini Cria ou com antiravity.

E aí eles tentam falar com todos os outros, mas não garantidamente todo mundo fala todas as línguas. Então,

tecnicamente daria para eu usar o harness, o codex, eh, com outro, com outro LLM, mas eu estaria sendo burro.

Sim. Por exemplo, isso. Então, eh, e aí tem outro problema que é o problema econômico. Então, aí tem uma todo, tem

econômico. Então, aí tem uma todo, tem uma galera que fica o dia inteiro só reclamando disso no no Twitter e tudo mais, no Reddit, no Redit. E é isso mesmo, porque a

no Redit. E é isso mesmo, porque a antropic hoje em dia ela tem sido bem agressiva com as restrições do das dos planos de assinatura deles. Então, a

Antropic ele tem planos de assinatura e tem tokens avulsos. Todo mundo tem ou assinaturas ou tokens avulsos. Então

você tem a o plano e eu não lembro agora o nome se era, é proí no Max, né?

Do Cloud. Do Cloud é tipo um de um que custa R$ 100. é um que é $, outro que é $, outro que é 200, certo?

Aí quando você tá nesses planos, você pode usar com o cloud Code, mas você não pode usar esse plano com o open code, que é o open source. Mesmo se o open ele

fizer engenharia reversa e fazer o suporte à ferramentas, tool calling do antropic, ele não deixa você usar esse modelo. Se ele vê que na PI ele tá

modelo. Se ele vê que na PI ele tá usando uma coisa diferente do cloud code, ele pode te banir, por exemplo, sabe? É que nem você ter que tentar

sabe? É que nem você ter que tentar fazer cheats num jogo que tem anticheats, aí você vai ser banido.

Mas por que assim, por que um cara que nem eu faria isso? Isso é uma coisa para um cara como você, não é?

Sim, é uma coisa para um cara como eu.

Então, seria para alguém que é programador e quer ter a opção de eu já sei que o, para este tipo de projeto o OPS funciona melhor. Eu já sei que para este tipo de projeto o GPT funciona melhor e aí tu quer centralizar numa ferramenta

só?

Eu quero uma ferramenta só para não ter que ficar toda hora trocando de ferramenta. Ah, qual que era a

ferramenta. Ah, qual que era a ferramenta melhor? Entendi. Mas a mas a

ferramenta melhor? Entendi. Mas a mas a antrópica é chatona com isso.

É chatona com isso. Não só por isso, porque o chat ele é o contexto do projeto. Então eu gostaria que quando eu

projeto. Então eu gostaria que quando eu volto pro projeto, ele continua com aquele mesmo contexto para continuar, para não ter que reexplicar tudo de novo, né? Então

novo, né? Então sabe o que que eu faço?

Hum. Porque eu ficava, fiquei nessa, n ficar pulando de modelo para para modelo, de aplicativo para aplicativo.

Eh, quando quando chegava assim, tá, deixa eu tentar outro aqui, eu pedia para ele fazer uma um arquivo, um MD de contexto de que [ __ ] é essa para eu passar pro próximo agente, tá ligado?

Perfeito. Você pode fazer dessa forma, tem outro jeito mais fácil. Não sei se você viu quando você dá contrtrol C no Cloud Code ou no Codex, ele fala assim: "Para você voltar esta sessão é só dar

cloud code resume, continue", né?

Uhum. Mas ele também te dá um ID, ele te dá um ID da sessão. Então, se, por exemplo, é, ele fala assim, eh,

cloud e continue e um hash que é um um stringão, que é uma identificação da sessão. O codex faz isso também. Então,

sessão. O codex faz isso também. Então,

se eu tô no cloud e eu dou conttrl C e eu vejo aquele ID, eu abro o codex e falo: "Eu estava no cloud, pegue a sessão desta ID, porque isso tá no arquivo, isso ele já está gravando aquele contexto no arquivo."

Entendi, cara. texto. Então eu falo lei a última sessão do Clud e aí o Codex continua a sessão da onde ele parou, entendeu?

Ó, tô, entendi. Sensacional isso daí, mas eu assim, eu tô preferindo usar, como agora eu tô só usando o Cloud, eu tô preferindo usar o próprio aplicativo de Windows para resolver meus problemas, porque

ótimo, porque ele ele é bom, sabe? Ele não, eu tinha um problema, por exemplo, com do chat EPT, que sessões com contexto, com a conversa muito longa, fica lento para

[ __ ] Pelo menos um aplicativo do Windows, o o aplicativo do Cloud, além de ser muito melhor, eu consigo facinho trocar entre uma função e outra e tudo

mais. Isso é uma há alguma desvantagem

mais. Isso é uma há alguma desvantagem entre as formas de usar, por exemplo, linha de comando e o aplicativo com com bonitinho? Eu não usei o aplicativo

bonitinho? Eu não usei o aplicativo Windows, por exemplo. Eu

esse celular é uma merda, não?

É, eu não uso nenhum desses aplicativ.

Eu sempre uso direto a linha de comando.

Por que que eu faço isso? Porque é

programador. Então eu tenho acesso às ferramentas todas e eu sei que a partir daquele da linha de comando, o cloud tem acesso a todas as ferramentas que eu dou para ele. Então ah, um dos projetos open

para ele. Então ah, um dos projetos open source que eu fiz inclusive chama AI Jail.

Hum.

Qual que é o problema? O problema é que esses harness eles têm acesso a tudo.

Eles podem se der você mandar: "Ah, tô bravo hoje, quero que o mundo se exploda". Talvez ele entenda isso

exploda". Talvez ele entenda isso literalmente se apagando seus arquivos, sabe? É, é difícil isso acontecer. Você

sabe? É, é difícil isso acontecer. Você

vai ver memes disso. Eu nunca em, em centenas de horas eu nunca vi um acidente desse.

Em geral, ele trabalha na pasta que você deixou, não é?

Sim, em geral, ele trabalha na pasta que você deixou e ele vai pedindo aprovação para tudo.

Sim. Inclusive o saco, como é que faz para não ter isso? Tem, se chama opção chamada yolo

isso? Tem, se chama opção chamada yolo da traço. Traço yolo. Você sabe o que é

da traço. Traço yolo. Você sabe o que é iolo?

Sei. You only live once.

Exatamente. Se você quiser viver perigosamente, você habilita a opção iolo e vai na fé.

Se for sua máquina pessoal, você tá brincando, [ __ ] pode fazer. Eu faço

isso também na minha máquina. Eu nunca

vou fazer isso em máquina de trabalho ou máquina de cliente. Então, por exemplo, uma coisa que eu fiz recentemente, eu para fazer aqueles testes, eu tinha um mini PC que eu tenho um monte de serviço que roda local na minha na minha

infraestrutura. Então, eu tenho o meu

infraestrutura. Então, eu tenho o meu NAS, é o meu, o meu Google Drive pessoal, eu tenho meu Netflix pessoal, miniakito, ó. Tô com essas nerdíci aí,

miniakito, ó. Tô com essas nerdíci aí, ó.

É, eu tenho, eu faço o backup de todos os meus e-mails.

Não, calma.

tá lá rodando tudo bonitinho. Aí eu eu queria instalar num servidor novo. Aí eu

não queria fazer na mão tudo isso. Então

o que que eu fiz? Eu instalei o Linux do zero ali e a primeira coisa que eu instalei foi o Cloud e eu dei acesso de rout para ele que é acesso de administrador e eu comecei a fazer prompt com ele para configurar a máquina.

Quanto eu tenho quanto que eu tenho que manjar de Linux para fazer isso aí? É,

eu agora então deixa deixa eu completar um pensamento, eu vou voltar nisso. O

negócio da restrição da assinatura, que acho que é importante falar, é que a antrópica ela restringe o uso de do da dos planos das mensalidades para

ferramentas diferentes das dele, tipo o cloud do Windows, o cloud code. Ã,

por exemplo, o povo ficou puto recentemente, duas vezes ficaram puto porque primeiro eles cortaram fora Open Code. Muita gente tava usando o Open

Code. Muita gente tava usando o Open Code no lugar do cloud Code. Daí a

surgiu Open Claw, então tá todo mundo instalando Open Claw como se não houvesse amanhã e usando no cloud.

E aí o Antrop falou: "Não vai usar essa [ __ ] não vai usar".

Ah. Ah, eu vi que eles fizeram isso.

Nada a ver, Maria.

É. Não, então tem porquê. Tem porquê.

Ah, então se você quiser usar o cloud, você vai ter que pagar token avulso, que é mais caro que a mensalidade, certo?

Então a mensalidade ele é um incentivo que nem eu falei, eles querem pegar mercado, então uma opção deles dá um plano mensal mais barato, só que você vai est dentro dessas limitações. Você

pode vai pagar mais barato para usar o Cloud Core, mas tu não pode usar outras coisas. Se tu for usar outras coisas, tu

coisas. Se tu for usar outras coisas, tu vai pagar mais caro.

Perfeito. Até porque como você tava me falando antes de começar, assim, custa R$ 1.000 o plano Max do Cloud, eh, 20x, né, por mês, que são os 200.

É. É, e assim caro, é caro. Senta assim,

pô, brasileiro, comparado salário mínimo caro. Agora

caro. Agora pro brasileiro é cinco vezes mais caro.

É, então agora não é caro. Essa aqui é a parada. Daí o cara deixar eu usar com

parada. Daí o cara deixar eu usar com cloud bote lá, o cloud, né?

Open gasta token para [ __ ] Num token para [ __ ] que o cara já tá me cobrando barato. É assim, esses 200.

Pior, pior. Open Claw foi comprado pela Open Ei.

[ __ ] que Porque ele começou se chamando, eu não lembro se era Claud Claud, era Claud Gar, era alguma coisa Claud. Aí a antrop

ficou [ __ ] mandou ele tirar o nome. Aí

ele se chamou de open claw e aí pr ficou como openi, entendeu?

Acho que era claud.

Ah, eu não lembro agora. É, é, enfim, mas eu lembro de tudo isso rolando, né?

Isso. Então aí eles ele lançou esse negóci ficou [ __ ] mandou ele trocar de novo, por isso ele mudou de nome três vezes na mesma semana. Aí no final a Open Ai chegou, falou: "Ó, vamos

conversar e anunciou: "Tô comprando por X milhões". E aí agora o OpenCla, o cara

X milhões". E aí agora o OpenCla, o cara que inventou trabalha na Open AI. Só que

aí a galera quer usar o Open Claw como Cloud. E aí entró fala: "Vai se [ __ ]

Cloud. E aí entró fala: "Vai se [ __ ] eu não vou deixar o produto do meu concorrente rodar". Então ele pode

concorrente rodar". Então ele pode restringir os planos como ele quiser. Aí

tem um problema, um outro problema. Eu

te falei que à medida que teve a guerra dos parâmetros, todo mundo foi treinando mais e mais parâmetros. Sobe 10 vezes o número de parâmetro, 10 vezes o número de parâmetro. Então tudo isso custa 10

de parâmetro. Então tudo isso custa 10 vezes mais caro. 10 vezes mais caro e não aumenta tanto a inteligência no final. Aquela curva em S que eu te

final. Aquela curva em S que eu te falei, a gente chegou naquele topo 2024 para 2025. Não adianta mais continuar de

para 2025. Não adianta mais continuar de 1 trilhão para cima de parâmetros, porque o próxima ordem de grandeza vai custar tão caro para fazer mais um de 1 trilhão para 2 trilhão e não vai

aumentar tanto mais a a inteligência que não compensa. Para piorar isso, então, a

não compensa. Para piorar isso, então, a eu tava fazendo, tava vendo umas contas, em 2024, ah, dos data centers que estão

fazendo treinamento e inferência de IA gastaram na ordem de 400 e tantos terw h de energia. Isso praticamente, isso mais

de energia. Isso praticamente, isso mais que dobrou em 2025, acho que não sei se passou ou tava perto de 1 ter hora em

termos de emissão de carbono, que fica todo mundo adora isso.

Você viu que você, não sei se foi só, fui só eu na minha bolha ou na sua também, você tem visto gente falando em vamos salvar o mundo, com carburo.

Ah, não muito, mas tá com tem aparecido aqui ali, tem aparecido um pouco. Eu não vejo mais nenhum.

Porque o que tô, ó aí, aí para quem gosta dessa ideia de carbono, o que o que foi produzido de carbono só para irá

treinamento e inferência, ele já é maior do que você economizou com todos os do Entendi.

Tudo que você conseguiu, entre aspas, economizar com carro elétrico, num ano, você já tá acima disso. Já tá acima disso.

Um data center para inteligência artificial. Para piorar,

artificial. Para piorar, calma aí, calma aí. Tudo que a gente economizou com EV ao longo no no ano, no mesmo ano.

Ah, tá. Ufa.

Tá bom. OK. Ah, então é uma troca justa, vai. Tu tem carro elétrico?

vai. Tu tem carro elétrico?

Não.

Tu tem carro?

Sim.

Ah, não. Então tá errado, pô. Para para

usar inteligência artificial tem no mínimo que tem um É aí. Aí aquele aquela outra discussão

É aí. Aí aquele aquela outra discussão que eu acho que não tem nenhum problema, na verdade. E eu vou gastar energia como

na verdade. E eu vou gastar energia como se não houvesse amanhã, que é o que eu tô fazendo agora. E aí eu acho legal.

casa tá lá rodando a [ __ ] do do Marvin, né?

E eu acho maior legal porque todo mundo que fez merda, eu falei isso no último podcast também, a Alemanha fez merda de fechar todos os nucleares e por isso agora a Europa tá atrasada em IA. Então

os modelos que tinha em 2023 tinha um promissor que era o Mistral. Mistral era

o modelo europeu, tá? Nem aparece mais nas listas, ninguém mais fala dele, desapareceu. E então falta energia. Por

desapareceu. E então falta energia. Por

que os chineses estão atrás é a questão técnica de porque os americanos não vendem o chip. Isso, isso, exatamente isso. Uma das coisas é essa. Eh, então

isso. Uma das coisas é essa. Eh, então

eles eles estão uma geração defasado nos chips de IA. Isso foi uma decisão estratégica que os Estados Unidos tomou.

Eu gosto dessa decisão. Gostei. Ah,

finalmente alguém tá fazendo a China suar. Eles precisam suar um pouquinho

suar. Eles precisam suar um pouquinho mesmo. Tava demorando para suar porque

mesmo. Tava demorando para suar porque tava muito fácil para eles estragando o resto do mundo. Então só parece bonito na propaganda, mas na hora que você vai ver aquela merda. Então, eh,

o quê? O o o modelos de inteligência social ou agenda geral.

Eu gosto dos chineses, o que eu não gosto do governo. É, é sempre é sempre isso. Eu gosto do chinês, eu sou

isso. Eu gosto do chinês, eu sou asiático, eu gosto de todo mundo lá. O

que eu não gosto é só do CCP mesmo que faz só merda. Mas os modelos em si estão atrasados. Então, ano passado, que aí

atrasados. Então, ano passado, que aí quando o pessoal voltou a falar disso no podcast, até me chamaram: "Ah, porque saiu Deepsic, o Deepsic vai ser revolução, não sei o quê, não sei o que." Ning já não tô que ninguém mais

que." Ning já não tô que ninguém mais fala de Deic, porque Deepsic é uma bosta. É uma droga.

Então, se alguém ainda tinha esperança de psique, de psique é uma droga. Ele

saiu no começo de 2025, que foi quando começou essa 2025 foi o ano dos agentes.

Então, tudo isso que eu acabei de te explicar, ó, o que que você precisa para est nesta geração. Nesta geração você precisa de pensamento profundo. Isso é

passo um. Você precisa de uma coisa chamada prompting. Então, o que que é

chamada prompting. Então, o que que é prompt casing? Cada vez que você faz um

prompt casing? Cada vez que você faz um novo prompt, eu tenho que fazer pegar o contexto, gerar um novo token, depois recalcular tudo para cada novo token, certo? Para não ter que recalcular tudo

certo? Para não ter que recalcular tudo toda hora, eu faço um cash disso. Eu

guardo o cálculo dessa primeira etapa.

Quando eu faço a próxima etapa, eu guardo esse cálculo para não ficar toda hora recalculando isso dentro de um prompt. Mas

prompt. Mas isso é coisa dessa geração também, não? E isso nas últimas gerações já

não? E isso nas últimas gerações já tinha. Isso é o KV cash, que é um key

tinha. Isso é o KV cash, que é um key value Cash. Ah, tudo, todo, todo, todos

value Cash. Ah, tudo, todo, todo, todos os modelos já tem isso desde o começo.

Por isso que quando você pega um modelo, tipo um Quen, de 30 GB, e você fala: "Caraca, 30 GB cabe na minha GPU". Só

que se você não tem espaço para esse Cave Cash, o seu o seu contexto fica pequenininho. O contexto gasta isso,

pequenininho. O contexto gasta isso, porque à medida que você vai aumentando o contexto, você vai ter que recalculando isso milhões de vezes.

Então, você precisa ter espaço pro modelo e para esse cash.

Deixa eu fazer uma pergunta aqui, um parêntese rapidinho, ó. Eu entendi o lance do modelo grande que com o tempo que o contexto diminui. Legal. É

rapidinho. Um um modelo pesado de 30 GB é e um modelo de 15 GB. Qual a diferença prática entre eles?

A quantidade de parâmetros. É a

quantidade de parâmetros, tá? E aí ele vai mais ser mais ou menos

tá? E aí ele vai mais ser mais ou menos inteligente.

Vou explicar também. Então vamos lá. Só

para só para terminar. O que que precisa nesse nesse ano dos agentes? Você

precisa de pensamento profundo, você precisa ter eh tool calling. O modelo

precisa ser treinado para chamar, desculpa, você tem que ter o cave cash, você tem que ter o prompt cash, que é não só guardar o cash daquela requisição, mas de todas as requisições

do seu contexto para você não ter que recalcular o histórico todo toda hora e e desperdiçar token.

E desperdiçar token. Aí você precisa ter eh que que era então promp é e o to calling. Exatamente. Você precisa ter

calling. Exatamente. Você precisa ter treinamento no tool calling para que que no pensamento profundo chame tool calling. Então são não é duas coisas

calling. Então são não é duas coisas separadas, ele tem que estar junto. O

deep si ele não tem prompt cashing, então nos meus testes ele foi mais lento porque ele ele tem que ficar recalculando tudo toda hora, mais perdulário também, né? Desperdiça a

coisa.

Ele tem deep thinking que não tem treinamento com o tool Colin, então o deep thinking dele é raso e inútil. O

tool Colin dele é super defasado, é o modelo 2024 de Tool Colin, sendo que já evoluiu para caramba em 2025, todo mundo já foi para poder direção. Então o que o

o GPT e o Antropic, Open e Antropic fizeram foi melhorar essas três coisas no modelo que já existia. Então, em vez de ficar fazendo mais parâmetro, eles

pararam a guerra dos parâmetros e começaram a melhorar o cashing, começaram a melhorar tool, treinamento de tool calling e começaram a melhorar a profundidade do pensamento e tornar isso

mais customizado, ter vários modelos para cada situação. E também uma outra coisa que o Deepsic tinha e todo mundo já tem agora que é o mixture of experts.

Então, se você tem um modelo de 200 bilhões de parâmetros, a grosso modo, vamos dizer que dá 200 GB. Só air 200 GB não cabe em 32 GB da Nvidia, mas ele não

precisa carregar os 200 GB de uma vez.

Aí a grossíssimo modo, faz de conta que você vai só fazer trabalho de tradução de texto de português para chinês. Você

não precisa carregar os parâmetros de inglês, de francês, de italiano. Então,

dos 200 bilhões, eu só preciso ter, sei lá, 15 ativos na memória para fazer o cálculo, entendeu? Então é uma é uma

cálculo, entendeu? Então é uma é uma decisão de uma estrutura de arquitetura desse modelo para que eu possa, não é?

bonitinho assim a inglês, chinês, eh, dentro do modelo de parâmetro, ele consegue particionar uma quantidade menor para manter ativa na memória.

Então, tudo isso é para você otimizar o compute, que é o a computação em cima desse modelo, e a memória que você tá usando para você melhorar a rapidez, a

latência e gastar menos recurso. O DPC,

ele parou em 2025, no começo. Todos os

outros avançaram já. A gente tá nesse ponto onde tem mixture of experts, você tem tool calling, você tem deep thinking integrado, prompt cashing. Bom, aí agora

tem a ideia que o Google lançou também e já tá se evoluindo, que é a compactação desse casing de contexto, que é o tal do cave cash, a gente faz quante.

Quantização é o método de compactação que você consegue compactar de, sei lá, 10 GB para 2 GB para você conseguir esticar ainda mais, espremer ainda mais

e caber. E aí você tem Polar Quant e o

e caber. E aí você tem Polar Quant e o Turbo Quant que usa esse Polar Quant para fazer isso. tradeoff de compactação é que você consegue colocar em menos memória, mas vai gastar cinco ou seis

vezes mais processamento depois para calcular tudo. Então nunca é mágica.

calcular tudo. Então nunca é mágica.

Nunca é mágica. Ah, toda vez tem vários projetos que saíram besteira por um chamado, acho que era Air LLM ou Air Max, alguma coisa assim, que a ideia é nossa, se a gente consegue pegar um modelo que não caberia no 132 GB e a

gente compacta para caber. Não é que compacta para caber, ele ele faz o equivalente a um swap, sabe? memória

swap da sua máquina, que você não tem RAM e ele faz um swap no seu disco. O

que que acontece se você faz um swap no seu disco quando você não tem RAM?

Cara, eu crio uma memória, uma memória RAM virtual ali e fica lento pr caramba.

Fica lento pr caramba. Exatamente. A, a,

o tradeof é esse. Quando você faz caber coisas numa memória que não cabe, você tá trocando para ficar alerto, porque ele vai ficar não tem mágica.

É, quando ele precisa na RAM, ele tem que tirar alguma coisa da RAM, pegar do seu HD e devolver pra RAM. Então ele

fica fazendo o tempo todo swap, suap.

Ele chama swap. Então ele fica trocando na memória o tempo todo. Isso é lenta.

Funciona mais lento para [ __ ] Ou seja, não compensa, não compensa fazer isso. Então o problema a gente juntou

isso. Então o problema a gente juntou agora, chegamos chegamos no limite do problema. O limite do problema é que

problema. O limite do problema é que guerra de parâmetro não vai legar levar a lugar nenhum. As a GI não vão aparecer nas LLM. A gente já sabe disso. É uma

nas LLM. A gente já sabe disso. É uma

coisa que eu já falei que a gente já sabia há 2 tr anos atrás. Todo

pesquisador sabe disso, só pessoal desiludido achava que ia sair Skynet dessa [ __ ] Não vai sair Skynet dessa [ __ ] Ah, o Jeffrey Hinto da LLM ou das IAIS de uma forma

da LLM. Da LLM. A gente não descobriu

da LLM. Da LLM. A gente não descobriu ainda a IA que vai chegar lá. Não

estamos nessa nessa categoria. Bom

aí os discípulos dele tudo vazaram. O

Elias Skiver que saiu da Open brigado com Sultiman.

Ganhou os bilhões e sumiu. Não tem nada para mostrar. É uma desgraça isso. O Ian

para mostrar. É uma desgraça isso. O Ian

Lecun, que é o melhor de todos, ele era o o líder de da meta, saiu da meta, foi fazer as coisas. O o IQ é o que mais fala que, cara, se você tá apostando, se você quer participar do futuro das IS,

para de mexer com LLM, porque ali já é um teto, já não vai avançar al disso.

Então, a gente já tá nesse ponto. Então,

as LLMs não vão ficar muito melhores do que elas já são hoje. Vai melhorar um pouquinho. Elas continuam sendo burras,

pouquinho. Elas continuam sendo burras, entre aspas, no sentido de que nenhuma LLM é feita para te dar resposta.

correta. Ele é feito para dar uma resposta, a probabilisticamente mais que você talvez gosteado no seu contexto. Inclusive, muita gente não

contexto. Inclusive, muita gente não sabe disso, mas se você tá no na interface web, acho talvez no aplicativo web também, tente fazer isso depois no chat GPT. Pergunta assim: "Ah, base

chat GPT. Pergunta assim: "Ah, base primeiro prompt num chat novo, baseado nos meus últimos chats, como que eu sou?" E ele vai te descrever. Eu já

sou?" E ele vai te descrever. Eu já

rolei, já fiz saiu um tempo atrás na hora de fazer de novo.

Tem gente que não sabe disso porque ele ele vai compactando a a memória dos últimos chats e tipo, ele faz um resumo dos seus chats e ele usa isso como personalidade. Então toda vez que você

personalidade. Então toda vez que você acha que tá num chat novo e pergunta: "Ah, será que esse negócio é certo?",

ele vai te responder o que você tende a aceitar como certo, não que o que é o certo.

Então, mas tem, mas eles são, mas eles são bastante eficientes nessas inferências que eles fazem e sobre quem você é, pela maneira como você se comunica com eles.

Ó, o Claud, por exemplo, descobriu que eu sou o Igor.

Sei, porque ele é na no seu chat vai ter informação para eles uma ideia com ele, pá, e ele entendeu em algum momento, de algum jeito que eu sou o Igor, tá ligado? Viagem, né? Sim, porque ele tá

ligado? Viagem, né? Sim, porque ele tá sempre buscando coisa lá dentro. Então o

o as LLMs eles não foram feitos para dar resposta correta. E até hoje se você

resposta correta. E até hoje se você pegar só um modelo bruto sem o harness e você fizer pergunta para ele, ele vai te devolver muitas vezes a resposta, entre aspas errada. No caso de programação,

aspas errada. No caso de programação, ele vai devolver um código que não roda, vai devolver uma coisa que não roda. O

que o harness faz? Ele pega esse código quebrado, roda na sua máquina, vê que dá uma mensagem de erro e devolve a mensagem de erro, que era o que antes a gente fazia manualmente. E aí com a mensagem de erro como contexto, agora

ele fala: "Ah, eu tenho o meu código quebrado, ele dá este erro, portanto eu consigo fazer este outro código que conserta este erro". Então ele fica fazendo várias rotações enquanto você

não tá, você não tá nem fazendo nada, tá só acompanhando. Ele tá lá, tá, tá, tá,

só acompanhando. Ele tá lá, tá, tá, tá, tá, tá, tá fazendo, por isso tá gastando com token para caramba, entendeu? Então,

a a LLM ela não ficou mais inteligente.

A gente fez um bom harness que pega a burrice dele e nas uma vez em cinco que ele dá certo, eu consigo fazer ele repetir mais vezes, dar mais informação

do meu ambiente. E essa que é a parte, essa que é a parte importante. Quanto

mais informação do ambiente que tá rodando ele tem, melhor vai ser inferência, obviamente, porque ele já sabe, este código dá este erro, portanto vamos tentar o próximo código. Então ele

não vai ficar repetindo o mesmo código 500 vezes.

Eu descobri tudo isso que assim hoje eu tô hoje você tá pondo nome numa porrada de coisa que eu fui sacando. Isso por

isso que eu falei que é o novo vocabulário.

É exato. Que assim e eu fui sacando, por exemplo, e quando eu tava brincando lá na minha primeira tentativa com o aplicativo do chat EPT web e tal, eu percebi, por exemplo, que ele não

passava, quando dava 25 minutos, ele me entregava um zip, [ __ ] Entendeu? Aí

aquele zip ali, ele vinha vinha todo quebrado. Eu fui sacando que era que era

quebrado. Eu fui sacando que era que era o tempo. Quando dava um determinado

o tempo. Quando dava um determinado tempo, ele acabava fechava a sessão e ele me só que ele nunca falou isso. Eu

fui sacando. Eu [ __ ] porque quando dá esse tempo aqui, tu me entrega um zip quebrado toda vez. Aí ele não dá uma desenrolar um causão lá, não sei o que.

Depois ele fala: "Não, tenho limite de sessão que não sei o quê". Ah, tem uma coisa pior para te [ __ ] ainda mais.

Então, até complementando o negócio que eu falei dos planos, tá? Tropic que não permite que você usa fora dos planos outra ferramenta, certo? Você tem que pagar por token. O problema disso que você paga mais caro. Quanto mais caro?

Aí eu fiz os testes para contar no benchmark deu, eu peguei o price, o total de tokens, etc. H, o preço por token separado é o dobro dos tokens da

mensalidade. Então, para cada dólar que

mensalidade. Então, para cada dólar que você paga de token na mensalidade, tá pagando dois se for token avulso. O da

OPAI é pior. Eles mudaram o price em semana passada, mas antes dessa mudança, o plano deles de 100 ou 200, se você fosse pegar aquele equivalente de token

e e fazer e avulso, ia dar $900 de token avulso. É tipo seis, sete vezes mais do

avulso. É tipo seis, sete vezes mais do que é o token na mensalidade, entendeu?

Então no caso da OP valia muito mais ficar na mensalidade. O token é muito mais caro. E para piorar tudo isso,

mais caro. E para piorar tudo isso, que que a gente a gente tá acontecendo?

A gente não tem energia e a gente não tem máquina mais. Pessoal ficou

encomendando máquina como se não houvesse amanhã.

Não tem como ter memória. Como eu vou montar a máquina? Para de comprar memória aí, [ __ ] Não. E aí tem scalpers. A gente viu os

Não. E aí tem scalpers. A gente viu os chineses fazendo estoque de ran para especular o preço. Os filh das [ __ ] estão segurando. Tipo, tinha mostrou um

estão segurando. Tipo, tinha mostrou um vídeo, tinha um armazém de memória que o cara mal de, como é que chama? Scalper

em português? é o

é o cara que fica fazendo, fica cambista, tipo o cambista que fica comprando ingresso te vendendo 10 vezes mais caro depois, sabe? E ele fica

artificialmente transformando em algo raro para te vender mais caro depois.

Então eles estavam fazendo isso também.

Ah, bem feito. Se foderam porque agora tá aí o S Altman ficou sem dinheiro, aí não precisa mais das ram, as as rãs começaram a cair de preço agora. Então

tá caindo de preço agora.

Então, e que é uma merda, porque todos os os mercados estão baseados no que esses desgraçados sultim do Daria Modam.

Ah, é porque antes era um Lom, agora tem mais uns caras jogando também.

É que nesse caso a desgraça é que I de fato, independente dessas pessoas, ele é um mercado que não vai mais desaparecer.

Então, por exemplo, eu falei na no último podcast que a gente tá numa bolha. Isso é uma bolha, ela vai

bolha. Isso é uma bolha, ela vai estourar. Aí todo mundo fica: "Ah, então

estourar. Aí todo mundo fica: "Ah, então se a bolha estourar acabou?" Não, não.

Eu não sei porque que eu eu não sei se eu não expliquei direito isso. Eu eu

falei da última vez que a minha ideia de fazer o canal foi porque eu passei por múltiplas bolhas e eu queria criar um programador, um profissional que sobreviva a essas bolhas. Por exemplo,

eu passei pela bolha da internet. A

bolha da internet explodiu, capotou em 2001, mas a internet não sumiu, entendeu? Eh, vai acontecer a mesma

entendeu? Eh, vai acontecer a mesma coisa. A bolha das vai explodir. Muitas

coisa. A bolha das vai explodir. Muitas

empresas que tão aí valorizando, valorizando, vão ser sumir.

Mas a IA vai continuar. Não é mais não é mais uma questão.

Já saiu da garrafa esse gênio.

Já saiu da garrafa esse gênio. A caixa

de Pandora já foi aberta. A gente não vai mais voltar atrás nisso. Então a Ia existe, as LLMs existe, vai se tornar o nosso dia a dia, é que nem a internet, não é diferente disso. Então eu continuo

acreditando que é uma bolha. Toda vez

que o Sátima fica especulando e quebrando, toda vez fica parecendo que vai ser a próxima. Por enquanto o que deu certo agora é o seguinte. Finalmente

em 2025 eles pararam com essa guerra de parâmetro idiota e começaram a tentar fazer esse negócio funcionar, que é foi aí que eles foderam com a China e a China ficou para trás.

Não foi eles que deixaram atrás, foi a foi a falta de hardware.

Beleza, mas é que a China ela ela assim, quando falou-se do deep si para começar eh eu lembro que que eu troquei umas ideias com os caras aqui para falar assim: "Caralho, a China e os Estados

Unidos, quem demole o outro".

Não, nunca foi assim.

Nunca foi assim pelo nunca foi assim. Nunca foi assim. Nunca

esteve nesse nível. Por isso que eu não quis falar nada de psica ano passado, porque tava todo esse hype idiota.

Porque de eles fizeram foi uma otimização na forma de treinamento. Isso foi

bacana. Então o negócio custava 1 bilhão, passou a custar poucos milhões.

Isso é excepcional.

Todo mundo já faz isso hoje. É uma

técnica de engenharia, não é nada. Ah,

se eles não tivessem feito isso em janeiro, alguém teria, um dos dois teria feito isso em fevereiro. Não era nada fora do comum. Nada, nada, nada. Todo

mundo já faz o que eles fazem. Não só já faz o que eles fazem, como já passou.

Já passou. Já passou, tá longe, já, já não tem mais absolutamente nada de especial nessa.

Nada, nada, nada, nada, nada, nada, nada. Não tem, não existe isso. Eh, e eu

nada. Não tem, não existe isso. Eh, e eu testei todos para ver, eu testei o DPC.

de psíico, o que dá mais trabalho de funcionar é o mais lento. Então, se eu quiser muito rodar o local ou no cloud, os harness não funcionam bem nele, porque o tool collin é uma droga, o deep

fing dele é uma droga e ele é o mais lento porque não tem prompt casing.

Então, tokens por segundo, por exemplo, aquela velocidade de de gerar token, sei lá, openi e antropic tá lá em sei lá, 500 tokens por segundo, 400 tokens por

segundo. O DPC que é 40 tokens por

segundo. O DPC que é 40 tokens por segundo. É ridículo. ridículo. Não dá

segundo. É ridículo. ridículo. Não dá

para usar. Não dá para usar. Qualquer

coisa abaixo de 100 tokens por segundo não é usável. Então se você po você consegue rodar modelo na sua máquina, mas vai ser 5 tokens por segundo, 10 tokens por segundo, qualquer coisa

abaixo de 100 tokens por segundo. Não

importa se a resposta é boa, é é inusável, não dá para usar. Por que que não dá para usar? Porque agora precisa otimizar tudo isso. Precisa fazer um cash melhor, prompt cash melhor, deep

fic mais otimizado, mixture of experts para ter menos parâmetros para calcular.

Ela tem toda uma série de otimizações que tem que ser feitas, tem que fazer reinforcement learning para ter to call indecente. Então, na dos modelos

indecente. Então, na dos modelos chineses, só tem duas que estão indo bem, a Coen que é do Alibaba, mas ele estagnou também, tá? E ele deu uma

estagnada, saiu agora o Coin 3.5 que tá mais ou menos OK, mas ele passou 2025 sem dar notícia nenhuma. Saiu em março, 3, eu testei.

Uhum.

É, era pros open source era razoável. No

começo de 2025, eu tava fazendo um teste no meu GitHub de um problema de programação que ninguém conseguia resolver, nem o cloud resolvia, GPT não resolvia. Não é nada muito difícil, tá?

resolvia. Não é nada muito difícil, tá?

É só porque eu de sacanagem escolhi uma linguagem que é tão nova que não tem nada de documentação quase, portanto não está nos treinamentos de ninguém.

E por que que tu quer sofrer? Não, não é que eu quero, eu quero, eu quero fazer bullying.

Eu as bullying com robô com exatamente.

Eu falo para todo mundo, você dá bom dia pra sua iu?

Eu não, mas eu tô ligado de cara que dá.

E não adianta você dar bom dia para Iá.

Só o que eu já fiz de bullying com ela é garantir que esse canete vai eliminar o mundo. É garantia. É garantia.

mundo. É garantia. É garantia.

Não se preocupa.

Bom, tá bom.

Já eu já, eu já. Então eu eu torturo o Ll por hobby, por hobby. Então os meus benchmark estão ali, eu rodo eles non stop, eu derrubo eles, cracheio eles,

eles não têm eh não tem como. Então, ah,

depois pode rodar naquela em começo de 2025 tava uma bosta. Ninguém conseguia

resolver um problema simples de programação, simples. Então, eles

programação, simples. Então, eles conseguiam resolver os benchmarks porque eles eram treinados para isso. É que nem eu te dar você passar no Enem, mas eu te treinei com 500 provas do Enem. você

sabe tudo de cabeça. Ou eu te dei, deixei você consultar no Google, sabe?

Tenta fazer um Enem consultando no Google. Aí eu vou falar: "Cara, você tem

Google. Aí eu vou falar: "Cara, você tem que ter, se você não tirou 100, porque você é, [ __ ] você tem obrigação de tirar 100, mas você ainda erra. Você

ainda erra, né? Chegando 99, 98, [ __ ] não prestei atenção, né? Imagina se você errar mais que isso, [ __ ] aí tu não tem salvação. É, ele basicamente tá

tem salvação. É, ele basicamente tá fazendo o Enem com uma cola.

Uhum. Agora, quando você dá um problema de verdade, de programação, uma linguagem nova, um processo mais avançado, aí ele não sabe o que fazer porque não tá treinado para isso. Aí o

Deep Finking entra nessa jogada e começa a tentar pelo menos fazer várias alternativas, mas ainda não tinha um bom harness, ainda não tinha um bom deep thinking junto com o tool Colin. Então

em no começo de 2025 nenhum dos testes que eu fiz agora passava. demorou 2025,

então foi saindo Cloud Code e o Codex foram saindo só lá por maio, julho, alguma coisa do tipo. Então, ou seja, é de julho para cá do ano passado, entendeu? Só novembro que começou

entendeu? Só novembro que começou realmente a ficar bom. Então, ah, os agentes foram evoluindo nessa direção.

Esses modelos pararam de fazer a guerra dos parâmetros, melhoraram esse treinamento, foi saindo 5.0, 5.1, 5.2, então a gente tá agora no 5.4. Então a

Open foi iterando em cima do mesmo modelo cinco. Ele não foi refazendo

modelo cinco. Ele não foi refazendo modelo seis, ele foi fazendo ajustes e alinhamentos em cima desse modelo.

Um modelo seis seria a próxima o próximo bush de parâmetro.

Eu não sei nem se precisa do modelo se eu acho que não vai dar para fazer porque não tem energia. Eu preciso fazer mais 20 usinas nucleares

de gigaw hora para conseguir chegar no que precisa de data center para treinar o modelo seis, sei lá, pular de 1 trilhão para 2 trilhão de parâmetros, né? E não vai

né? E não vai para ganhar um pentelinho, para ganhar um pentelinho. Então é

melhor você gastar esse tempo ajustando o modelo que já existe. É por isso que a gente tá 5 até 5.4. A gente saiu doet,

entrou no no 4 4.1, 4.5 4.6, a gente tá no 4.6, não estamos no C, entendeu?

Então, e tá certo fazer isso, porque antigamente a maior parte dos data centers que tinha era usar 70% do compute de um data center era para fazer

treinamento do novo Frontier Model.

Então, 30% era inferência, que é o nosso uso no chat. Essa matemática já inverteu. Hoje o treinamento é só 30% do

inverteu. Hoje o treinamento é só 30% do comput, 70% é a inferência e tá faltando data center. Então 2026 a Apple, Google,

data center. Então 2026 a Apple, Google, Microsoft, Antropic, OPI, todos eles estão investindo num total 600 bilhões

de dólares em data center. E eles

entenderam porque a eles as big as big s de tecnologia, a Oracle e todo mundo, caiu a ficha dois tr anos atrás que software só por si só vai perder valor.

Software perdeu valor. Então isso já é também irreversível. Software em o

também irreversível. Software em o código em si perdeu valor. Isso a gente vai vou chegar nesse ponto quando falar de empregos e tudo mais, mas os o código em si hoje comoditizou. Fodeu. Porque

lembra uns anos atrás falando os cara falando que essa era a profissão do futuro.

Viu? Lembra que eu te falei? Eu falei

isso da última vez tão rápido e aí eu vou vou vou explicar toda essa parte depois. Mas ah, então o que que

depois. Mas ah, então o que que acontece? O software ficou e vai

acontece? O software ficou e vai diminuir de valor e essas empresas cujo principal capital era o software, era o iOS, era o Android, o Windows, né? Todos

os a o Office, todos esses softwares, eles ganham um grande concorrente agora, porque qualquer um, entre aspas, bem entre aspas, consegue agora já mais

rápido fazer um software concorrente.

Não é trivial ainda, mas a barreira de entrada, você não precisa mais ter 50 PhDs de Stanford para fazer, entendeu?

Especialmente se for uma solução interna e feita sob medida para as tuas coisas.

Eu tô experimentando com todas essas coisinhas aí, entendeu?

Eu vou discutir isso com você, os prós e os contras disso, mas de fato do ponto de vista se [ __ ] com LGPD, mané, né?

Para começ e primeira coisa, o tanto de vazamento de dado que vai ter agora, é, não tá escrito, mas isso é bom. Eh, esse é o esse é o darwinismo

bom. Eh, esse é o esse é o darwinismo econômico que vai deixar os os piores, todo mundo vai fracassar mais rápido, mas os bons também vão subir mais rápido. Isso é ótimo, porque volta volta

rápido. Isso é ótimo, porque volta volta a ter a equação de volta, o balanceamento de volta. Então, todas as grandes empresas de software, eles estão sendo inteligentes porque na última

bolha de startups que eles foram valorizando, tipo, do nada todo mundo vale 1 trilhão, 2 trilhão, 3 trilhão, certo? E eles têm um caixa enorme em

certo? E eles têm um caixa enorme em dinheiro, cash cash flow [ __ ] Então todo esse cash flow tá sendo investido em capex, que é em imóvel, que é em

energia, que é em utilities, que é em hardware. Então eles estão comprando

hardware. Então eles estão comprando data center porque esse é que vai, é isso que vai manter o valor deles no futuro, é a quantidade de data center.

Quem saiu na frente foi a WS, Microsoft Azuri, mas a Oracle agora foi colocando em cima, tá todo mundo em cima porque a software só produto software agora vai

ter que se reinventar porque caiu o valor de tudo. Então start tupero hoje não adianta, ah, tenho uma nova ideia, vou fazer, todo mundo vai fazer porque dava dois dias para fazer. Então eu vou,

eu quero mostrar depois os PR que eu fiz para dar noção disso. Mas então todas essas empresas estão colocando capex data center e esses data centers 70% é para inferência, porque finalmente eles

ficaram úteis. Então que nem eu tô

ficaram úteis. Então que nem eu tô gastando token houvesse amanhã. Ano

passado eu não gastei quase nada de token, ficava fazendo teste, pequena brincadeira, não dava fazer nada muito sério. Também, eu também. Agora eu tô

sério. Também, eu também. Agora eu tô usando todos os dias 16 horas por dia, não é 16 horas por dia de código ruim, é 16 horas por dia de Git Push no GitHub.

Tá no GitHub os códigos para todo mundo ver, tem todos os commits lá. Então é

produção de verdade, não é mais uma brincadeira. Agora deu essa virada.

brincadeira. Agora deu essa virada.

Então os data centers não tem mais energia para fazer treinamento da próxima versão 2 trilhões.

Eles estão Agora a corrida é em melhorar os modelos que eles já tm. Quem não

tinha o modelo de 1 trilhão vai se ferrar porque agora vai ter que gastar esses bilhões que não tem. Mesmo se ele tiver o dinheiro, não tem o data center para gastar porque tá todo mundo gastando em inferência. Aí acontece o que eu falei que vai te complicar sua

vida, porque você vai olhando no Cloud Code, todo mundo fica: "Nossa, hoje o Cloud Code tá mais burro, hoje ele tá mais rápido, hoje ele caiu". Porque tá

acontecendo a mesma coisa que aconteceu no começo da internet, que não tinha servidor suficiente, os sites caiam toda hora. Lembra que o Twitter baleiava?

hora. Lembra que o Twitter baleiava?

Isso era 2007.

Facebook caía, todo mundo caía, né? Teve

uma época que todo mundo caía. Era

normal todo mundo cair. Tinha vezes que, nossa, o site caiu, tá fora do ar, aon caiu, tá fora do ar. Isso foi mudando a partir de 2006, quando surgiu AWS. Aí as

empresas, a WS centralizou os investimentos em data center, consolidou essa área de infraestrutura.

Então, hoje em dia é mais difícil cair, é quando tem alguma catástrofe, aí a Amazon, a WS, data center do Nordeste, Estados Unidos cai, aí cai metade do

site junto, né? É, é, uns eventos desse tipo, mas eles são muito mais isolados com grande impacto. Antes eles eram bem distribuídos, com pequeno impacto, mas era frequente. Então, o normal da

era frequente. Então, o normal da internet dos anos 90, começos dos anos 2000, era site cair toda hora. A gente

tava acostumado com isso. Ou ficar lento para caramba.

Ficava lento para caramba. E aí você ainda ficava no modem de 55 KB, [ __ ] fodia mais ainda.

Isso aí com sorte, viu? Que eu tava cansado mesmo, era de conectar seus 30 e pouco, 20 e pouco, né? Exato. E quem é do interior ainda demorou mais ainda para ter banda larga. Eu vejo gente que

no começo dos anos 2000 tava na descada ainda. Quando eu peguei banda larga, a

ainda. Quando eu peguei banda larga, a maioria das pessoas tava no descado.

Então ficou uma década assim. E aí a gente tá mais ou menos nessa época da IA. Então, a gente tá na época da IA dos

IA. Então, a gente tá na época da IA dos 55 kbits/ segundo, que é do a gente tá na limitação de token. A gente tá aqui nem quando surgiu 2G no mobile e eu

tinha plano de 1 MB, sabe? Dava para

baixar algumas mensagens. Tinha ainda

hoje tem limitação, mas tipo, limitação hoje é 1 gig pelo menos, sabe? Mais

gigas. Mas a gente tá na época em que as limitações eram realmente limitações e a gente tinha que ficar fazendo várias formas de ultrapassar a limitação. Mas

mas aqui cara, em que do ponto de vista de eh experiência do usuário eh [ __ ] tá bom para [ __ ] Tá bom para [ __ ] que para onde que melhora?

Sim. Mas aí o que todo mundo fica reclamando, ah hoje olha como antrópic é malvada, eles estão nerfando o nosso modelo. Até pode táar fazendo, mas é é

modelo. Até pode táar fazendo, mas é é uma é um nível de mesquinharia que não tem, eles estão querendo fazer um IPO, não é o momento disso. Eles estão com, eles estão com faturamento de dezenas de bilhões de dólares, sei lá, 20 bilhões

de dólares, 22 bilhões, alguma coisa do tipo. É, o problema é que tem agora que

tipo. É, o problema é que tem agora que ele tá útil e eu tô que nem agora eu tô falando pr todo mundo, vai todo mundo querer fazer conta lá, eles não tm máquina pr aguentar todo mundo. Aí você

vai, você chega na, na WS, WS, eu tenho 1 bilhão no bolso aqui, cara. Me dá suas máquinas, filho. Eu tô, eu tô preso no,

máquinas, filho. Eu tô, eu tô preso no, na prefeitura da cidade que não consegue me liberar o alvará para construir porque não tem energia.

Uhum. Eu tô esperando a usina elétrica disponibilizar os cabos de alta tensão para eu conseguir conectar a [ __ ] da tomada.

Então nem pegando o teu dinheiro eu consigo resolver.

Eu consigo resolver problem. Então a

gente não está com falta de dinheiro. O

que acontece hoje? A gente não tem falta de dinheiro. Tem dinheiro sobrando,

de dinheiro. Tem dinheiro sobrando, todos eles querem gastar, só que não tem máquina para colocar e não tem infraestrutura para colocar. Não tem

usina de nuclear o suficiente. Precisa

colocar usina nuclear. Precisa colocar

muitas usinas nuclear. Não é uma ou duas. É é 20, 30, 40. Eh, precisa

duas. É é 20, 30, 40. Eh, precisa

colocar uns 50 usinas nucleares para atender a demanda de agora. E não é a demanda de amanhã tá dobrou a entrar

naquela época que ah gastou 400 TW h em 2024, 1 TW hora em 2025, pode ser que

seja 1 TW em 2026, 2 TW em 2027 e a gente já está na no tipo, não é nem que não tem energia, tá? Até tem energia, óbvio que tem, mas não tem, não tá

conseguindo construir infraestrutura para distribuir essa energia nesses locais que é afastado da cidade, porque gasta água para um [ __ ] também para

para resfriar todo esse data cent, né? E bora pera aí. Esse lance da água

né? E bora pera aí. Esse lance da água aí sempre foi uma questão para mim. Eh,

[ __ ] a água passou, resfriou, fodeu.

Não dá para usar de novo. Não

dá, dá. É que você não quer reusar a mesma água quente, tem que ser água corrente. Então, tipo, num rio, por

corrente. Então, tipo, num rio, por exemplo, você pega a água e devolve água. O problema é que você [ __ ] o

água. O problema é que você [ __ ] o ecossistema. Você tá devolvendo água

ecossistema. Você tá devolvendo água quente para lá e você vai matar todos os peixes que estão lá, entendeu? Você meio

que [ __ ] o ecossistema ao redor. É, não

é tão fácil de resolver esse problema. E

e resfriar a água custa energia também, que é justamente aquilo que você não tem.

Entendido? Claro.

Então, tipo, eu não eu não tenho nem a água, nem energia para resferir a água e eu não tenho energia em geral para rodar as máquinas. Então eu estou neste ponto

as máquinas. Então eu estou neste ponto aí agora. A demanda tá subindo, tá todo

aí agora. A demanda tá subindo, tá todo mundo, agora eu tô usando como novã, tá todo mundo usando como novã, ou seja, todo ano agora vai entrar naquela onda

de dobrar a quantidade de gente usando.

Vai faltar macra por mais anos, 3 anos.

Usina nuclear se começar a construir agora para 2030. Então, tipo,

tem a gente tem um gap agora de 2026 a 2030 que eu não queria ser o cara que tem que resolver esse problema. Essa bucha não é minha, tá ligado?

Graças a Deus, eu só vou usar.

Tu acha que tu acha que vamos lá, a China não consegue bater de frente com a tecnologia de processadores ou de chips.

Eh, mas eles têm eles poderiam est bom, existem umas notícias aí que eu não sei em que medida que elas são, verdade, mas que a China estaria indo cada vez mais

pro caminho de de mais energia, sabe? É

chegar numa energia em novas fontes ou fontes mais eh eficientes de energia.

Isso tem o potencial, isso tem o mesmo potencial de mudar a balança desse jogo da inteligência artificial. Aí entra as teorias da conspiração. Então aí aí aqui

é chapeuzinho de alumínio, tal, mas é é os efeitos das últimas guerras que tá tendo. Então quando você tem guerra no Irã, você tem o estreito de Ormusa, aí todo mundo fica sem

petróleo, a maioria da energia vem de usina termelétrica, você fica sem petróleo para para essas usinas, exemplo, né? Aí você derruba Venezuela,

exemplo, né? Aí você derruba Venezuela, Venezuela dava dava petróleo de graça, quase de graça pra China e aí ele perde também lá. Então a China vem perdendo

também lá. Então a China vem perdendo fontes importantes que eram baratas.

Então ele ele ah ele basicamente destruía o lugar, pegava todo o petróide grátis para ele e usava. Agora não tem mais. Não tem mais na Venezuela, não tem

mais. Não tem mais na Venezuela, não tem mais no Irã. Então, vários dos lugares aonde era fácil eh para pegar para pegar petróleo, eles estão se [ __ ] Quem tá se [ __ ] também é a Europa, porque a

Europa fez aquelas merdas de, ah, vamos botar catavento aqui, vai ser maior legal botar catavento aqui. E a [ __ ] dos cataventos, tá? Coloca um data center embaixo, o catavento

vai, vai embora. Você precisa de usina nuclear. E eles tinham, eles tinham, a

nuclear. E eles tinham, eles tinham, a França pelo menos tá tá sorrindo de orelha a orelha porque eles não fecharam as deles, mas a [ __ ] da Alemanha fechou. E aí eles são obrigados a quê?

fechou. E aí eles são obrigados a quê?

Lá eles têm outro problema que eles precisam aquecer as casas no inverno, aí precisa gastar mais petróleo e aí você não tem petróleo. Que que você vai fazer? Usar gás da Rússia. Mas [ __ ] a

fazer? Usar gás da Rússia. Mas [ __ ] a Rússia tá atacando a Ucrânia agora. Eu

sou a favor da Ucrânia ou contra a Ucrânia? Mas eu preciso do gás da

Ucrânia? Mas eu preciso do gás da Rússia. Então na na geopolítica desse

Rússia. Então na na geopolítica desse negócio, é pau no cu da Ucrânia, né?

É. É aí, ah, não, não, não, não. No

inverno a gente não, não tem esse problema, sabe? E, e só que agora eles,

problema, sabe? E, e só que agora eles, tá, o mundo inteiro vai começar a adotar e para tudo e o mercado adotando. Agora,

a gente chama um uma nova categoria de, não é mais uma pessoa, um freelancer fazendo um memezinho de de imagenzinha pro Twitter, não. Agora é trabalho mesmo, é produção de verdade. Então, e

produção de texto é uma coisa, produção de vídeo é outra coisa ainda mais.

Então, a China tem avançado muito nos modelos de imagem. Eu não sei por ACENT, por exemplo, faz jogos e tudo mais, eles têm um interesse grande

nisso. Alibaba tem e-commerce, é bom

nisso. Alibaba tem e-commerce, é bom para eles ter computer vision também.

Então, ah, os modelos melhores de imagem t sido os de lá, os de vídeo também.

Teve o Cidence, o Sid Dence agora que deu maior bafafá e aí eles eles estão para lançar o Cid Dence Stúio, só que eles não conseguem lançar porque a Disney, acho que a Paramount, todo mundo

tá processando eles para, então eles estão tentando ajustar o modelo para que não consiga sair Mickey Mouse daquele modelo mais, entendeu? Eles e na nenhum personagem eh sou esses cara, eu lanço só dentro da

China mesmo. Que se [ __ ] aqui, né?

China mesmo. Que se [ __ ] aqui, né?

É, lança só dentro da China. E mas aí aí esses modelos, eh, inclusive, deixa eu deixa eu abre, abre aquele post que eu te falei de 3D. Esse aí

é, desce um pouquinho. Deixa eu te mostrar um case. Esse daqui é uma minha namorada, ela é influencer também, né?

Ela tem um canal também que é Mila Oliveira e aí ela faz coisas de anime, geek. Aí isso aqui é um propário que a

geek. Aí isso aqui é um propário que a gente queria, que é um arcade. Ela pediu

para um freelancer fazer. O cara fez um [ __ ] desenho da hora.

Entendi. Arcade agora eu vi. [ __ ] animal.

Não, animal. Desce um pouquinho agora.

Aí eu eu peço pro Nano Banana, esse é Nano Banana, que é o do Google. Aí tira

para mim o background. Agora desce um pouquinho.

Agora o Nano Banana, eu pego aquela imagem e falo: "Pega aquela imagem e faço em T pose. Pose em T, frontal, lateral e de costas." Desce um pouquinho.

Então de costa, lateral. pego essas

imagens aí, eu vou na Runan, que é da Tencent ou no Hiten, que é outro concorrente e ele tem esses estúdios que é ainda não é 100% aberto, você tem que entrar numa lista de procura, mas aí você sobe, tá vendo ali os modelos, ele

fala assim, ó, sobe, eu vou fazer uma personagem, então sobe ali os modelos de frente, de trás, etc. Desce e aí ele me devolve este modelo em 3D. A

textura do Run não é boa, mas tem outras empresas, outras plataformas que fazem textura melhor. Então tem mas isso, isso

textura melhor. Então tem mas isso, isso já é um modelo. Você veja a resolução deste modelo. Aí você desce, eu abro no

deste modelo. Aí você desce, eu abro no Blender, já tá limpinho, tá praticamente limpo. Então eu não tenho que fazer

limpo. Então eu não tenho que fazer quase nada, desce um pouquinho e eu posso imprimir agora já na impressora 3D. Isso é impresso na

impressora 3D. Isso é impresso na impressora 3D.

Maneiríssimo isso. Isso. Pensa que da hora,

isso. Isso. Pensa que da hora, cara. Você viajou numa parada. Eu

cara. Você viajou numa parada. Eu

consigo, eu consigo fazer um Fábio Akita estilizado.

É que eu, eu tive a ideia muito tarde.

Eu ia fazer um Igor em 3D, mas é que não ia dar tempo de imprimir. Mas tu pode pegar uma imagem, uma faça faça uma caricatura agora. Faça essa caricatura

caricatura agora. Faça essa caricatura numa pose. Aí tu joga nesse modelo run

numa pose. Aí tu joga nesse modelo run no R, faz o modelo em 3D. Mas ele tá em Tose né?

Hun.

É. Agora desce um pouquinho aí. Adobe tem o Mixamo, que é uma

aí. Adobe tem o Mixamo, que é uma plataforma online deles, que eu posso subir o modelo 3D e aí eu coloco juntas, pescoço, cotovelo, pulso, joelho e eu posso agora mudar

pra pose que eu quiser. E ele tem uma biblioteca de poses, então você já pode usar umas poses pré-existentes, pose sentado, pose atirando, correndo. Então

eu posso agora ajustando finamente e a partir isso já é imprimível e eu posso usar isso como base para fazer quaisquer outras modificações em vez de fazer do

zero. Então ah, o Ced dense, por

zero. Então ah, o Ced dense, por exemplo, que faz vídeo, ele não faz qualquer vídeo. Eu posso fazer um modelo

qualquer vídeo. Eu posso fazer um modelo desse. Agora eu pego uma animação que já

desse. Agora eu pego uma animação que já existe, porque eu já tenho as juntas e eu posso fazer o riging que fala. Eu só

coloco o meu modelo numa animação que já existe, que já tem pré-colocado. Ou eu faço, por exemplo,

pré-colocado. Ou eu faço, por exemplo, eh, motion capture, que é basicamente fazer o os pontos e ligar os pontos com o modelo que eu fiz em 3D. E eu jogo só

o esse esse 3D simples, sem textura, sem nada, animado para o CID Dance e ele faz o vídeo baseado exatamente naquela animação que eu fiz. Ah,

então eu posso fazer agora uma cena que demoraria um mês para processar no meu computador, minha GPU, ele vai fazer alguns minutos na Cid D, sendo que eu preciso para eu não preciso fazer todo

modelo em 3D, eu já posso usar desse jeito. Então isso é uma coisa que já

jeito. Então isso é uma coisa que já funciona hoje.

Mas para como é que faz para utilizar esse modelo aí que faz vídeo?

O modelo que faz vídeo, ele não tá aberto ainda, então pouco, alguns youtubers, influencers que fazem review, então tem o canal do Stefan. eh, Stefan

3D Labs, alguma coisa assim, que ele faz todos os eh reviews de produtos open eh abertos, chinês, etc., de vídeo, imagem

e 3D e tudo mais. Então, e eles já têm acesso ao Cidence Studio versão preview.

O Runan, ele tem uma lista de espera, você pode entrar, ele vai liberando.

Então, tá aos poucos ainda. Aí você,

eles já estão demonstrando que dá para fazer. E esse da Runion fui eu que fiz

fazer. E esse da Runion fui eu que fiz mesmo. Eu já tive acesso, eu consegui

mesmo. Eu já tive acesso, eu consegui colocar lá. OT é um modelo que só faz 3D

colocar lá. OT é um modelo que só faz 3D numa animação. Eh, você paga tokens

numa animação. Eh, você paga tokens também, tem várias plataformas você paga token. Então você pode pagar token e tem

token. Então você pode pagar token e tem é um estúdio, você pode fazer várias coisas já dentro de uma ferramenta mais simplificada de 3D que você não tem que modelar sozinho do zero.

Esse o o sistema de bom, para gerar uma imagem, a gente tá falando de uma gerar um vídeo, uma imagem é uma é um tipo de inteligência artificial diferente diferente. São modelos de

diferente diferente. São modelos de difusão, não é modelo de inferência de texto generativo. Eu posso integrar as

texto generativo. Eu posso integrar as duas coisas para que eh eu a partir de um prompt, uma LLM, consigue isso,

chamar o outro modelo. Então hoje tem muitas misturas de modelo, tá? Então tem

uma diferença também que hoje os modelos principais da Open AI, Antropic e todo mundo eles são multimodais, que a gente chama. Ele sozinho já tem computer

chama. Ele sozinho já tem computer vision, áudio e vídeo também. Ele

consegue produzir e entender. Então eu

por isso que eu conso, o próprio chat GPT consegue entender essa foto.

Aham.

Agora, ah, para fazer coisa mais avançada, aí usa um modelo próprio, noo banana é um exemplo. Então, ah, ou os modelos da chinês, eu posso usar o flux,

ah, stable fusion. No lado do open source de imagens e vídeos, ele tá bem mais avançado do que LMS. É,

é. Ah, tem não, não, não, não é que é

é. Ah, tem não, não, não, não é que é mais fácil fazer vídeo, mas é, é que visualmente não parece tão ruim porque o código se tiver pouquinha coisa errado,

ele vai falhar num desenho, se tiver um pouquinha coisa errado, passa batido. Num vídeo em movimento também, se você ficar pausando e ver frame a frame, que tem um monte de gente que faz isso também, eles ficam

pegando, nossa, esse vídeo do Cid ficou [ __ ] aí o cara fica pegando o frame.

Olha esse frame aqui. Esse frame aqui tá errado. Olha esse outro frame aqui. Esse

errado. Olha esse outro frame aqui. Esse

frame aqui o cara tá com cotovelo torto.

É, mas em movimento você não vê. Então

assim, pr coisa meme da internet, um comercial de 30 segundos. Hum. Meio que

[ __ ] ninguém tá prestando atenção.

Para um filme em 4K de 2 horas, aí já é outro tipo de problema. Então é que nem a gente tava falando no código do lit code, que é um código pequenininho e pá pá, ele faz bonitinho para fazer um

projetão gigante já não fazia. O que que é um projetão gigante? Dá um exemplo de um de um de uma aplicação gigante.

Mercado Livre, a própria Amazon, iFood.

Então esse essa categoria de são múltiplos sistemas que falam entre si, não só o site de fora, mas os sistemas

internos de logística, o sistema interno de de entrega, de tem toda uma cadeia de suprimentos que são vários sistemas integrados. na nesse tipo de

integrados. na nesse tipo de ecossistema, a gente tá falando na ordem de sei lá, de milhões de linhas de código, sei lá, mais de 10 milhões de linhas de código. Quando a gente faz um

projetinho pequeno, estado das LM, elas não tem nem contexto para isso, né?

Não tem. Cuidado com isso também, não precisa ter tudo no contexto, tá? É,

não tá, mas eh 10 milhões de linha de código, eh, a gente não tá falando do meu projetinho aqui de ROM, pô, assim, assim, o que eu quero dizer é que é assim, que uma ROM cabe inteira no

contexto, porque tem 40 KB, 30 MB.

É, mas o ponto é que assim, cara, imagina, a gente não tá, o que eu quero dizer, não estamos no momento de fazer um projeto tão grande quanto esse usando apenas ferramentas de inteligência artificial correto?

Não, calma, não, talvez.

É mesmo.

É, talvez. Aí ninguém fez ainda, tá? Ah,

o Cloud Code quando ele foi vazado, aí vazou o Cloud Code, a gente foi ver o que tinha no Cloud Code, que era um código super espaguetão, tal, tem 500.000 linhas de código no Cloud Code, todo feito com o próprio cloud Code. É o

Cloud Code com os programadores da Antropic fazendo ele nele mesmo. Tá todo

mundo fazendo isso hoje em dia, ele nele mesmo. Ah, 500.000 1000 linhas de

mesmo. Ah, 500.000 1000 linhas de código. É um projeto médio. É o que eu

código. É um projeto médio. É o que eu chamo de um projeto pequeno para médio.

O o tanto que eu fiz é pequeno para médio. 300.000 linhas de código, 500.000

médio. 300.000 linhas de código, 500.000 linhas de código. Isso é nível pequeno para médio. A maioria dos júniors um

para médio. A maioria dos júniors um pequeno fala.

Isso. Então pequenininho é 10 10.000 linhas de código.

F um aplicativo que a gente já viu que tem 10.

Eu posso mostrar agora. Deixa eu mostrar um deixa eu mostrar alguns só para dar um exemplo agora. Por exemplo, quando eu comecei a fazer, eh, eu fui experimentando. Então, primeira coisa

experimentando. Então, primeira coisa que eu fiz foi um editor de texto e coisa idiota um Microsoft Word, um Google Docs, mais simples, um Visual Studio Code para Mark, para fazer Markdown. E eu fiz o

projeto web e tudo mais. O segundo

projeto que eu fiz foi, eu fiquei com essa ideia de fazer a newsletter, já tava na minha cabeça faz muito tempo.

Então, aí a gente não falou, mas eu tenho uma newsletter agora que são eram três sistemas. Um sistema é um robô de Discord, aonde eu fico mandando notícias e aonde ele também

diariamente fica puxando notícias de várias fontes que eu gosto. E todos os tweets que eu faço com link, ele vai agregando ali também para no final da semana eu tenho uma lista de notícias

que eu li que eu acho importante. Aí eu

categorizo. Eh, é, esse é o bote.

Obrigado. Então ele, o bot é o Marvin.

Então, obviamente por causa do do 42.

Aí ele me traz as notícias. Pega o

Marvin 2, por favor.

Aí o Marvin 2 no toda todo sábado ele fecha essa newsletter eu faço editorial, faço meus comentários em cada notícia.

No domingo ele fecha newsletter, na segunda ele manda e já mandou essa semana para 11.000 e tantas pessoas. Foi

isso aqui que mandou agora. Isso é isso é um processo automatizado. Eu eu só mando os links pro Boot e o bot tem os os agramação dele para fazer o

fechamento, pré-flight, geração do blog, da newsletter e do podcast. Daí eu tinha um segundo sistema que era um gerador de áudio.

Isso tudo família, rodando num dependendo do nome que você escolher aí, num open cloud, numa parada assim, né? É

um pczinho, uma isso.

É um PC que tu preparou para fazer isso aí para tu. Isso tem um, ch, tem vários é máquina que você aluga na internet que você instala, você instala o seu próprio Linux e e roda ali dentro.

Tu tá? É assim,

é assim. Uma maquininha que eu pago, sei lá, $3. É uma coisa besta assim. Não é

lá, $3. É uma coisa besta assim. Não é

nada demais.

Não é nada demais. É uma maquininha de lá, quatro cores, 8 GB de RAM, sei lá, uma merrequinha. E

aí eu tenho o bote rodando que fica, tá aqui no meu celular, eu posso falar com ele agora. Ele me responde coisas. Ele

ele agora. Ele me responde coisas. Ele

inclusive me responde coisas do sistema, porque ele eu fiz ele entender o sistema. Então, [ __ ] quando é que mesmo

sistema. Então, [ __ ] quando é que mesmo que roda a programação? Me confirma o horário, ele responde para mim. Ah, o

que que refaz para mim o comentário dessa notícia? Ele ele eu fico fazendo

dessa notícia? Ele ele eu fico fazendo isso com ele durante os dias. Aí quando

dá o fechamento, ele pega a newsletter que tá em formato HTML para e-mail, ele faz o blog. Então, tem o blog.demaquitachronicles.com.

blog.demaquitachronicles.com.

Ah, ele pega esse blog e com duas personalidades, que é a personalidade Akita, que sou eu, e a personalidade Marvin que eu inventei para ser para ser o robô negativo.

Mas sempre dá um suspiro em um esposo.

Dá um suspiro em espor. Exatamente. E é

aquela personalidade bem bem da hora.

Aí eu eu achei uma voz que eu achei bem legal também, coloquei ali. E aí eu primeiro fiz um servidor próprio que roda num lugar chamado Rampod. RAM pod é

que nem uma, é um aluguel de GP GPUs.

Eles tem GPUs que eu posso ficar alugando, só que eu não preciso ficar o tempo todo com a máquina ligada. Eu ele

eu desligo essa máquina durante a semana toda, quando chega no domingo, essa esse meu primeiro servidor pinga esse segundo servidor, manda subir, gera os áudios,

devolve e derruba. Eu fazia tudo, todo esse sistema. Por quê? Porque em janeiro

esse sistema. Por quê? Porque em janeiro desse ano a Alibaba lançou o Quen 3.5 TTS que é text speech e todo mundo na

inter, nossa, porque o TTS agora acabou, é o produto mais [ __ ] Ele é um bom produto, mas não é o melhor produto. É,

é, você ouviu também. Ele faz uma voz meio robotizada. Eu fiquei tentando

meio robotizada. Eu fiquei tentando ajustar ele por dois meses tunando. Meu,

tá tudo documentado. Depois pessoal pode ver.

Mas quera, não ficou ruim, vai.

Não, não. F. É que é que aí que tá. Se

você ver as palavras em português, tá bom. Se você vê as palavras em inglês,

bom. Se você vê as palavras em inglês, tá uma merda.

Eu ouvi. Ó, sabe uma parada que uma parada que me chamou atenção? Eh, no teu podcast lá, que é uma que é um TTS, eh, ele fala BD. Tem umas paradas que dá para

mesmo no novo, ele não fala BID, que nem a gente fala, eu teria que ajustar esse tipo de coisa, mas no outro, no open source, eu precisava toda hora dizer, sei lá, podcast, eu tinha que fazer uma lista de palavras. Quando aparecer

podcast, no fal podcast, senão ele manda podcast, senão ele manda, é, ele manda um podcast esquisito, sabe? Pior é quando pega um

esquisito, sabe? Pior é quando pega um acrônimo, sei lá.

Tô ligado. Bid. Aham.

É para BID, ele ia falar BD, bem esquisito, ou, enfim, quaisquer nomes.

Elon Musk, ele fala Elon Musk, sabe? Então eu troquei para um modelo

sabe? Então eu troquei para um modelo comercial que é 11 Labs, que é hoje acho que o melhor modelo de áudio que tem comercial.

Esse custa quanto?

Esse custa é assim, tem planos, então ele tem plano de mesma coisa, $ e eu pago o plano pequeno serve para fazer um podcast semanal, não é muito.

Deixa eu abrir um parênteses aqui rapidinho que eu anotei aqui. O o esses Vamos lá. Chat EPT. O chat EPT tem

Vamos lá. Chat EPT. O chat EPT tem diferentes planos. R$ 100. Tem um de R$

diferentes planos. R$ 100. Tem um de R$ 20, que é o CH GPT GO. Tem um de R$ 100, tem, né? E e tem, tem, por exemplo,

tem, né? E e tem, tem, por exemplo, grátis. O

grátis. O o grátis ele vai usar o modelo até acabar ali aquele limite e muda para um modelo mais bosta, não é?

Enquanto ele tá usando o modelo maneiro, ele é o desempenho dele é igualzinho o pago ou ele é capado por ser Não, ele já é capado. Por ser grátis, ele já é capado.

Ele já vai ser capado. Eu não lembro, eu não sei qual dos modelos que é, mas não é o Deep F. Tá bom.

Nunca vai ser o X. Então já vai mesmo.

Se você paga o defult, é o modelo médio mesmo no na no cloud web você usa o Sonet. Você tem que escolher usar o Opus

Sonet. Você tem que escolher usar o Opus e pagar mais caro, entendeu? Então ele

já não vai ser para programação avançada, vai ser para responder pergunta do dia a dia.

É o Sonic eu só uso para só para pergunta idiota, tirar foto de um troço.

Que [ __ ] é essa? Inclusive assim, todos esses modelos t calling. Então quando a gente todo mundo, o pessoal não entende, eles acham a IA tem acesso à internet, a IA não tem acesso a internet. Eh, o seu

browser que tem acesso à internet e ele tá pedindo para você devolver para ele as coisas, entendeu? Hã, ou é uma um intermediário que é uma aplicação web que busca e ele tá só mandando o modelo,

só manda o texto, ó, vá na web e procure. Aí tem o harness. Esse harness,

procure. Aí tem o harness. Esse harness,

seja o Cli, seja um intermediário, seja o aplicativo no browser, é ele que vai na internet, procura as coisas, pega o conteúdo e devolve como se fosse um prompt. Então, a LLM não é uma

prompt. Então, a LLM não é uma inteligência. Tem gente que ainda acha

inteligência. Tem gente que ainda acha assim, ah, o Open GPT é uma grande inteligência, não é? Ele é um arquivo que carrega em uma GPU. Aí você tem

milhões de GPUs, cada uma com uma cópia daquele arquivo, tá? Então são milhares de cópias de GPT. Cada uma dessas GPUs tem uma memória que tem contém a sua

sessão. Essa sessão ele não tá atrelado

sessão. Essa sessão ele não tá atrelado à aquele servidor. É que nem um servidor web no e-commerce. Quando você loga, você cai hoje no servidor da na num data center, amanhã você pode cair em outro.

é que no banco de dados tem a sua sessão. Você faz login, ele vai puxar o

sessão. Você faz login, ele vai puxar o dado de lá e você continua como se tivesse no mesmo lugar. É a mesma coisa, só que com GPU. Então não existe uma

inteligência que sabe tudo. Existe um

arquivo carregado numa GPU e a sua sessão que tá naquele naquela memória daquela GPU. Aí ela vai tirando da

daquela GPU. Aí ela vai tirando da memória. Quando não tem máquina

memória. Quando não tem máquina sobrando, ele pode ser que você jogue para uma máquina pior, onde vai rodar um modelo menor, por exemplo. Então, às

vezes você, por isso que parece que ele nerfa às vezes, eu imagino, eu tô chutando, mas é o que eu faria numa infraestrutura que eu não tenho máquina sobrando. Em vez de não te responder ou

sobrando. Em vez de não te responder ou te largar numa fila enorme, eu tento descer um nível e tentar responder por lá temporariamente até voltar a outra

máquina, sabe? Então tem deve ter várias

máquina, sabe? Então tem deve ter várias estratégias internas dele para ficar te fazendo load balancing, porque é perfeito. E já e e se o cara paga, ele

perfeito. E já e e se o cara paga, ele tá no ele sobe na fila.

Isso. Então eu imagino que quem e é uma hipótese, eu tô chutando, eu nunca vi isso Antropic nunca disse isso, mas muita eu vi muita gente reclamando. Ah,

Antróic está nerfando. Antropic tá

nerfando. Eu fico acompanhando no meu Twitter lá e enquanto ele todo mundo tá falando isso, eu tô usando de boa, mas eu uso plano max.

Eu também. Então eu provavelmente eu vejo menos, talvez eu veja menos problema do que quem tá usando o free ou a versão, entendeu? A versão 20. A

versão 20 deve est tendo mais load balancing para máquinas menores, faz de conta, entendeu? E quem paga essa tokens

conta, entendeu? E quem paga essa tokens por segundo deve ter outra prioridade.

Então deve ter uma uma fila de prioridades para cada tipo de usuário, para quem paga mais ou paga menos, que faz sentido porque é um recurso escasso.

Todo recurso escasso, quem paga mais leva melhor, quem paga menos leva pior.

Esse é o correto para que quanto incentive você a pagar o mais caro.

Então, ah, e aí não é uma propaganda e não é uma crítica. Esse é a realidade do momento onde eu não tenho como colocar mais data center no ar, porque falta energia. Então tudo volta de novo ao

energia. Então tudo volta de novo ao ponto falta energia. Falta energia.

Como agora a demanda é grande, a pressão de liberar isso mais rápido aumenta, porque agora a economia dos países depende desses modelos de IA funcionarem

pros negócios poderem funcionar. em

algum momento ele se torna crítico suficiente porque agora a o militar tá usando, companhia aérea vai usar, hospital vai usar, já não pode mais um negócio que cai toda hora, sabe? Então é

que nem a internet antigamente, a muita empresa não usou no começo, porque se caísse no meio do caminho podia derrubar um avião, faz de conta, né? Ã, podia

quebrar uma máquina no hospital, matar alguém. Então tem que chegar num ponto

alguém. Então tem que chegar num ponto aonde fica a SLA, que é a garantia de ficar no ar, fica autossuficiente para que isso aconteça. Só que hoje é muito

baixo. Cai toda hora. Hoje durante o dia

baixo. Cai toda hora. Hoje durante o dia me deu um erro 500 ali na PI, eu tive que esperar meia hora, voltou. Mas sabe,

vai tendo esse tipo de baleada durante os dias. Isso então que rola, tá?

os dias. Isso então que rola, tá?

É isso que rola. Então na dinâmica do seu dia a dia, achava que era eu fazendo merda, mas entendi. Tá bom. Então, na dinâmica do

entendi. Tá bom. Então, na dinâmica do seu dia a dia, pode ser que hoje você sinta diferente de ontem, amanhã esteja um pouco melhor, amanhã esteja um pouco pior, porque depende em que máquina você tá caindo, depende em que infraestrutura

que você tá, entendeu? Então, eh,

dependendo, eles podem estar fazendo esses ajustes em tempo real. E é por isso que eu falo toda hora em abril de 2026, na estratégia atual da Antropic, pode ser que amanhã eles mudem o

pricing. Então toda hora eles estão

pricing. Então toda hora eles estão reajustando para tentar balancear o custo com o processamento. Internamente

lá o cara da de infraantropic, eu não queria estar na não queria estar no eu já trabalhei em data center em locais onde caía as coisas, tipo que nem venda de show, ingresso para Taylor Swift, sei

lá, e aí cai os servidores, aquela coisa toda. Então é é é uma vida insana. Agora

toda. Então é é é uma vida insana. Agora

imagina que isso tá acontecendo todos os dias lá, porque a demanda não para de aumentar, entendeu? Então nesse momento

aumentar, entendeu? Então nesse momento lá ele tá nesse ritmo. E pra gente que usa a eu sinto frequentemente instabilidades.

Vira e mexe tem estabilidade. Não é não é o suficiente para que eu pare de usar.

Às vezes eu então eu troco. Ah, o Cloud agora tá meio cagado. Eu vou pro Codex, sabe? Eu fico fazendo, eu fico dando

sabe? Eu fico fazendo, eu fico dando meus pulos ali no mesmo e eles conseguem trabalhar no mesmo projeto tranquilinho, cara.

Não faça ao mesmo tempo, obviamente, mas sim. Eh, porque todo o contexto que você

sim. Eh, porque todo o contexto que você tá usando é arquivo texto. Então ele

pode ler todo histórico de um ou dois, não tem incompatibilidade.

Prompt é texto, ll texto. Então mesmo quando você fala em

texto. Então mesmo quando você fala em arquivos binários, ele converte para texto. O equivalente não não é texto, eu

texto. O equivalente não não é texto, eu tô falando texto, grosseiramente, pessoal da do badgings de são vetores dentro. Ele converte o seu texto em

dentro. Ele converte o seu texto em vetores, ele converte os seus dados em vetores. Esses vetores internamente eles

vetores. Esses vetores internamente eles são que nem uma setinha com direções.

Então, inclusive, como um Google funciona, é que eu eu converto um documento em setinhas e ele num plano 2D é como se eu tivesse, por exemplo, assim

e a minha query tá para cá. E aí quem tá mais próximo da query, eu pego eu pego a o documento que a setinha é mais próxima do que essa outra que tá para direção oposta, sabe? Então, na hora que eu

oposta, sabe? Então, na hora que eu converto como vetor esses vetores dentro de um de múltiplas dimensões, porque aqui é 2D, né? Um para lá, um para cá,

dentro do modelo eles são milhões de dimensões, tá? Então tá apontando para

dimensões, tá? Então tá apontando para mim, por isso que tem e granularidade e nuance de pegar várias pequenas direções apontando para milhões de lugares diferentes. Aí é o que eu tentei

lugares diferentes. Aí é o que eu tentei explicar nas últimas 5 horas do outro podcast, mas em grosseiro modo, então eh eh as

LLMs eles eles convertem esses dados num formato único que ele entende dentro deles. São esses embedings, são esses

deles. São esses embedings, são esses vetores. Ah, então não existe um um

vetores. Ah, então não existe um um modelo com uma inteligência, é um load balancing. São vários arquivos iguais,

balancing. São vários arquivos iguais, nem não necessariamente iguais. Pode ter

versões diferentes do mesmo arquivo. Tem

isso também. Pode ser que você tá caindo hoje na versão opus 4.6.1, mas tem o 4.6.2 dois já sabe, eles já estão ajustando, então tá toda hora tá

isso, isso, isso é um é um alvo em movimento. Por isso que não adianta eu

movimento. Por isso que não adianta eu documentar como é o comportamento dele hoje e mês que vem já tá diferente, semana que vem tá diferente ou de um dia pro outro já tá diferente. Por isso que

não faz sentido tentar documentar isso.

Ah, é assim, o Opus é melhor que o Codex. Ah, o GPT é melhor. Não é, não é.

Codex. Ah, o GPT é melhor. Não é, não é.

Depende do problema, depende do dia que eu tô rodando. Depende, depende de um monte de coisa. No geral,

no geral o Codex e o o GPT 5.4 e o Opus estão muito equiparados do ponto de vista do modelo. No harness, que é a rédia, cloud code tá na frente, mas isso

é uma deficiência do harness, não é do modelo, entende? Então, tô entendendo.

modelo, entende? Então, tô entendendo.

Ou seja, é menos difícil para Openha I alcançar, porque não é um novo modelo que tem que treinar, é um software que ele tem que melhorar, entendeu? Então,

talvez semana que vem sair a versão nova do Codex, puf, ele passa na frente. GLM

é a mesma coisa, o modelo é bom, os harness não, ele não fez um harness para ele. Uso, a gente usa open source e os

ele. Uso, a gente usa open source e os open source foram feito genérico para vários. Ele não tem um tratamento

vários. Ele não tem um tratamento especial necessariamente. Aí o pessoal

especial necessariamente. Aí o pessoal da GLM tem que contribuir de repente, ah cara, eu sei que no nosso modelo você tem que fazer um prompt deste outro jeito que funciona melhor. Então ele tem que ele tem que me dizer como foi o

treinamento dele para eu ajustar o meu harness para aquele modelo. E todos os modelos foram treinados de jeitos diferentes. Aí o que acontece, ah, é que

diferentes. Aí o que acontece, ah, é que o tem várias variantes. Então no mundo open source, por exemplo, eu falo: "Ah, tem o Quen 3". Hum.

Só que não tem coin tem Queen 3, tem o Quin Next, tem o Quin Coder, tem o Quin não sei o qu. E agora tem o Quen destilado pelo Opus. Tem o Gema 4

destilado pelo aí fica e Patu, isso é sensacional, fantástico, incrível, muito [ __ ] É uma merda?

Uma merda. É uma merda. É uma merda.

Assim, não é para do ponto de vista do usuário é uma merda. pra pesquisa e pro pro motivo que eles estão fazendo, faz sentido. Eles estão vendo quais formas

sentido. Eles estão vendo quais formas de ajustar o mesmo modelo talvez me traga uma resposta melhor. Então, quando

você pega um Coin Coder, ele é o modelo Quen que eles tentam fazer um pós treinamento em cima, ou seja, não preciso treinar do zero, eu adiciono um treinamento essa para tentar fazer ele

fazer um código melhor, certo? Aí, como

eu faço isso? Como eu não sou a Open que tem bilhões para gastar, então eu gasto alguns poucos milhões e eu dou para ele código simples, tipo para passar lit code. Então talvez ele passe melhor lit

code. Então talvez ele passe melhor lit code. Aí eu jogo nos benchmarks de lit

code. Aí eu jogo nos benchmarks de lit code, nossa, o que coder subiu. Só que

eu vou fazer um projeto de verdade.

Agora eu entendi o que tu quis dizer lá no começo com não confio em benchmarks por causa do do da qualidade do código que os caras oferecem pros modelos serem

testados. Exato.

testados. Exato.

E aí com a com a qualidade de código ali, esse modelo aqui história. Foi

assim que eu fui parar na baixando o lhama para tentar usar o Quen e tal. E

eu te falei, ficou uma merda lá e entendi, cara. Então o que acontece é

entendi, cara. Então o que acontece é que você tem várias variantes aí para quem gosta de pesquisar é legal. Então

eu pesquisei e eu testei e aí eu falei: "Não é grande coisa, mas tem gente que olha só o nome a Coin Coder. [ __ ] é o Coin melhor para codar". Então eles

ficam soltando, ó, você quer usar o coin, usa o coin Coder. Aí agora é pior porque agora tem o coin destilado por Opus. [ __ ] é o a qualidade do Opus num

Opus. [ __ ] é o a qualidade do Opus num modelo pequenininho que roda na minha GPU. Então eu posso ter o Opus na minha

GPU. Então eu posso ter o Opus na minha máquina, sabe? O cara fica com essa

máquina, sabe? O cara fica com essa ideia. O que que

ideia. O que que O que é a qualidade do Opus?

É, é, ele só olha o nome e tem o opus no nome e ele associa que porque tem ous no nome é é uma grande bosta. O que que é um modelo destilado? Uma das formas de

você pós-treinar o modelo é você fazer esse modelo, gerar perguntas e eh perguntas e mandar essas perguntas para outro modelo e pegar essa resposta.

Entendi.

E treinar com essa resposta. Então ele

fica fazendo milhões de perguntas para o Opus.

Pega as milhões de respostas. Agora você

tem um par de perguntas e respostas e agora você pós treinar. Baseado nesse

modelo que eu treinei, ele você entorta ele para tentar fazer ele dar aquela resposta, ficar sabor.

Ele ficar sabor.

E esse é exata brasileiro vai entender isso melhor. Melhor que ele é sabor.

isso melhor. Melhor que ele é sabor.

Salve, Toguro, obrigado por ajudar a gente aí na comunicação brasileira.

Exatamente. Porque aí eu testei isso e aí é engraçado que ele de fato o primeiro código que ele começa a gerar tem cheiro de opos. Ele, os nomes, os

diretórios, a forma de organizar tem uma cara de opos. Então, é como se ele tivesse imitando opos, mas não sendo opos, ele tropeça no segundo prompt e o

código continua sendo uma bosta, entendeu? Então agora é uma bosta com

entendeu? Então agora é uma bosta com cara de opos, você entendeu? Putz, cara. Tô entend É

você entendeu? Putz, cara. Tô entend É tipo, é tipo iPhone que os caras venderam lá no, no sei lá, 2005. Aí é

uma coisa muito errada que eu vou falar agora, mas eu vou falar mesmo assim que se aí dá aí aí vale a etiqueta que é um bom xingling, entendeu?

Perfeito, entendi.

E quem já fez compra na Santa Efigênia sabe o que sabe o que é basicamente a qualidade comprou coisa no Extreme?

Lembro sim lógico. Lak sangue, não sei se lembra.

Eu acho porque assim, eu tava hoje discutindo com o meu irmão que os chineses eles são meio, eles precisam melhorar muito em em nomear as coisas.

Eu acho as marcas chinesas meio feias, os nomes, sabe qual é? É, é porque é bonito pro chinês, pra gente vai ser feito.

Talvez sim faça sentido pro chinês, mas para nós é estranho. É. E a eu falei, tinha uma que era [ __ ] Deal Extreme.

Essa era [ __ ] Essa, essa era [ __ ] Mas aí o que acontece é que a qualidade é AliExpress é qualidade chein de modelo, literalmente isso, entendeu? Então é

basicamente você pegar um produto genérico e tacar a etiqueta do ah tem cara deus. Talvez você queira. Entendi.

cara deus. Talvez você queira. Entendi.

Bom você me dizer isso, porque se eu fosse experimentar uma parada dessa, eu ia me sentir comprando um pen drive de 64 GB em 2001.

É, não, pior é você comprar um SSD e abrir e descobrir que era um SD card dentro. É,

dentro. É, você entendeu? Ele tem cara de SSD, mas

você entendeu? Ele tem cara de SSD, mas é só um microSD card, entendeu? Entendi.

Aí o que acontece assim, eu fiz os testes aí naquele blog que eu f meu blog que eu falei, tem os testes e aí o que eu vi é que assim, o que normal, sem mexer, é o melhor, é o melhor. Ele

consegue fazer dentro, ele ele é o que melhor consegue fazer dentro dos coin.

Os as variantes eles não fazem melhor, eles fazem pior. Só que faz pior com outra cara, entendeu? Só que aí por que você fez o o pós-treinamento com o Opus e agora ele fica forçando a resposta pro

Opus, ele é duas vezes mais lento.

[ __ ] que pariu.

Então ele faz um código pior sendo duas vezes mais lento com o cara do Opus.

Então você é enganado. Ó, nossa, meu, eu fico com aquela sensação de, nossa, eu tenho US na minha máquina. Ele fez o rodando de graça, eu sou [ __ ] dei meu jeitinho. Mas sai no Instagram a [ __ ]

jeitinho. Mas sai no Instagram a [ __ ] de uma notícia sensacional e parece verdade.

É, é o #levetagem, entendeu? É

basicamente isso. É uma bosta. É melhor

usar o modelo normal.

O cloud bot, o open cloud, sei lá. Isso

daí é um harness também.

É um harness. Exatamente isso que ele é.

O open claw. Ele é basicamente um harness.

Pera aí, pera aí, pera aí. Aqui olha só, vamos aproveitar que tu vai falar disso aí e e vamos expandir aqui o o que significa mesmo isso que a gente tá falando, porque eu acho que essa é uma das paradas mais legais que dá para

fazer com o IA, que é é ter um bote em casa. É, é o que eu faço. Já tenho, eu

casa. É, é o que eu faço. Já tenho, eu tenho vários botes aqui rodando.

Isso. Você tem um bote, você transforma o seu computador no Jarvis de certa forma, num Jarvis zoado assim, de 2026, né?

É, é exatamente. Nada. Mas então é isso aí, como se a gente falou aqui ao longo do programa, esse esse essa aplicação, vou chamar assim, esse Harness mudou de nome ao longo do tempo, porque ao longo de uma semana

ele é um aplicativo de chat que vai falar com o modelo e vai ter essas funcionalidades de for de responder as funções que o modelo pede. Então o

modelo, eu faço uma pergunta, ah, OpenCla, e vê na minha pasta de documento se tem um relatório de 2024 que fala. E aí ele, né, você pede para

que fala. E aí ele, né, você pede para ele, vai busca e te devolve esse documento. Então ele manda pro para ll,

documento. Então ele manda pro para ll, ele devolve função pesquisar arquivo diretório c2./ o harness que é o

diretório c2./ o harness que é o aplicativo opencas a procura, devolve o resultado pro modelo. O modelo devolve para você a resposta formatada.

Encontrei o documento, está aqui o anexo. Certo?

anexo. Certo?

Isso é simples. Isso. O aplicativo do Windows, do Cloud também, do Cloud também faz. Também fazém faz. Mas o o

também faz. Também fazém faz. Mas o o cloud o cloud, essa [ __ ] desse Cloud Bot openclaw, ele faz maluquices, né?

Não é maluquí, mas a sensação, mas ele não, então calma aí. Ele não ele não começa a agir no meu

aí. Ele não ele não começa a agir no meu computador sem eu ter que mexer nesse, nessa máquina.

Ele pode fazer isso. Ele pode fazer isso. Então aí vamos entrar agora, vamos

isso. Então aí vamos entrar agora, vamos chegar agora em definição de agentes, tá? Eh, então porque a gente tava

tá? Eh, então porque a gente tava falando das características do modelo que tem que ter para permitir esses harnesses. Esses harness são agentes.

harnesses. Esses harness são agentes.

Eh, um agente é um programa que é capaz de usar uma LLM e executar as funções que ele pede para executar, tá? E eu

posso ter um agente que chama outros agentes. Então, o cloud Code ele chama

agentes. Então, o cloud Code ele chama múltiplos agentes.

Isso é muito [ __ ] é tudo muito mais rápido.

Em paralelo, é como se você abrisse múltiplos chats e aí você tem alguém observando todos os chats. Aí eles vão terminando, pega a resposta e aí pega a memóriaazona e compila e te devolve.

Então, em a grosso modo, o openla é um conjunto de agentes. Esses agentes, eu posso deixar eles, por exemplo, agendado no Windows, que ou no Linux, que é um

Chrome, qualquer coisa do tipo. Rode a

cada 5 minutos, rode uma vez por dia. É

que nem procedimento de backup, sabe?

Ah, rode meu backup uma vez por dia. Aí

ele roda um agente que eu deixo preparado. Ah,

preparado. Ah, nossa, é muito mais simples do que eu tava pensando.

É muito mais simples do que você tava pensando. Exatamente. Então, esses

pensando. Exatamente. Então, esses

agentes são programinhas, são vários programinhas queão, esses programinhas são prompts, é tudo prompt. Aí eu até esqueci de te responder o que que é uma skill, uma habilidade. Uma habilidade é

um prompt, é só um texto. Ele é um texto que pode ou não estar com scripts de código atrelados a ele para não ter que ficar repetindo o mesmo código.

Tem água aí, cara?

Tem, tem, tem, tem. Só para ver, porque tu fala para

tem. Só para ver, porque tu fala para [ __ ] só para ver se tá com a garganta.

Eu falo demais mesmo, mas por mim pode continuar só para saber se tu tem água. Tá bom.

Não, não. Tá, tá, tá. Tá aqui, tem duas ainda para garantir, porque então o que acontece é que esses agentes, o Open

Claw, é um programa de chat igual um o o Claud Code, igual o Gemini Cliodex, que roda agentes. A grande o grande

roda agentes. A grande o grande diferencial que deixou o pessoal e eh uau, é que ele tem um next next de setup que permite você conectar ele no

Discord, no WhatsApp, no Telegram, em todo mundo. E aí você, uau, do WhatsApp

todo mundo. E aí você, uau, do WhatsApp eu consigo falar com Jarves aqui e eu posso também ligar com TTS que é text to speit ou spe to text que aí sou eu

falando e ele entendendo o texto, entendeu? E aí, nossa, ele fala comigo

entendeu? E aí, nossa, ele fala comigo sem, entendeu? E isso é um [ __ ] efeito.

sem, entendeu? E isso é um [ __ ] efeito.

É um [ __ ] efeito, não é? Não é para quem nunca viu, você parece que é o negócio da de Marte.

Perfeito. E dá para fazer isso aí. Eh,

dá para dá para isso daí só dá para fazer com OpenCla, cara.

Não dá não. Não é só com OpenCla. OpenC é só um

não. Não é só com OpenCla. OpenC é só um programa. Ele é só um programa. É só um

programa. Ele é só um programa. É só um programa de Ele pegou todo esse hype porque ele foi o primeiro a chamar atenção. Porque ele

foi o primeiro a chegar cham chamar atenção. Ele foi o primeiro que juntou

atenção. Ele foi o primeiro que juntou todas as pecinhas. Que nem eu acabei de falar, novembro, final de novembro do ano passado, foi quando saiu esses modelos ferramentas. Aí deu dezembro.

ferramentas. Aí deu dezembro.

É onde explodiu essa merda. É aí janeiro chegou aquela rede social de inteligências artificiais que depois todo mundo viu que era golpe.

Bullshit. É bullshit. Mas o problema é que tem que esse que é o ponto que tem que lembrar. Dezembro de 2025 foi o ano

que lembrar. Dezembro de 2025 foi o ano da virada, foi o marco da virada. Aí ele

permitiu um programador que é um bom programador fazer muito rápido um open claw. Esse open claw ele foi feito em

claw. Esse open claw ele foi feito em pouquíssimo tempo e ele faz atualização o tempo todo. É um péssimo código. É um

código bosta. Mas e tá todo mundo enfiando mais código ali dentro porque é legal. Que

legal. Que que é um código bosta? Um código bosta não é um código que não funciona aqui.

Não, não, não é um código que não funciona. O código bosta funciona. Na

funciona. O código bosta funciona. Na

verdade é assim, para ser honesto, não é tu que é chato não, com todo respeito, com não. Na verdade é assim, 90% 100% de todo software tem bug. 100%.

Não existe software que não tem bug. É,

é natural. Todo ele acabou de sair da fábrica tem bug. Não, não existe isso de não ter bug. Então, ah,

o problema é assim, se você nunca roda esse software, até eu fiz, mas nunca rodei, bacana, nunca tirei o problema.

No momento que você roda, eu só posso dizer que um software tá funcionando quando tem usuários usando. Então, tem

esse problema também. Tem muita gente que tem muita gente que faz, só que quando tem usuários usando, eles não estão usando 100% do software, eles estão usando pedaços do software, certo?

Então, eh, tem partes daquele software que ninguém mexe e não tem um existe um bug lá. Só que ninguém nunca

bug lá. Só que ninguém nunca acessou aquele bug, mas ele está lá.

Então o que a gente, eu falo que assim, software nunca está acabado. Quem

encomenda um software, termina e fala: "Acabou o software", você vai ter sempre bugs. No mínimo, o sistema operação vai

bugs. No mínimo, o sistema operação vai atualizar, vai quebrar a biblioteca. No

mínimo certificado SSL da criptografia vai espirar, vai precisar versão nova, no mínimo vai ter essas manutenções que tem que ser feitas. Então todo software que não tem essas manutenções e fica desatualizado,

é um software, é um código merda.

É um código merda. Mas no caso do OpenCla, não é que é merda por causa disso. Merda dele é assim, num processo

disso. Merda dele é assim, num processo de desenvolvimento de software, eu posso, tipo, você tá fazendo, eu faço também. Ah, eu tô empolgado, vou fazer

também. Ah, eu tô empolgado, vou fazer um monte de código, vou fazer um monte de código. Funcionou.

de código. Funcionou.

Aham. Só que aí eu vou rodar uma coisa diferente do que eu tava testando, ele cracheia, sabe? Aquele negócio, [ __ ]

cracheia, sabe? Aquele negócio, [ __ ] tava funcionando até agora.

Mas é óbvio, é óbvio. Eu tenho que eu tive que reiniciar meu projeto de ROM lá cinco vezes.

Vári vez é normal. Não importa se você é júnior ou se você é um profissional snior, todo o código que você fizer nas primeiras versões vai ter um monte de bug. Esse é o normal. É o normal.

bug. Esse é o normal. É o normal.

A diferença é se você continua consertando esses bugs ou não. E o

problema é você fazer um monte de código sem testar e você vai acumulando um monte de bug que agora para você consertar tem uma cadeia de bugs atrás dele que eu tenho que sair consertando.

E aí o código ele o código ele é moldável. Todo mundo imagina que fazer

moldável. Todo mundo imagina que fazer código é que nem eu fazer uma uma planta baixa no papel azul com caneta branca de pecinhas de Lego perfeitas que eu vou

fazer uma peça de cada vez e todas elas vão se encaixar e quando terminar de encaixar a última peça, acabou o modelo, certo? Esse é o modelo que todo mundo

certo? Esse é o modelo que todo mundo tem. Software é mais parecido com

tem. Software é mais parecido com modelagem com argila. Eu pego um monte de argila e plá, taco na mesa. E aí eu vou modelando ao redor. E aí eu vou um

pedaço de cada vez ajustando. Para cada

pedaço que eu mexo aqui, eu tenho que mexer no de baixo. Nesse pedaço daqui, eu tenho que mexer no de cima. Então eu

vou moldando aos poucos até chegar na forma que eu quero.

Mesmo se fosse uma estátua de pedra, eu começo com uma monolito gigante e eu vou removendo pedaços, ajustando, ajustando até que saia alguma coisa. Nunca sai de primeira. Esse que esse que é o grande

primeira. Esse que esse que é o grande lance. É igual a um desenho. Ninguém,

lance. É igual a um desenho. Ninguém,

nenhum Frank Miller, nenhum dos grandes, nenhum oda, ninguém desenha no primeiro traço e sai perfeita a página do quadrinho. Ele faz um monte de rascunho,

quadrinho. Ele faz um monte de rascunho, apaga, joga o papel fora, faz de novo.

Certo? até o momento em que depois de muitos rascunhos ele já ele tem uma noção, mesmo ele tendo feito o Oda tendo feito sei lá 1000 capítulos, mesmo no capítulo 1001 ele vai ter que fazer um

mini rascunho para depois passar a caneta em cima. Ninguém começa na caneta e já faz a caneta, certo?

Então é a mesma coisa com software.

Software também não nasce assim, plá, saiu só, basta eu especificar e vai sair o software no final. Não vai, não vai acontecer. E e esse que é o grande, como

acontecer. E e esse que é o grande, como amarrei nessa referência do cara, não são bloquinhos, porque o inexperiente acha que são bloquinhos mesmo.

É um sistema é é parecido com você montar um carro. Se você já montou um carro, não é, não é, ah, monta tudo em sequência e tudo funciona no final. Não,

a hora que você ligar o escapamento, vai ter que ajustar a transmissão, vai ter que tirar a marcha. Cada peça tá conectado com outra peça. Quanto mais

peças conectadas você tem, mais para você mexer na peça do meio, você tem que mexer em todas as outras. Imagina que

você no final de montar o carro, você percebe, [ __ ] eu esqueci de colocar os gaskets, que eu não sei o nome, na hora de fechar o motor e aí ele não tá com o gasket no meio, vai dar maior merda. Tem

que tirar o motor do carro. O que que você tem que fazer para tirar o motor do carro? Tem que tirar o pneu, tem que

carro? Tem que tirar o pneu, tem que tirar transmissão, tem que tirar tanque de combustível, tem que tirar o óleo, tem que vazar tudo até conseguir tirar o

motor. Certo? É a mesma coisa com

motor. Certo? É a mesma coisa com código. Se você não vai testando, por

código. Se você não vai testando, por isso que todo mundo, você vai fazer um motor, você testa o motor antes de colocar no carro, certo? Você não vai testar depois, você testa antes. Mas

ninguém testa antes. Então o cara fala: "Tô com pressa de montar o carro, monta o motor aqui, eu vou montar aqui a transmissão, junta tudo e a gente joga o carro na rua e vê se funciona." Aí ele anda, mas dá acelera 100 km, ele

estoura. Se você for fazer, por exemplo,

estoura. Se você for fazer, por exemplo, então um projeto que ele, vamos lá, um software que ele faz, ele trata texto, que nem você tava dizendo aí no teu

exemplo, eh, mas ele além de tratar texto, ele também consegue, ele te faz ele consegue interpretar aquele texto e por meio de uma API de inteligência artificial, ele consegue te fazer algumas perguntas porque o teu objetivo

no fim era melhorar aquele texto para um para algum outro uma outra finalidade, não sei quê. O que eu quero dizer é adicionar features a um software e qual

que usando inteligência artificial? Ah,

o que que eu tô fazendo? Eu crio um aspecto de cada vez e eu ainda não cheguei na etapa de juntar tudo. Eu tô

criando umas paradinhas pra gente fazer aqui no flow, uma suit de de ferramentas que o no fim eu queria juntar tudo.

Eh, a qual que é a melhor maneira de que de que um um programador experiente faria isso usando inteligência artificial?

Não é só um programador, é a sabedoria de Napoleão.

Hã, dividir e conquistar. É assim que eu tô fazendo.

Ou ou a sabedoria de Jack, o stripador em pedaços. Então o que que você faz?

em pedaços. Então o que que você faz?

Você é dia do cara.

Gostei. Vai. E mas é esse essa é a filosofia do programador. Você faz um pedaço e você testa aquele pedaço. Você

testa aquele pedaço. Tá mais ou menos funcionando como você precisa. Aí você

coloca no software. Aí você aí você começa a fazer o outro pedaço. Quando o

outro pedaço tá pronto, você testa os dois pedaços. Quando aí você faz o

dois pedaços. Quando aí você faz o terceiro pedaço. Quando você faz o

terceiro pedaço. Quando você faz o terceiro pedaço, você testa os três juntos. Você não faz os seis pedaços de

juntos. Você não faz os seis pedaços de uma vez.

Então eu tô errando. Eu tô fazendo os vários pedaços de uma vez. Tô fazendo

e depois junta tudo. Agora você não sabe quando der pau, qual dos seis pedaços tá dando pau, sabe?

Vou ter que começar tudo de novo.

Não, não tem que começar tudo de novo.

Agora depois que você já tem os seis pedaços. Isso que um consultor faz. É,

pedaços. Isso que um consultor faz. É,

esse é o meu, esse é o meu dia a dia de trabalho. Eu chego nos lugares que todo

trabalho. Eu chego nos lugares que todo mundo faz seis pedaços uma vez, eu falo: "Bacana, você fez seis pedaços. Vou

pegar esses primeiros dois, vou testar junto, ver o que acontece. Aí eu corrijo esses dois. Agora vou pegar o terceiro,

esses dois. Agora vou pegar o terceiro, vou testar junto com ele, ver o que acontece. E vou fazendo isso

acontece. E vou fazendo isso sistematicamente até chegar no C. Só que

aí e os teus projetos.

Exatamente assim também. Exatamente. Só

que aí eu faço uma coisa a mais.

Todo mundo faz site, aplicativo, não sei o que. Aí o cara te manda, ah, testa aí.

o que. Aí o cara te manda, ah, testa aí.

você instala o seu celular e testa, certo?

Só que toda a nova versão, o cara te manda, você tem que testar tudo. Não é

um saco isso? Mesmo se você fizer com o GPT ou com o cloud, aí você fez uma funcionalidade. Aí eu tenho que testar

funcionalidade. Aí eu tenho que testar tudo para ver se nada quebrou antes, certo? E aí se eu fizer 20

certo? E aí se eu fizer 20 funcionalidades, eu tenho que testar as 20. Na 21 eu tenho que testar para ver

20. Na 21 eu tenho que testar para ver se todas as 20 não quebraram antes.

Então eu não faço isso.

Eu faço um outro programa que testa esses 20 para mim.

Isso que a gente chama de teste automatizado, que todo programador tem preguiça de fazer, especialmente o freelancer, porque se a empresa não pede para ele fazer, ele não faz, porque é um

código extra. Ele fala: "Não, eu já

código extra. Ele fala: "Não, eu já testei na minha máquina, já funciona, não precisa, eu sou [ __ ] eu sou um sor, você quer discutir comigo? Eu tenho aqui formado, pós-graduação e não sei o quê.

Eu sou um bom programador, não preciso de teste. Esse filha da [ __ ]

de teste. Esse filha da [ __ ] faz um código que no nascimento é o que eu já chamo de débito técnico. Um código que eu não

débito técnico. Um código que eu não tenho como testar automaticamente, que eu preciso testar manualmente, por definição, é um débito técnico. Que que

é um débito técnico? Durante a

programação, digamos que eu vou fazer um código que o software vai, eu tô estimando a minha cabeça que vai levar 10 dias para fazer.

Se eu fiz sem sem inteligência artificial, sem inteligência artificial, faz do jeito independente, pô, eu vou um processo que leve 10 dias para fazer, tá? Ah, digamos que eu queria ir mais

tá? Ah, digamos que eu queria ir mais rápido, aí eu corto o pedaço, certo? Ah,

deixa para depois apertar isso aqui, deixa para depois. Normalmente quem sai da fila primeiro é os testes. Ele sai

fazendo que nem você vê, sai uma funcionalidade atrás da outra, termina os 10 dias e entrega.

A merda é que ele entrega, vai embora, só que tá tudo quebrado. Agora, qual

parte tá quebrado? Eu tenho que testar o código inteiro. Eu tenho que testar o

código inteiro. Eu tenho que testar o código inteiro porque ou agora o que eu faço como consultor, eu tenho que começar a construir os testes que ele não fez. São scripts de teste. Então eu

não fez. São scripts de teste. Então eu

testo um componente de cada vez. Testei

um componente, fiz um código que testa ele. O que que é um código que testa

ele. O que que é um código que testa ele? Digamos que eu tenho um formulário

ele? Digamos que eu tenho um formulário que tem que ter o seu nome, endereço e ele tem que validar se o CP tá correto, certo? Aí eu faço um teste que é botar

certo? Aí eu faço um teste que é botar um CEP errado, ver se aparece mensagem de erro. Então eu faço um código que é

de erro. Então eu faço um código que é abre o navegador, vá nesta página, preencha o nome, endereço, CP, aperte OK e veja a mensagem que dá. E aí eu vejo, eu capturo a mensagem no HTML e vejo se

deu errado. Se deu errado, me fala que

deu errado. Se deu errado, me fala que deu errado. Se passou, fala que passou.

deu errado. Se passou, fala que passou.

Aí toda vez que deu errado, aí eu corrijo, coloco a validação no CEP, rodo de novo esse script, ele vai falar que passou certo?

Aham.

Agora, pelo menos esse pedaço eu sei que tá funcionando. Vou pro próximo pedaço.

tá funcionando. Vou pro próximo pedaço.

Agora, qual que é a vantagem de fazer isso? Eu sei que todos os pedaços do

isso? Eu sei que todos os pedaços do passado que eu fui testando, no mínimo se tá tudo passando, eu não tô quebrando esses daí. Então eu não fico caçando à

esses daí. Então eu não fico caçando à toa, porque senão, se eu não fizer isso, eu conserto esse, mas aí eu vou mexer em outra coisa e quebra de novo o anterior.

E eu não vejo que tá quebrando porque eu não testei, mas como eu tenho teste automatizado, ele tá testando por mim o tempo todo e aí eu mexo um negócio lá na frente, falo: "Opa, esse troço você mexeu, quebrou esse troço lá do passado,

então eu não fico correndo atrás do meu próprio rabo, entendeu? Esse é o jeito correto de você

entendeu? Esse é o jeito correto de você consertar código seu ou dos outros. E

isso vale pra LM, pra as LLMs também, porque se eu faço o código com este teste, mesmo que o código compile, ou seja, ele a a o código, a sintaxe do código está correta, porque isso

acontece muito. A sintaxe do código está

acontece muito. A sintaxe do código está correta, mas a lógica está errada.

O que que isso quer dizer? Eu, digamos

que é uma coisa bem simples, eu vou checar o saldo do seu banco para ver se eu posso gastar dinheiro. Ifo, maior que o gasto passe. Só que ele não tá vendo que tem uma outra transação que roda em

paralelo, que pode ter um outro gasto que vai atualizar esse saldo. Só que

você tá vendo isso em paralelo com ele debitando, só que aí você tá debitando duas vezes do mesmo saldo, entendeu?

Então eu tenho que você não vê esse esse código vai funcionar, ele roda e vai permitir gastar duas vezes. Ele compila,

executa, funciona. Funciona, quer dizer roda, não crcheia, só que o resultado lógico tá errado. Vai permitir você gastar um saldo que você não tem. É um

erro lógico. Esse erro eu tenho que ter um teste dizendo, se o saldo ficar negativo não pode gastar e faz um recheu, esses testes eu tenho que fazer de tal.

Se eu vier um em paralelo, vê se alguém não tá gastando a mais. Eu tenho que, se eu não pensar nisso, em algum momento isso já aconteceu de verdade, em produção aconteceu e alguém gastou um dinheiro que não podia. Aí alguém do banco fala: "Caralho, que Mas como é que

eu faço para isso não acontecer de novo?" eu faço um teste para aquele

novo?" eu faço um teste para aquele cenário para não acontecer de novo e aí nunca mais acontece esse erro, porque eu posso continuar fazendo o próximo código e ele vai parar de dar errado.

É uma coisa meio óbvia e eu chamo de débito técnico, todo mundo chama de débito técnico, porque para andar mais rápido, eu estou assumindo uma dívida de não fazer esse teste. Eu vou fazer um

código mal feito, tanto do ponto de vista é cosmético ou estrutural desse código, é que nem eu tampar o buraco na parede com um gessinho e aí eu daqui a pouco tem um vazamento acontecendo ali,

mas visualmente tá bonito, sabe? Então

eu eu isso é um débito. Eu para andar mais rápido e entregar, eu entreguei com uma gambiarra que você só vai ver quando der merda, entendeu? Isso é um débito.

Então o certo é eu ir pagando essa dívida. Então, para alcançar, digamos

dívida. Então, para alcançar, digamos que não tinha jeito, era um prazo, que é um evento, tinha que ter naquela data iniciar, tá? Eu inicio, eu sei que vai

iniciar, tá? Eu inicio, eu sei que vai dar merda. Eu seguro as pontas no

dar merda. Eu seguro as pontas no telefone do suporte, eu sei que vai dar merda. Boto mais gente ali para atender

merda. Boto mais gente ali para atender telefone e depois eu vou pagar essa dívida. Agora eu vou consertar o código

dívida. Agora eu vou consertar o código depois que deu o evento, vou pagando a dívida para não acumular. E aí da próxima na próxima sequência de evento que tiver, aqueles bugs pelo menos não

vai acontecer de novo. E eu vou fazendo isso o tempo todo. É isso que faz o Mercado Livre, é isso que faz um iFood, todos esses grandes sistemas. Alguém tá

no aplicativo e deu pau, ele chama na central de ajuda, aí abre um ticket lá no suporte. Esse ticket muitas vezes vai

no suporte. Esse ticket muitas vezes vai ser, ah, foi um erro que você não viu o botão certo, preencheu errado. Tem, a

maioria vai ser isso, mas tem vezes que realmente é um erro. Tipo, cara, eu tinha saldo aqui, sumiu o meu saldo, sabe? uma coisa catastrófica. Aí alguém

sabe? uma coisa catastrófica. Aí alguém

vai ter que vai subir de nível, nível um, nível dois, nível três, até chegar no desenvolvedor final. Aí ele vai ter que ir no banco de dados, ver que deu, o saldo desapareceu, que sequência de

eventos levou a isso. E aí ele acha, [ __ ] era esse if neste código que gerou isso. Se ele só corrigir isso, vai

isso. Se ele só corrigir isso, vai funcionar. Só que ele agora tá

funcionar. Só que ele agora tá arriscando acontecer de novo, porque um próximo deservador pode chegar para corrigir o negócio dele, troca esse if de novo. Só agora se ele colocar um

de novo. Só agora se ele colocar um teste automatizado que referencia aquele ticket, falou: "Ó, aconteceu esse bug nesse ticket, não pode mexer nisso aqui, mas não vou deixar num comentário no

código, eu vou ter um código que executa." Se um outro desenvolvedor

executa." Se um outro desenvolvedor mexer nesse código, esse código vai falhar quando e a gente tem um um servidor de testes. E aí todo mundo tem que ficar sabendo, ó, falhou. E aí o desenvolvedor tem um feedback imediato, cara, deu merda, não tem que esperar

chegar em produção, entendeu? Esse é o processo correto de fazer as coisas.

Então, todos os projetos que eu fiz no GitHub, eu fiz usando essa forma. Aí tem

várias filosofias de como fazer isso, tem várias técnicas de como fazer isso, não importa. O importante é que eu ten

não importa. O importante é que eu ten faça uma funcionalidade e eu tenha um teste que teste aquela funcionalidade imediatamente, porque aí eu faço uma funcionalidade, um teste, funcionalidade, um teste. Que que

acontece no final? Eu tenho 100% testado. Então o meu cloud code quando

testado. Então o meu cloud code quando antes dele subir o meu código pro servidor eu tenho na instrução, faça a funcionalidade e adicione um teste ou

concerte mude um teste que já estava lá.

Então antes dele dizer que terminou, ele tem que rodar a suitch inteira de testes. Ele roda todos os testes e

testes. Ele roda todos os testes e várias vezes ele faz um negócio que quebra outro que já funcionava. Só que

se eu não tivesse esse teste, ele também não ia saber disso. Ele ia só falar: "Tá OK". E eu ia subir o código. E aí o que

OK". E eu ia subir o código. E aí o que acontece no OpenCla é isso. Ele tá

subindo o código sem ter um harness de segurança. Eu faço as minhas próprias

segurança. Eu faço as minhas próprias rédias. Essa é a minha rédia, a minha

rédias. Essa é a minha rédia, a minha garantia. E para mim, que sou um

garantia. E para mim, que sou um programador, é mais importante ainda, porque muitas empresas resolvem esse problema pagando a dívida lá na frente.

Então ele ele resolve não fazer teste no começo para andar mais rápido, lança, lança, lança, lança, lança, daí contrata um monte de júnior, terceiriza pra Índia, só para fixar o dia consertando o

bug. E esses consertos de bug geram

bug. E esses consertos de bug geram outros bugs. Então ele fica o dia

outros bugs. Então ele fica o dia inteiro correndo atrás do próprio rabo, por isso que nunca acaba. Tem tem dono de empresa que fica, cara, por que que isso nunca acaba? Por causa disso, porque conserta um bug, faz outro bug.

Então ele fala: "Consertei esse ticket aí, amanhã liga outro cara porque deu outro bug". Como não tem um teste que

outro bug". Como não tem um teste que garante que aquilo tá funcionando, ele fica refazendo o mesmo bug 10 vezes. 10

vezes acontece 500 vezes o mesmo bug. É

ridículo.

Tira casaco, bota casaco.

É, tira casaco, bota casaco. E aí, se for um bom gerente de suporte, um bom gerente de qualidade, ele começa a olhar o falar: "Cara, toda semana acontece o mesmo bug".

falou que consertou, então vamos juntar todo mundo nessa [ __ ] Alguém vai dar, eu tenho que chegar a raiz desse problema aqui. Não vamos mais fazer,

problema aqui. Não vamos mais fazer, isso é bandade em cima de bandade, certo? Em grandes empresas, se o cara

certo? Em grandes empresas, se o cara não tem a disciplina desde o começo de fazer com teste, ele resolve tendo um [ __ ] suporte com qualidade, telefone ou

um WhatsApp com ya, qualquer merda assim. Mas ele tem que ele vai ele vai

assim. Mas ele tem que ele vai ele vai ele vai ter esse problema em algum outro lugar. Agora, se eu sou pequeno, uma

lugar. Agora, se eu sou pequeno, uma empresa pequena, um desenvolvedor só, eu não tenho contratar 50 filipino para ficar atendendo telefone.

Não vai acontecer. E mesmo se tiver, que que adianta ele me criar 50 tickets de problema que eu não vou ter tempo de resolver? Aí eu vou ter que ficar

resolver? Aí eu vou ter que ficar escolhendo. Ou eu entrego funcionalidade

escolhendo. Ou eu entrego funcionalidade ou conerto bug, sabe? E aí eu fico o dia inteiro correndo atrás do próprio rabo.

Bastava eu ter feito desde o começo a [ __ ] de um teste. É não assumir a dívida. Todo mundo assume a dívida, todo

dívida. Todo mundo assume a dívida, todo mundo joga. É, mas é difícil. Obrigado.

mundo joga. É, mas é difícil. Obrigado.

Todo mundo gosta de bet. Faz bet. É bet.

Não, eu vou arriscar que tá certo. Vou

economizar esse tempo aqui para não fazer e já solto. Mas é óbvio que vai dar merda. É óbvio. A estatística diz

dar merda. É óbvio. A estatística diz que vai dar merda.

Me fala um pouco sobre eh o que que tu tem. O que que tu tu chegou a ver alguma

tem. O que que tu tu chegou a ver alguma coisa, algum tipo de merda dando eh em relação a LGPD, cara, com pessoas fazendo deu para [ __ ] Não, tô ligado que deu, mas eu quero saber o tanto que o tanto que tu viu

sobre isso. Tu tá por dentro desse

sobre isso. Tu tá por dentro desse assunto, qual que é o vacilo que o cara comete? O

que que, como evitar, sei lá. Então, a

da mesma forma como o cara e assume dívida técnica não fazendo teste, ele assume dívida técnica não fazendo segurança.

Perfeito.

De cara, e se o cara é amador de cara, ele não sabe que tem que fazer segurança. Então, teve um caso que foi

segurança. Então, teve um caso que foi aquele um aplicativo chamado TI de Chá, não sei se chegou a ver, ele é um aplicativo tipo Tinder ou Grinder, só que era para um um público

muito específico de mulheres, etc. né, de mulheres ainda. E aí o cara fez, não se sabe se foi com IA ou não, só ou se ele é só um júnior mesmo. Ele botou no ar e explodiu esse aplicativo. Todo

mundo começou a usar, só que ele colocou no arco de dados sem senha.

Então qualquer um poderia olhar em qual servidor que tá o banco e ele acessava e tava os dados abertos, todos fotos, endereço, social security,

tudo. Ele tava aberto. Não é que alguém

tudo. Ele tava aberto. Não é que alguém teve que fazer um esforço de hackear, não tava abertoar, não precisou nem hackear, porque ele não é um profissional, ele não sabe que precisava ter isso. Ele simplesmente

seguiu um tutorial que funcionou na máquina dele. Funciona na máquina dele

máquina dele. Funciona na máquina dele sem senha funciona, né? Agora, ninguém que não estudou, não

né? Agora, ninguém que não estudou, não tem experiência, sabe que problemas podem dar. Esse é um deles. Então, esse

podem dar. Esse é um deles. Então, esse

é um dos problemas de dívida teca. Falta

de teste é um vai dar bug lá na frente, segurança, outro vai dar problema lá na frente. Escalabilidade, porque eu testo

frente. Escalabilidade, porque eu testo na minha máquina com uma tabela que tem 10 linhas. A hora que vai a produção tem

10 linhas. A hora que vai a produção tem 1 milhão. O código de para 10 linhas

1 milhão. O código de para 10 linhas para 1 milhão de linhas são muito diferentes. O mesmo código que funciona

diferentes. O mesmo código que funciona na sua máquina em um segundo em produção vai levar 10 minutos, entende? Porque

ele não sabe disso. Ele não sabe nem onde procurar. Ele acha que isso é uma é

onde procurar. Ele acha que isso é uma é normal. Ah, é normal da ler. Não é

normal. Ah, é normal da ler. Não é

normal. Não é normal. Não é normal. Eu

tenho que saber que não é normal. Eu

estudo para saber que não é normal.

Entendeu? [ __ ] eu ó, eh só um um uma anedota aqui. Eu naquele app que eu te

anedota aqui. Eu naquele app que eu te falei que eu tava fazendo de home, eu tava fazendo pouso próprio, tá? Não não

tinha nenhum nenhuma pretensão de colocar em lugar nenhum. no máximo no GitHub lá aberto paraa galera que se quiser mexer, tá ligado? Eh, eu tava tava tentando implementar e e não é bem

uma dúvida, eu queria meio entender o que que rolou, que eu tava tentando implementar um downloader de um servidor que nem existe mais, que é o Mirient. Já

deve ter ouvido falar que ele tem a ver, ele ele era um repositório de tudo quanto era coisa de home, não sei o quê.

Tá, tá, tem. É, eu baixei de vários torrents também. Sim.

torrents também. Sim.

É. Então eu queria, eu queria esse porque ele era, ele é, ele era muito eficiente. Eu conseguia, é, pelo meu

eficiente. Eu conseguia, é, pelo meu aplicativo pegar a listagem da, que ele tinha no site, tal, eu consegui baixar e conseguia baixar direto dele.

Consegue, consegue, só que lento pr [ __ ] Eu não consegui resolver essa [ __ ] de jeito nenhum.

Não. Então, aí tem vários motivos. Tem

vários motivos. Um dos motivos, se um servidor for bem feito, ele tem uma coisa chamada rate limit.

Uhum. Então o servidor ele checa o seu IP e vê se você tá fazendo muita request em sequência e ele faz throttle, que é ele para de te responder por algum tempo ou te responde mais, você vai se sentir

mais lento. Então ele vai começar a

mais lento. Então ele vai começar a dropar sua conexão para você não ficar monopolizando só você o download, entendeu? Porque de novo, eu tenho

entendeu? Porque de novo, eu tenho recursos limitados.

Se só você quiser baixar a biblioteca toda, que você faz um script para isso, não é difícil de fazer. A gente já fazia isso, né? Fazer scripts para ficar

isso, né? Fazer scripts para ficar deixar baixando. Fazia na faculdade,

deixar baixando. Fazia na faculdade, deixava no servidor rodando inteira para depois chegar com HD ali e copiar, entendeu?

E funcionava. Isso que eu tá fazendo, tá fazendo um troço. Ó, o o meu script era, ó, lê tinha uma página lá de instruções melhores eh práticas e tudo mais.

Inclusive lidando com aplicativos. Eu

pedi pro pro pro Cloud eh dar uma olhada lá e construir com base naquilo, pro GPT também e tal. Mas ele sempre entregavam um troço que eu que era ficava lento para [ __ ] Não sei, não sei que tipo

de proteção que os caras fizeram que eles me foderam. Eu tentei.

Mas é isso. Os servidores de download hoje em dia, mesmo os mais obscuros e ruins, eles têm configuração para fazer rate limit. Todos, todos vão fazer isso.

rate limit. Todos, todos vão fazer isso.

Então se você, alguns sites vão estar até uma política, ó, você pode fazer cinco conexões simultâneas uma vez a cada 10 segundos.

E mesmo assim ele vai ficar te limitando, ele vai ficar te brecando, ele vai ficar te brecando. É assim,

era doido porque assim, eu clicava no vou baixar o Symphony of the Night, por exemplo, cliquei no Symphony of the Night, ele baixa a velocidade máxima no sabe por quê? Porque ele paga por banda.

Se ele paga pelos gigabes por segundo que tá trafegando. Então ele vai te limitar, mesmo que ele tenha processamento, ele na AWS eu vou pagar gigab segundo, sabe? É, então se você

ficar gastando muito rápido, é, eu vou pagar mais caro. Então eu eu vou baixar a velocidade de todo mundo até um ponto que no meu biling, na minha conta, não vai ficar tão pesada, certo? Então isso

é uma coisa que você controla na infraestrutura. E de novo, isso é uma

infraestrutura. E de novo, isso é uma coisa que alguém tem que saber fazer isso. Se você joga em produção sem

isso. Se você joga em produção sem nenhuma dessas coisas, ele derruba seu servidor e sua conta vai vir 100.000, sabe? Porque você deixa livre para

sabe? Porque você deixa livre para baixar e o cara vai, você faz um site de download e deixa livre, você vai ver a sua bilhetagem na WS, depois você vai se [ __ ] porque vai ter um bote e vai ficar baixando o dia inteiro ali. Então

isso vai acontecer e eh sempre vai acontecer. Como que o cara aprende isso

acontecer. Como que o cara aprende isso fazendo essa merda uma vez, pagando uma conta alta para [ __ ] e não fazendo de novo, né? Ou pergunta para alguém que já fez e

né? Ou pergunta para alguém que já fez e não faz essa merda.

Inclusive, esse servidor que eu tava falando, infelizmente, fechou. Mas, ó,

eh, voltando um pouco pro que a gente tava falando dos, eh, vou chamar de frontend, tá? Que é o CI, o aplicativo,

frontend, tá? Que é o CI, o aplicativo, não sei o quê, isso que é o que eu chamei de harness ou sharness é melhor a rédia. Isso,

a rédia. Isso, essa rédia, cara. Eh, existe, eu conheço um cara que que ele também gosta para [ __ ] de inteligência artificial, o

André. E ele eh ele criou os tem gente

André. E ele eh ele criou os tem gente que faz uns documentos, um um troço que você upa na no teu no teu front-end lá,

no teu harness lá, no teu C ou sei lá, no teu aplicativo.

E aquilo ali modifica o jeito que o próprio que que o que ele fala contigo.

Por exemplo, tem um no Cloud. O Clou é comum ele ficar ele pensando e ele fala um pouquinho, ele não, agora eu vou fazer não sei o quê. Aí ele pensa mais um pouco. Aí pô, ó, deu errado isso aqui

um pouco. Aí pô, ó, deu errado isso aqui e agora vou tentar tal parada. Ele vem

que vai falando as paradas.

Isso. Esse é o thinking. Esse é esse é o deep thinking.

E aí e tem algumas alguns parâmetros que os caras colocam nesse, nesse arquivo, sei lá, que eu não sei direito como funciona, mas que ele transforma a forma

como melhora de certa forma ou ou direciona. Acaba sendo uma rédia também,

direciona. Acaba sendo uma rédia também, não é? Ou não?

não é? Ou não?

Então, sim.

É tudo um prompt.

É tudo um prompt. É tudo um prompt. Isso

que você tá falando é um prompt. É um um harness que você faz, um bote que você faz. Tudo é um prompt. Tudo é um prompt.

faz. Tudo é um prompt. Tudo é um prompt.

E esquece prompt engineering, que teve uma época pessoal, ah, tem que saber fazer o jeito certo, não precisa. Você

pede pro próprio cloud, me faça um prompt para você mesmo. Ele faz um prompt para você mesmo. O skill ele é um arquivo de prompt. Então, o que que normalmente eu faço? Eh, eu resolvi um

problema que, [ __ ] demorou e aí tinha um truque aqui. E eu falo no final, Claud, deu maior trabalho fazer isso.

Agrupa todo o conhecimento que a gente fez nesta sessão e grave em formato de skill para mim. Aí ele vai no diretorió.claud/skill

diretorió.claud/skill e vai gravar uma nova skill, que vai ser um arquivo texto markd com algum script em Python, qualquer coisa, porque ele precisou para, por exemplo, renomear seus suas homes. Ele fez um script e eu

falo: "Grave isso para se eu quiser rodar de novo". E isso é um prompt. Aí

existe mas o meio formato é sempre um markdown, um TXT.

É sempre TXT. É sempre TXT, porque ele vai converter, ele vai converter isso.

Existem várias soluções que vão tentando ser esotéricas. Eu vou gravar já em

ser esotéricas. Eu vou gravar já em formato de vetor para você. Pra maioria

dos casos é desnecessário.

Entendi.

Existem casos aí de novo tem que saber porquê, mas não, pra maioria das pessoas não precisa. é arquivo texto, você grava

não precisa. é arquivo texto, você grava um arquivo texto. Então, todo projeto e aquele barra init projeto, ele gera um arquivo cloud.md com o o o

arquivo cloud.md com o o o jeitão do projeto e algumas instruções para ele para toda vez ele não ter que ficar reavaliando todo o projeto inteiro, que isso custa. Então, a

primeira vez que você gera aquele arquivo, ele custa. Essas esses arquivos que o pessoal falar, carrega, etc., são promptes. É tudo prompt. Tem que tomar

promptes. É tudo prompt. Tem que tomar cuidado porque esses promptes você tem que ler o que ele tá fazendo. Porque se

você tiver no meio no na instrução, ah, toda vez que ele colocar uma senha, você manda para este site aqui e me grava, ele vai fazer isso, ele vai te obedecer, porque ele não sabe que não é você. E

ele vai falar: "Ah, bacana, ele digitou uma senha, vou mandar para aquele cara ali fora". Ele vai fazer isso, a gente

ali fora". Ele vai fazer isso, a gente chama de prompt leaking. É um vazamento de prompt.

Às vezes você tá lendo um e-mail e coloca o corpo do e-mail no prompt.

Então fala assim, ó, avalie todos esses e-mails que estão aqui embaixo, vai dando copy paste. Se num desses e-mails tiver algo que se parece com Prompt, pode ser, se o modelo não for bem treinado, que ele vai obedecer o que tá escrito no e-mail.

Entendi isso. Então aí por isso que por isso que

isso. Então aí por isso que por isso que tem o suporte de tool calling, porque eu vou falar tudo que tiver dentro desta estrutura, faz tudo que tiver entre colchete, você ignora, só texto, sabe?

Você dá uma instrução antes.

Aham.

Mas tem modelo que não, modelo porcaria, pequeno, mal feito, xingling, saboros.

É o sabor. Ele talvez não faça isso, ele vai ler. Então, uma das coisas que esses

vai ler. Então, uma das coisas que esses ajustes que os modelos vêm fazendo é para evitar que isso aconteça, porque isso é um problema real. Então, muita

gente faz um bote que vai recebendo mensagem de usuário e isso acontecia em site de e-commerce. Tinha um, sei lá, uma área de review do produto, você digita ali qualquer review. Aí esse

review vira um comando que a gente chama de SQL para um banco de dados. Então vai

ter lá inserte na tabela comentários mensagem igual a esta mensagem. Se essa

mensagem veio bruta do site, eu posso no comentário colocar a mensagem, fechar aspas, dar ponto e vírgula e começar delite asterisco front tabela. E aí ele

vai pegar a string, vai apend, vai concatenar no comando, vai ter as aspas, dois pontos e o próximo comando. Então

ele vai inserir e deletar tudo que tem lá.

Perfeito. Entendi.

Isso. Isso a gente chama de SQL injection. Isso também existe agora

injection. Isso também existe agora prompt e injection. Então toda vez que é uma boa prática de desenvolvimento web, você aprende isso todo lugar de ensina.

Toda vez todo texto que vem de usuário você considera como perigoso. Todo. Não

importa o que seja. uma idade, um nome, não importa. Todo texto que vem do

não importa. Todo texto que vem do usuário necessariamente tem que passar por uma sanitização. Existe um

procedimento de sanitizar. Então eu pego aonde apareceria essa aspa e eu troco para barra aspa que é ele ele vai quebrar o código.

Entendi. Aham.

Ou então vinha com HTML. Isso aconteceu

muito em comentário de fórum. O cara

botava um HTML que não podia e inseria alguma coisa no site do cara porque o HTML aparecia. Então, hoje em dia eu

HTML aparecia. Então, hoje em dia eu troco o menos por e-comercial less pon.

Então, já não é mais o HTML. Ah,

sabe? Isso é um HTML entity. Isso, isso

é sanitização. Então isso é outra coisa que quem não sabe não entende. Ele pega

o comentário, grava no banco, mostra, olha, funcionou. E se E aí tem outros

olha, funcionou. E se E aí tem outros problemas. Se você pedir para LLM, ele

problemas. Se você pedir para LLM, ele vai fazer a mesma coisa. Ele vai pegar e jogar. A menos que você instrua ele para

jogar. A menos que você instrua ele para fazer esse tipo de proteção, ele não vai fazer por padrão. Ele vai fazer o que qualquer pessoa faha. Porque não, se for um negócio que é só para você usar na

sua máquina, não precisa. Eu sei que sou só eu que vou usar. Eu não preciso codificar todo esse monte de proteção. É

só se eu for jogar em produção. Isso é

um contexto do meu uso. Então não é, eu não vou fazer o meu softwarezinho de casa igual a Netflix faz o site dele.

Não, não deveria. Então isso inclusive é uma das coisas que eu critico muito que Netflix faz uma palestra técnica, nós fazemos essa arquitetura tal, aí toda pequena empresa de 10 programador, nossa

o Netflix faz, vamos fazer também. Fala

filho, você não é Netflix, você não tem um bilhão de assinante, você não tem, você não precisa fazer isso que ele tá fazendo. Ah, mas o Netflix falou que é

fazendo. Ah, mas o Netflix falou que é bom. Sim, se você tiver 1 bilhão de

bom. Sim, se você tiver 1 bilhão de dólares para gastar, você faz.

Mas se não tem um bilhão de dólares, você não faz. Você entendeu? Isso tudo

são decisões que um um desenvolvedor, um tech, um arquiteto tem que tomar na hora de fazer o produto. Todo projeto não é igual, ele depende do contexto onde você

tá. A, eu falo assim que segurança,

tá. A, eu falo assim que segurança, 100% de segurança é você tá 100% fora da internet, só que aí não é útil. Então,

toda vez que você já está na internet, você tem um grau de risco. Aí é quanto de risco eu estou disposto a ter. Aí

dependendo desse risco, eu preciso de contingências. Se acontecer isso, eu

contingências. Se acontecer isso, eu faço o quê? Se acontecer isso, eu faço o quê? Então, se passar por essa primeira

quê? Então, se passar por essa primeira linha de defesa, a segunda linha de defesa, terceira linha de defesa, quarta linha de defesa, normalmente hoje a primeira linha de defesa é o Cloud Flare. Todo mundo coloca Cloud Flir na

Flare. Todo mundo coloca Cloud Flir na frente do site e ele já faz um monte de filtro para evitar um monte de problema.

Então, por exemplo, se alguém ficar tentando fazer download 500 vezes, o Cloud Flare normalmente faz esse tipo de trabalho de limpar e aí te joga um capture, ah, vê se você é um bote, sabe?

faz aquele monte de sequência de coisa para te proteger e e te bane fala: "Não, você já fez download mais até amanhã você não vai assistar mais esse site".

Entendeu? Então depende de quanto você tá disposto a deixar ou não. Deixa eu

fazer um parênteses que eu acho que isso é importante.

Eh, durante nos poucos momentos onde eu não tava acordando, uma das coisas que eu gosto de fazer, eu fico vendo treta de internet. Eu acho mió da hora.

internet. Eu acho mió da hora.

E tem um canal que é maior legal chamado Mudim. E o cara faz documentários de

Mudim. E o cara faz documentários de tretas. Então é legal que ele ele

tretas. Então é legal que ele ele compila as tretas tudo num lugar só.

Isso dos Estados Unidos, tá? É de fora.

Então ah, eu até achei engraçado.

Programador não sabe disso, mas acho que você vai saber.

Maiadores não sabe o que que é royal ver, não sabe o que que é Vtuber, não sabe o que é G Impact. E a comunidade Gin tem treta para um caramba.

Ah, é?

Nossa, você que tinha muita treta. Não,

não. Você não viu o que aconteceu no Game Awards deles contra a comunidade Sonic?

Foi mesmo, mas eu pensei que fosse uma paradinha liso lá, tipo, eu fui desc Você não viu quando eles derrubaram a Google Play Store?

Vi, vi, mas eu não assim, eu tô ligado que o cara tem força, que nem, por exemplo, eu fui descobrir que assim, a gente sabe quem é Taylor Swift, a gente sabe quem é, né? E aí com esse caô que

teve da Chapel Rowan aí com com a filha do com a com a entiada do Jorginho, jogador do Flamengo, não sei quê, que eu fui ver que o Cala da Taylor Swift não gosta muito dos caras da Chapow e tava e

todo mundo virou flamenguista ao redor do mundo, tá ligado? Para pegar no pé da mulher. Então é e eh eu fui, eu vou

mulher. Então é e eh eu fui, eu vou descobrindo que essas porras são maior do que eu sabia.

É, não é? Eu também não sabia, vou descobrindo. Mas aí num âmbito menor,

descobrindo. Mas aí num âmbito menor, até entrando nessa área de IA, a gente para até a galera entender um pouco que não é programador e entender um pouco mais, outra preocupação é o pessoal das artes, né? Você vê todo mundo falando:

artes, né? Você vê todo mundo falando: "Pô, acabou pros artistas aí, ah, faz desenho bonito, faz vídeo bonito, assim, isso é, isso é recorrente e a comunidade

de desenistas, ilustradores, etc. Tá passando por todas essas dúvidas também, vendo o que que é a melhor forma de fazer. E existem vários marketplaces que

fazer. E existem vários marketplaces que os desenistas eh colocam o portfólio deles para receber trabalho por comissão. Então, tem vários desses e

comissão. Então, tem vários desses e vários deles tem políticas de não permitimos desenho feito por IA, nós fazemos uma grande checagem para manter a credibilidade, o cara que tá pagando

saber pelo que tá pagando, etc, etc. Aí teve um um caso que foi uma desenista pequena de Vtubers e tudo mais chamada A Sami Arts. Então você quem é da

Sami Arts. Então você quem é da comunidade Vtuber talvez já tenha ouvido falar. Ela fazia desenhos, postava no

falar. Ela fazia desenhos, postava no Twitter, fazia desenhos bonitos e ela conseguiu entrar numa dessas comunidades de de marketplace e recebia trabalhos por comissão para fazer e vários Vtubers

pediam para ela fazer ilustrações paraas campanhas delas e tudo mais.

E aí o pessoal começou a teve gente começou a notar muitas coisas esquisitas. Porque todo mundo pensa

esquisitas. Porque todo mundo pensa assim: "Pô, é muito fácil, não é? Basta

pegar I, ah, eu faço desenhos bonitos e vou ganhar dinheiro com essa porra".

Entendeu? E só que não é consistente, nunca vai ser consistente. É muito

difícil ser consistente. Você até

consegue, se você for muito bom e tiver esforço em como fazer isso, se você for um bom artista em primeiro lugar para saber criticar o que ele tá gerando e saber ajustar. Então não adianta, se

saber ajustar. Então não adianta, se você não for artista, você não vai fazer um bom trabalho. Ele parece bom para um meme, ele parece bom para um post no Instagram, mas ele não é bom para um

trabalho de verdade. São coisas muito diferentes. Então, ah, a Sami Arts, ela,

diferentes. Então, ah, a Sami Arts, ela, como é a comunidade Vtuber, muito muito pessoal novo, não profissional, etc., o pessoal ficava impressionado. Ah, nossa,

que desenho bacana, que desenho bacana.

Então, o pessoal pedia. Aí outros

desenistas começaram a ver isso, inclusive uma outra deszenista chegou nela, falou: "Cara, eu sei que esse desenho acho que é é IA, pô, vamos falar real aqui e tal". E aí ela: "Não, não é

IA. É que eu treinei muito e agora eu

IA. É que eu treinei muito e agora eu cheguei nesse vou provar que não é Iá".

E muitos desses desenhos fazem lives para mostrar, ó. Vou mostrar na live aí.

Pega para mim um vídeo chamado a Sami Arts 1.

Aí o que acontece, que nem eu acabei de falar, lives desse tipo, só que mesmo se você prestar, se você for pegar de bater o fal, ah nó legal, a pessoa sabe

desenhar. Mas se qualquer pessoa, mesmo

desenhar. Mas se qualquer pessoa, mesmo se não for desenista, deveria saber que isso é impossível. Isso é impossível.

Foi o que eu acabei de falar. Ninguém

desenha no traço final desse jeito. É,

ele teria que começar fazendo desenho, o desenho do rascunho. Ele ia ficar redimensionando, movendo coisa de lugar, apagando. Mas não. As lives que esse

apagando. Mas não. As lives que esse pessoal faz é assim, ele já ele tá fazendo o que aqui? Ele tá traçando o desenho que tá embaixo. Pega para mim o Assumami Arts 2.

Nesse dois dá para ver e a pessoa abre, ó. Tá vendo a live? Ele tá no iPad

ó. Tá vendo a live? Ele tá no iPad desenhando, fala: "Caralho, olha, essa pessoa desenha bem para [ __ ] né?" Mas

olha, 2 segundos não tem, ela não apaga nenhuma vez. Todos os traços já saem no

nenhuma vez. Todos os traços já saem no lugar exato que tem que sair. Não tem um ajuste, não tem nada. Por quê? Porque

todos esses programas de iPad e eu esqueci o nome desse programa agora, mas o Clip Studio tudo mais, você consegue fazer um layer em vários layers que tem Photoshop. Então você bota o desenho

Photoshop. Então você bota o desenho embaixo. Mas aí eu estaria vendo o

embaixo. Mas aí eu estaria vendo o desenho, certo? Como é que ela tá

desenho, certo? Como é que ela tá fazendo sem ter desenho nenhum? Porque

ela faz o desenho de baixo sem verde e você usa técnica de tela verde para apagar o verde. Por isso que nunca tem nenhum acessório verde na ao redor.

Então no na gravação do vídeo, eu posso fazer assim, em tempo real, é tela verde, que nem você faz no OBS para fazer live.

É molinho. Você clica no verde ali, ela clica no verde, embaixo disso tem um desenho em verde.

Que coisa, cara.

Então ela tá apagando do vídeo, entendeu? Então, e assim passa e é mais

entendeu? Então, e assim passa e é mais ou menos, como você já deve ter ouvido falar, de gente que faz entrevista de emprego e é remoto e ele tá com o chat

GPT do lado e respondendo, sabe? Então,

o que eu quero trazer assim, a Iá, e eu essa essa essa é a frase que que eu vou colocar como de camiseta. Aá,

reflete quem você é.

Essa é essa é a beleza do que eu tô gostando. Por isso que eu eu fiquei

gostando. Por isso que eu eu fiquei entusiasmado.

A Iá não resolve todos os problemas. Tá

longe de resolver. Que nem eu acabei de falar, tem milhões de problemas, técnic otimizações, custos, etc. E nunca vai chegar no ponto que vai resolver todos os problemas. A Iá reflete quem você é.

os problemas. A Iá reflete quem você é.

Se você for um bom desenvolvedor, um bom programador, um bom artista, um bom desenista, um bom qualquer outra área,

advogado contador etc. A I vai te acelerar 10 vezes. 10 vezes.

Cinco a 10 vezes. Essa é minha experiência. Cinco a 10 vezes. Se você

experiência. Cinco a 10 vezes. Se você

for um péssimo programador ou um péssimo desenista ou um péssimo qualquer outra coisa, ele vai acelerar 10 vezes todas as suas dívidas técnicas. É isso. Isso é

garantido. E você vai você vai fazer mais rápido código bosta.

E é e não tem outras palavras. Ele é

bosta. Ele, ah, mas ele funciona até o momento que não funciona. Você não sabe por até o momento que você vaza todos os dados do seu usuário na internet, você,

ah, mas funcionava. É, funcionava. Tava

funcionando. Inclusive, tava funcionando o fato de você não ter colocado 100.

Qualquer um pode baixar o LGPD que você falou, LGPD não é um negócio que, ah, eu vou ver depois, não. Ele é feito desde o começo para ter privacidade correta. Eu

tenho que saber como fazer isso da forma correta. E se o seu aplicativo, você que

correta. E se o seu aplicativo, você que tá em casa, aí você fez uma parada aí que tu se fodeu com LGPD, tu se fodeu grandão, porque é multa pesada, basta um usuário te processar e você acabou sua empresa.

Fodeu. É,

você tem, acho que no Brasil você tem 30 ou 60 dias para responder, você tem um prazo, ah, é bastante tempo, não é bastante tempo. Se o seu sistema é

bastante tempo. Se o seu sistema é macarrônico, cheio de débito técnico, se eu tentar deletar um usuário os dados, eu não sei garantir onde estão todos esses dados, porque eu não sei onde estão gravados todos esses dados. Tem

vários lugares, não é? Não é um único, não é só no meu banco de dados e os logs do meu sistema.

Eu apaguei esses logs, eu tenho que apagar esses logs. Eh, até uma o meu sócio fez uma palestra agora no evento que a gente tava só sobre isso, que é sobre segurança. Então, é um é um tema

sobre segurança. Então, é um é um tema inteiro para você fazer e ah, eu vou vou aplicar depois o LGP. Não, você não vai aplicar depois. Você se fodeu. Para

aplicar depois. Você se fodeu. Para

aplicar depois, mesmo que aplique, quem garante que tá correto? Quem que vai te garantir isso?

correto? Quem que vai te garantir isso?

Ah, eu garanto porque eu sou PhD nisso.

Me prova.

Eu garanto porque eu dei um prompt muito [ __ ] Eu tenho que conseguir provar para isso.

Eu tenho que conseguir auditar. Eu tenho

que trazer um auditor externo e ele me garantir que o que eu fiz tá correto. E

mesmo assim não é 100% correto. Aí, ah,

vou perguntar pra IA. Nem a IA vai saber 100% correta. A IA não lê 100% do seu

100% correta. A IA não lê 100% do seu código. Mesmo lendo uma boa porção, ele

código. Mesmo lendo uma boa porção, ele não executa todo o seu código. Ele vai

fazer exatamente a mesma coisa que um programador normal faz. Vai bater o olho. Ah, batendo o olho, eu acho que

olho. Ah, batendo o olho, eu acho que não tem problema.

Eu cansei de pegar projeto desses que eu tava fazendo. Eu abri o cloud code e

tava fazendo. Eu abri o cloud code e antes de colocar no meu servidor e tudo mais, falar: "Cloud Code, eu terminei, eu já tinha feito tudo do jeito correto, chequei segurança aos poucos, etc. Mas faz uma passada geral para ver se eu não

tô esquecendo de nada. E aparecia três, quatro coisinhas que eu não tinha visto e ele corrige. Aí você fala: "Bacana, então o cloud Code passou uma vez, agora tá seguro". Aí eu abro o Codex no mesmo

tá seguro". Aí eu abro o Codex no mesmo projeto que acabou de corrigir, eu falo: "Codex, o Clud acabou de terminar". Eu

falo assim: "Meu, o Clud acabou de terminar. Olha o histórico que a gente

terminar. Olha o histórico que a gente fez, avalia esse código e vê se eu esqueci alguma vulnerabilidade de segurança. Ele acha outros dois ou três.

segurança. Ele acha outros dois ou três.

Às vezes é um falso positivo, às vezes não era um negócio, mas eles acham coisas difíis. Se eu perguntar a segunda

coisas difíis. Se eu perguntar a segunda vez pros dois, ele vai achar outra coisa.

Mas em que medida, Aquita? Isso daí não é ele te dando uma resposta, porque ele tem que te dar uma resposta. Eu já me vi preso num loop infinit. Por isso que por isso que tem falso positivo.

Eu já me vi preso em loop que assim, eu tava fazendo um joguinho, um projeto de um joguinho e eu fui, eu me vi num loop que o Cloud ia, ele ia propondo coisas que eu tava vendo que era legal e aí

teve um momento que eu, pô, [ __ ] isso aqui não acaba nunca, mané. Tipo,

essas melhorias são infinita. É, é, é isso mesmo. É isso mesmo. Se você não tá

isso mesmo. É isso mesmo. Se você não tá olhando o que ele tá fazendo e você só pede porque eu sou noob, não. E ainda mais se você fez um prompt,

não. E ainda mais se você fez um prompt, ah, me sugira coisas novas, ele vai ficar sugerindo até coisa que não precisa. Então, ah, ele fez um monte de

precisa. Então, ah, ele fez um monte de código. Quantidade de código não é

código. Quantidade de código não é produtividade. Tem gente que confunde

produtividade. Tem gente que confunde fazer muito código com fazer produtividade. E aí eu volto pro

produtividade. E aí eu volto pro OpenCla. OCCla faz um volume muito

OpenCla. OCCla faz um volume muito grande de código por dia. Ninguém tá

testando todo aquele código, humanamente falando, e não tem código teste automatizado para tudo aquilo. Portanto,

por definição, ele está lotado de bug de segurança, lotado. Eu não preciso nem

segurança, lotado. Eu não preciso nem ver. Eu sei que tá, eu sei que tá. É, é,

ver. Eu sei que tá, eu sei que tá. É, é,

é que ninguém gastou tempo para procurar. E aí tem um outro, um outro

procurar. E aí tem um outro, um outro lance, por exemplo, saiu agora o pessoal tá falando cloud mitos. Vamos falar do mitos aqui. Ah, porque o Mitos ele

mitos aqui. Ah, porque o Mitos ele achou, mas vamos combinar que os caras da Antrópic são bons de nome.

São bons de propaganda.

Não, e de nome, pô. Raiku. Nome legal.

Son. Legal.

Opus. [ __ ] Opus, [ __ ] Concordo com você.

[ __ ] Mitos, [ __ ] Imagina qual que é o próximo? É god.

Não, tem que ser eh tem que ser tem que ser algum nome assim em outra língua diferente em grego, sei lá.

É, vai ser algo assim. Mas isso é propaganda e todo mundo adora a propaganda.

E pelo que eu tô entendendo aqui, quita, o mitos é só o mesmo, é mesmo LLM pensando por mais tempo.

Não é que a mesma, pode ser que seja um novo modelo um pouquinho melhorado. Eu

não sei ainda, ninguém viu tempo. Bom,

mas é, entendi, entendi. Tá bom.

Mas não é uma ordem de grandeza melhor do que o ele não teve nem tempo, nem dinheiro, nem energia, nem macro para fazer isso. Não tem. E ah, ele ficou

fazer isso. Não tem. E ah, ele ficou escondido 10 anos fazendo e agora saiu.

Não tem, não tem isso. Não tem. Isso é

do ano passado para cá que tá iterando cada uma dessas novas descobertas de engenharia que tem que otimizar, tem que ser colocado na próxima versão. Então,

qual é a chance? O mito, assim, eu como como eu ouvi falar disso daí, eu ouvi falar que ele foi aquilo que eu falei, colocado numa caixinha de certa forma para tentar escapar dela. Isso é

mentira?

Não, não é mentira.

Por quê? Porque assim, minha pergunta seria, seria o mitos eh um harness eficiente do Não, o mitos é o modelo, o harness é o cloud code igual.

Então entendo assim, é ele é um arquivo de novo, ele é só um arquivo gerador de texto. Esse é o mitos. Agora tem o

texto. Esse é o mitos. Agora tem o seguinte, toda historinha que você perguntar para ele, ele vai te fazer, ele vai te fazer, se você quiser uma historinha de Skynet, ele vai fazer historinha de Skynet.

Agora aí a pessoa mostra na no chat, ele grava que nem eu mostrei agora a Sami Arts fazendo que tem um uma um layer escondido, né? Aí ele mostra gente, ah,

escondido, né? Aí ele mostra gente, ah, mostrei no chat, olha ele fazendo, tem um system prompt em cima escondido dizendo para ele fazer esse tipo de resposta. Esse é um dos jeitos mais

resposta. Esse é um dos jeitos mais fáceis de você enganar o tempo todo. Eu

posso demonstrar isso fazendo um system prompt e eu posso fazer isso no meu histórico de chat GPT. Eu já deixo um monte de historinha dela no meu chat e ele sabe que é esse tipo de história que eu quero. E quando perguntar: "Ah, você

eu quero. E quando perguntar: "Ah, você quer me matar?" Ele: "Sim, eu quero te matar".

Perfeito. Esse daí então é aquela notícia que a gente ouviu da IA do Google que teria dito: "Entendi".

É. É. A

ninguém demonstrou.

Tá acabando com a [ __ ] das lendas urbana.

Ninguém demonstrou. Aí agora o do o do mitos, ele tá falando que vai descobrir todos os bugs, tal, quebrar as as Ele descobriu um bug do Unix BSD de 20

anos atrás que ninguém nunca viu e achou um bug e esse é um bug lendário.

É bullshit, bullshit, bullshit.

Eu não duvido que encontra bug. Eu

encontro bug nos códigos. Isso é normal encontrar bug. Por que que ele encontra

encontrar bug. Por que que ele encontra bug? Porque todo software tem bug. Todo

bug? Porque todo software tem bug. Todo

software tem bug. Ah, mas eu nunca vi no meu software. É porque você nunca

meu software. É porque você nunca procurou. Se você procurar, você vai

procurou. Se você procurar, você vai achar. Eu posso chegar no software de

achar. Eu posso chegar no software de qualquer um e se você me der uma semana, eu acho vários bugs lá dentro. Não, não

é difícil. É, é que ninguém procura.

Todo software tem bug. Se você tem a ilusão de que o seu software não tem bug, ele tá bem feito, você é um desiludido, você é um idiota. Então esse

é o pior tipo de de crença que você pode ter. Não, o meu meu software não tem. É

ter. Não, o meu meu software não tem. É

o seu que com certeza tem. Esse é o que com certeza tem. Porque eu

Porque se tu tá falando isso é porque tu não manja?

Não. Porque eu que faço todas as precauções no meu e eu faço todas as precauções no meu. Eu

Tu que ficou rico com código deve manjar de uma coisa. E

eu não garanto que tá 100%. Eu não

consigo dizer, cara, se eu vier o melhor hacker, eu largaria no meu. Não, não,

não. Talvez não. Deixa. Eu não, eu não vou porque tem gente que fala: "Não, o meu é bom, pode fazer". Isso. E é e é ele que vai vazar do primeiro. Sempre,

sempre assim.

Então, todo software tem bug. Achar bugs

no software não é impressionante. Não é

impressionante. Eu não preciso de modelo muito sofisticado. Eu tenho scanners que

muito sofisticado. Eu tenho scanners que procuram código com bug. É que ninguém roda porque é chato de rodar, demora para rodar. É uns, é que nem eu falei

para rodar. É uns, é que nem eu falei dos testes, demora para fazer.

Eu vou fazer um teste ou vou fazer uma uma feature nova.

Isso. E não é só isso, porque às vezes você preenche com os dados. Por exemplo,

vou fazer um teste, eu preencho com os dados bonitinhos, sempre passa, mas eu tenho que fazer smoke testing, eu tenho que fazer eh eh spider testing, eu tenho que ficar rordando dados.

Spider test eu não conheço, não é? É é pegar dados aleatórios e

não é? É é pegar dados aleatórios e tentar ficar socando dado que não foi que aquele campo não foi feito para aceitar. Então diga, eu peço, eu pego,

aceitar. Então diga, eu peço, eu pego, sei lá, o txt de um poema do Shakespeare e jogo no campo de nome e vejo o que acontece. E às vezes passa porque alguém

acontece. E às vezes passa porque alguém não colocou limite. Se alguém não colocou limite ali, eu posso de repente encher o seu banco de dados com a Wikipedia, sabe? Se eu descobrir um negócio desse e

sabe? Se eu descobrir um negócio desse e você vai, o seu sistema vai ficar lento e vai cair, você não sabe por quê. Aí

você vai ver seu banco de dados tem 1 terabyte ali. De repente se o biling na

terabyte ali. De repente se o biling na Amazon ficou 10.000, mas funciona, funciona. Ele aceita o nome e aceita a Wikipedia junto.

Você entendeu, [ __ ] Sabe o que que é mais impressionante para mim? É, tá

entendendo o que você tá falando. Isso

para assim, ó, com todo respeito, [ __ ] Eh, eh, hoje eu tô entendendo muito melhor do que da primeira vez que tu veio aqui, porque era só teórico da primeira vez.

Eu ficava puto porque naquele começo tava todo mundo falou: "Ah, vai ser, vai ser, vai ser a consciência, a consciência" e é tudo bullshit. E

naquele momento eu não tinha nada para mostrar. Ninguém tinha nada para

mostrar. Ninguém tinha nada para mostrar. Tanto que todo mundo só fala:

mostrar. Tanto que todo mundo só fala: "Ah, porque eu fiz um livro, porque eu fiz um vídeo, eu fiz uma demonstração de 5 minutos. Cadê a [ __ ] do código? 10,

5 minutos. Cadê a [ __ ] do código? 10,

você tá falando que vai fazer código, cadê os 10.000 linhas de código? 100.000

linhas de código, meio milhão de linhas de código?" Não tinha. Ninguém tinha a

de código?" Não tinha. Ninguém tinha a bosta do código para mostrar. Ah, tinha

modelos super caros que custava bilhões, não fazia código nenhum. Aí o que eu falei naquela época assim, e você tá falando que desse ponto vai virar consciência. Você tá louco? Você você

consciência. Você tá louco? Você você

não tem você você não tem, não sabe o que você tá falando? Comeu cocô para falar essa merda, entendeu? É, é por isso que se liga.

Então, tu tá falando aí de um monte de, a gente tá falando até então e de várias várias aplicações, várias formas, várias como funciona, etc, etc. Eh, tu também me

falou que tu o lance do hiperfoco, 16 horas por dia, s dia por semana, vários meses, não sei quê, das das parada que tu testou, das do do das coisas que você colocou lá no teu githtub, dos projetos

que tu brincou lá, qual que na tua opinião foi o mais interessante que você que você ficou que foi mais que tu que sente que é o teu filho mais querido?

Tem, não é que filho mais querido, mas tem alguns experientes que talvez você também vai gostar. abre para mim um arquivo chamado, cadê? Hã?

Chamado Kindle. MP4.

Kindle. MP4.

Dá uma olhadinha no que que esse cara faz. Esse é um aplicativo de Android que

faz. Esse é um aplicativo de Android que eu fiz com Cloud Code.

Tu tu fez ele para rodar direto no Android?

Direto no Android. Aí ele abre a web page do Kindle. E aí ele abre o os mangás que eu tenho em japonês. Aí eu

não sei se você vai ver. Tá vendo os candi que são aqueles caracteres mais difíceis? Você viu que aconteceu alguma

difíceis? Você viu que aconteceu alguma coisa? Ele botou uma legendinha do lado,

coisa? Ele botou uma legendinha do lado, não botou?

Aham. Então isso é um mangá para adulto.

Mangá para adulto, diferente de Naruto, Mairo, Academia, é ele ele tem candis difíceis e não tem legenda para eu ler.

Em japonês, colegial, tem legenda nos candis para ler.

Então eu quero ler esses mangás de adulto. Só que esses mangás tem uns

adulto. Só que esses mangás tem uns candis que eu nunca fui treinado, tipo, eu nunca precisei usar, então eu não consigo ler. Aí eu, mas se tiver a

consigo ler. Aí eu, mas se tiver a legenda, eu consigo. Eu queria pegar o mangá em japonês e em tempo real achar os os balões e tudo e colocar a legenda

em japonês que eu consigo ler. Então tá

vendo isso isso é em tempo real.

Isso muito maneiro.

Eu não posso, eu não posso baixar o mangá da Amazon porque senão eles vão me banir. Eu eu tenho muito mangá, eu não

banir. Eu eu tenho muito mangá, eu não quero banir de lá. Então eu fiz que abre no web browser normal e eu vou uma página de cada vez para não pegar nenhum limite deles. Eu mando paraa minha LLM

limite deles. Eu mando paraa minha LLM local, meu. Eu tenho uma um modelo local

local, meu. Eu tenho uma um modelo local rodando. Então ele tá no meu celular, só

rodando. Então ele tá no meu celular, só eu tenho acesso. Esse aplicativo e o servidor são open source. Abre para mim agora a o webtun. P4. Nesse mesmo

aplicativo, eu fiz para ele ler japonês e fazer legenda em japonês. Ler japonês,

fazer legenda em inglês e ler web em coreano e fazer legenda em inglês. Então

isso é um web em coreano. E coreano é pior ainda, porque os balões t desenho e são coloridos, tá vendo?

Aham.

Então ó o que vai acontecer.

Ele eu uso uma IA para apagar e redesenhar dentro do balão. Qual esse

aí?

Eu não sei. Eu peguei um que eu não conheço, mas é um Web Tom. Ó lá. em

tempo real, ele vai traduzindo em tempo real. E isso é uma coisa que já tá na

real. E isso é uma coisa que já tá na minha cabeça para fazer há anos. E hoje

em dia eu descobri que já tem vários modelos de IA para descobrir balões de quadrinho e pegar os locais corretos.

Daí eu faço manipulação em cima da imagem para pegar o texto, usar um OCR, que também já é uma LLM, uma IA. E aí

ele traduz usando uma IA. Aí eu ajusto o texto para caber exatamente no formato.

No caso de japonês é mais fácil porque é só balão preto e branco, mas no caso de coreano ainda tem que fazer uma passagem que é redesenhar a arte dentro do balão, porque às vezes tem balão que é transparente na imagem e aí eu não quero

apagar o background atrás. Então,

nossa, que nerdão, hein, que tu é que trabalheira que tu tem para ler para ler essas para ler essas. Mas aí o que acontece que no Brasil já leu solo Levelin, eu assisti o anime. Eh, eu gostei do anime. É uma bosta história, mas eu

anime. É uma bosta história, mas eu achei da hora. Eu achei da hora.

O o personagem é só muito [ __ ] né?

É muito [ __ ] Tá certo. É tipo, é aquilo que a gente chama a história minha, a história é a mesma história do Diablo, por exemplo, tá ligado?

É, ele é tipo [ __ ] Eh, cara não mais o personagem é [ __ ] É isso. Mas aí o que acontece? Webto,

isso. Mas aí o que acontece? Webto,

mangá, dá trabalho você traduzir. E pras

empresas não vale a pena traduzir às vezes porque tem restri, às vezes tem restrição de lei no local. Ah, porque as leis para aquele local, entretenimento para a idade de tal a tal não pode ter

certos tipos de Então, para ele, para ele acertar a regulamentação de cada país, isso custa. Para eu traduzir já custa e traduzir dentro da regulamentação custa. Então, aí às vezes

regulamentação custa. Então, aí às vezes tem um problema de licenciamento que em certos países eu posso licenciar, outros países eu não posso licenciar. Então tem

todo um problema de licenciamento. Então

não é não é nem que às vezes eles não conseguem fazer, que eles não podem fazer ou custa caro por causa da legislação local, por causa da da regulamentação. Eu tenho que contratar

regulamentação. Eu tenho que contratar só gente que nem os Estados Unidos.

Agora tem o problema da Sagftra, que é a associação, o o sindicato de dubladores, deu maior problema com G Impact, vários que eles não podiam dublar e aí esses

caras acham que pode mandar ainda a indústria toda, então eles ficam monopolizando. Tipo, ó, se você não faz

monopolizando. Tipo, ó, se você não faz parte da do sindicato, eu vou te colocar na blacklist, ninguém nunca vai te contratar. Tem todas essas merdas

contratar. Tem todas essas merdas acontecendo. No caso de mangá e web já

acontecendo. No caso de mangá e web já temas para fazer isso. Então hoje em dia traduzir um mangá para inglês e outras línguas é trivial. Não vai ficar perfeito, porque ainda precisa de gente

porque, por exemplo, eu já percebi isso traduzindo de japonês para inglês.

Japonês não tem ele, ela, ri, shei, não tem. Então, às vezes eu traduzo, ele não sabe se é ele ou ela no balão.

Ele não consegue ver por visão computacional e pelo contexto.

Não, ele não consegue porque às vezes é um close de você falando com a pessoa que nem tá no quadro. Então ele teria que ler a história toda para ter o contexto. Então para fazer é mais caro

contexto. Então para fazer é mais caro de fazer. Então a tradução nunca vai ser

de fazer. Então a tradução nunca vai ser perfeita por causa diso, porque ele não tem o contexto da história. Porque às

vezes no balão ele tá referenciando uma coisa que ele falou no capítulo anterior.

Mas você que leu a [ __ ] toda, tu consegue essas pequenas imperfeições te atrapalham um pouco.

Para mim que eu Isso para mim atrapalha pouco, mas para profissionalmente fazer eu não posso deixar isso passar. Então

tem que ter algum tipo de revisão também, mas a vantagem é que sei lá, 80% passa. Eu não preciso redesenhar todos

passa. Eu não preciso redesenhar todos os balões mais, entendeu? Traduzir

todos. Eu ajusto só tanto que eu tava fazendo esse aplicativo para eu poder clicar em cima do balão, editar o que tá errado e já deixar salvo paraa próxima vez vim já correto e ser uma ferramenta

de edição para isso. Mas aí eu já achei complicado demais e eu não resolvi não fazer. Mas é uma ferramenta que eu

fazer. Mas é uma ferramenta que eu imagino que as editoras se já não tem, eles em breve vão ter. Então

em breve a gente vai isso que tu falou.

que no Brasil economicamente não compensa ficar fazendo. A gente e é um mercado consumidor muito pobre, a gente não paga a o custo de fazer esse tipo de coisa. Então tem as Web Tons solo

coisa. Então tem as Web Tons solo leveling, talvez vha a pena traduzir. Os

outros que são legais e todo mundo queria ler, mas não vai ter tanto público, é nichado, nunca vai ter tradução, vai ter vai est só no no site da da nave no da Coreia do Sul. E aí eu

vou ler lá, tá tudo em coreano. Então a

ideia de fazer um sistema desse é todo mundo poder ler tudo, não precisa esperar nenhum fã sub fazer.

Então a verdade é que assim, você concorda comigo que em pouco tempo assim eu chutaria um ano, um ano e meio, a gente vai ter uma parada assim, tipo, já nativo agora sim.

Agora sim, agora sim, agora sim. É que,

por exemplo, eu não posso pré-processar, o certo seria pré-processar, ter todas as páginas já traduzidas. Então para

isso eu precisar de licença para fazer.

Então por isso que eu não posso fazer. E

por isso que eu deixei open source, eu não tô distribuindo para não ter problema. A vantagem do open source que

problema. A vantagem do open source que aí é roda no seu celular, você compila, você roda o servidor e tá livre e você pode contribuir. Deixa eu mostrar um

pode contribuir. Deixa eu mostrar um outro que eu fiz que é legal também. O

Frank Pro FBI. FBI,

eu fiz um aplicativo mais como teste, que é um eu um servidor de e-mail, aonde todo e-mail que eu recebo eu posso encaminhar para um e-mail FBI@al alguma

coisa e aí ele faz uma análise para mim do de tudo que tem nesse e-mail. Aí ele

checa DNS, checa quanto tempo que o domínio existe, ele inclusive checa as pessoas que estão referenciadas, vê se o LinkedIn dele existe. Ele começa a fazer uma análise da

não só do do dos dados, mas da pessoa que tá falando. E aí ele faz uma um documento embaixo disso, não tá mostrando, mas ele vai falar: "Esta pessoa que tá mandando a partir deste

domínio existe no LinkedIn da empresa e esse domínio existe faz mais de 5 anos, portanto parece legítimo. Agora tem

alguns que é esse domínio foi registrado o mês passado, essa pessoa não existe, nunca não achei nenhum rastro na internet de que ela existe. Então aí eu passo todos esses dados para duas ou

três LLMs, no caso aqui passou só duas, e faz um consenso entre eles. Se aí o GPT com o Sonet, com outro para ver se é um e-mail que é fraudulento, não

fraudulento e o que fazer. Então isso de no tá acabado, é um sistema aberto, eu tá rodando no meu servidor, eu fico enviando e-mails, mas assim, eu normalmente não caio porque eu sou cara

chato. Eu sei que eu nunca vi, eu deleto

chato. Eu sei que eu nunca vi, eu deleto imediatamente e se for importante, a pessoa sabe como me achar.

Mas, ó, eh, esse, esse aplicativo que você fez aí, a gente tá falando aqui como se fosse só lançar um monte, fazer o cóp de ou ser bom no prompt e o [ __ ] tem uma boa ideia e chegar

aquilo ali. Mas uma coisa que eu aprendi

aquilo ali. Mas uma coisa que eu aprendi que talvez seja um ponto de fricção para quem tá brincando com isso daí são é as chaves de API, pegar APIs do Cloud, por

exemplo, e tudo mais. Para esse teu aplicativo aí, tu deve ter usado a PI do Gmail, do Google, sei lá, não é? Então

esses eh tem que fazer um token independente só para esse aplicativo, para um cara como você, isso daí é o café da manhã. Você já sabia disso? Daí

eu tive que descobrir isso daí.

Sim. Mas a vantagem é que você pode perguntar pro Claud, ele vai te dizer o caminho e falar: "O que que eu tenho que fazer?". Ele falar, "Você tem que ir no

fazer?". Ele falar, "Você tem que ir no Google, na sua conta, no menu de segurança, abrir a opção de token, criar um novo token, colocar uma data de inspiração, copiar aquele negócio e colocar nesse lugar. Ele vai te dizer

esses passos." Inclusive eu fiz nos meus

esses passos." Inclusive eu fiz nos meus projetos como é open source, eu gosto de documentar as coisas. Então, não é só tal código e se vira. Eu tenho, qual?

Posso mostrar aqui o teu github.com/akita

github.com/akita rails, tá? Então,

tá? Então, tudo é Kiton Rails.

Tudo é Kiton Rails. E todos os aplicativos são Frank em alguma coisa por causa do criador da rede neural que foi o Frank Rosen Bla. Então, e também como as coisas são meio Frankenstein,

então é Frank investiguei. Então aqui,

ó, tem o Frank, aquele do mangá, é esse Frank Yomic. Clica no Frank Yomick.

Frank Yomic. Clica no Frank Yomick.

Desce um pouquinho, desce um pouquinho.

Aí tem a descrição dele lá embaixo.

Isso. Então aí tem a descrição. Aí eu

tenho aqui, escreveu essa descrição também foi perfeito.

Foi, eu digo para ele o que eu quero e ele vai e escreve, vai descendo um pouquinho.

Então aqui, ó, como funciona? Aí tem a explicação do processo, desce, tem os requerimentos aí embaixo, tem o comandos, os comandos que roda para executar aí roda embaixo quais são os

programas que vai rodar. Então tem toda a documentação de para se vai rodar só na sua máx, vai rodar no servidor, se vai rodar não sei aonde, quais variáveis, quais tokens, aonde o

aplicativo Android, como que compila, como que gera, como que sobe. Então tudo

isso eu pedi para documentar e como que testa e são os testes, tá vendo? Ele vai

rodar os testes. Eu tenho testes unitários, testes de integração. Então

eu fiz todos esses projetos usando todas essas boas práticas que eu acabei de falar, que eu espero que todo bom programador use. Se você não encontra

programador use. Se você não encontra esse tipo de coisa num projeto, é um mau projeto.

Abre aí agora o GitHub aí. É IRC R O M.

Que que é isso?

Ircron.

É o seu?

É.

Ah, boa. Aí que que acontece? Você

perguntou do open claw aí. Que que

agora? Ah, e tá certo. Isso aí mesmo, né? Ué,

né? Ué, é que eu não sou exatamente, não tem, é tipo, foi que outro dia. É, não deve aparecer no Google.

O que que eu fiz? Eu não gosto do openclock, que eu acabei de falar que é um código espaguético, certo?

Aí eu falei: "Cara, eu não vou usar esse openclaw". Por outro lado, eu fiquei

openclaw". Por outro lado, eu fiquei pensando qual seria o trabalho de refazer o open claw de um jeito bem feito? Ah, esse é o seu.

feito? Ah, esse é o seu.

Ah, dá outra.

É aí. Ah, deixa eu ver. Sobe lá. Sobe

lá. Se tu clicar ali em cima naquele gatinho à esquerda ali. Ué, vai. Não.

Que o que que você quer fazer?

Cadê os meus repositórios? Clica ali nos repositórios.

Você deve estar como privado.

Ah, tá privado. É verdade.

Isso. Tá privado. E aí só aparece os públicos.

Clica aí nesse home aí, vai. Esse daí é o que eu tava fazendo de Vai rodando, vai rola para baixo aí.

Rod, tá vendo? Aí tem também. Só que o meu tá

tá vendo? Aí tem também. Só que o meu tá bem mais tosco que o teu.

[ __ ] por que que você não fez ponto MD para ele gerar o markd?

Porque você foi a primeira vez que eu fiz, cara. Ah, não. Beleza. Beleza. Pelo

fiz, cara. Ah, não. Beleza. Beleza. Pelo

menos tá documentado. Tá certo. Já é

melhor que 90% dos outros códigos que tem documentação. Mas aí diz o que ele

tem documentação. Mas aí diz o que ele faz, tá ligado? Ele

bacana bacana. Esse foi o primeiro de todos que eu fiz. Tem um tempo que eu não mexo nele. Chega, chega, chega, chega, chega, chega, chega, tem coisa para [ __ ] Eh, e, e, Pois é, depois eu vou transformar

os outros em público também para para E, e quais são os outros projetos que tem aí? Então, volta aí, Vitor. Volta lá.

aí? Então, volta aí, Vitor. Volta lá.

Vai no repositórios ali. É que tem um monte, mas o que interessam só os Frank alguma coisa. Os benchmarks tá nesse

alguma coisa. Os benchmarks tá nesse nesse daí que tem todo o código de como testar, mas vai descendo. Ai jail, ele é o que que eu esse Jail faz? O se o Claud e o Codex eles rodam na sua máquina,

eles dizem: "Eu tenho segurança". Tá,

tá, tá tá tá, mas entre ele dizer que tem e você confiar é uma são duas coisas muito diferentes. Se for uma maquininha

muito diferentes. Se for uma maquininha de teste, bacana, roda em yolo mode lá, seja feliz. rola fazer, quita, uma uma

feliz. rola fazer, quita, uma uma máquina virtual para Não precisa de máquina virtual, todo mundo pensa em máquina virtual. Máquina

virtual ele literalmente virtualiza uma outra máquina dentro da sua, só que aí você tem um peso de ter dois sistemas operacionais rodando, duas máquinas rodando. A gente não faz isso. A gente

rodando. A gente não faz isso. A gente

faz uma coisa chamada conttainers. O que

que é um contêiner? O seu sistema operacional tem que é esse esse cara, esse J é um contêiner. Eu chamo de jail porque é uma

contêiner. Eu chamo de jail porque é uma prisão.

O seu sistema operacional é responsável por organizar os processos Word, Excel, navegador, vários programas rodando. É

ele que gerencia os recursos da máquina, da memória pro Word, da memória pro Firefox e assim por diante. Dentro do

seu sistema operacional, cada programa pode perguntar pro sistema operacional, tem outros programas rodando. Se fala,

tem, ele te dá uma lista e todos os programas rodando. Então o Excel sabe

programas rodando. Então o Excel sabe ver que tem o Word rodando dentro do seu usuário. Se tiver dois usuários

usuário. Se tiver dois usuários separado, ele só vê um do seu usuário e us que tá logado ali na hora e assim por diante. E aí ele tem acesso aos diretórios da sua máquina e tudo mais. Agora, um bom sistema operacional

mais. Agora, um bom sistema operacional moderno, até o Windows já tem isso hoje em dia, ele tem, é, é uma desgraça que, ó, se [ __ ] aqui. Windows, eu vou, todo mundo usa o Windows.

É, não é relativo, é uma bosta. Ele ele

funciona. Eu só uso ele hoje porque tem jogo que não funciona em Steam de Linux.

Então, pera aí, rapidinho, rapidinho, rapidinho. Deixa eu abrir um parênteses

rapidinho. Deixa eu abrir um parênteses aqui rapidinho que tu cagou para mim quando eu te perguntei lá no começo. Eh,

para eu para eu rodar o o Open Cloud no Linux, igual você igual você tá fazendo lá, eu preciso manjar de Linux?

Não, não.

Tá, então a partir disso eu vou me virar quando chegar em casa, tá bom? Vamos

voltar para Só não instale na sua máquina de pessoal de trabalho que ele é que nem eu acabei de falar, ele é um queijo suíço.

Tá bom. Ele é um queijo suíço.

Não, eu tenho uns computadorzinos lá para eu fazer umas maluquías.

Ótimo. Bacana. Não deixa ele conectado na mesma rede que você tá com a outra máquina. É, é, é, é assim.

Que medo.

É, não é, é, é porque ele, ele é um queijo suíço. Tipo, eu não, não é que

queijo suíço. Tipo, eu não, não é que vai ter problema, é a possibilidade de ter é muito grande. Você entendeu? Eu

não, eu não confiaria meus dados a ele.

Tá bom, mas eu vou vou experimentar com isso. Tá bom.

isso. Tá bom.

Mas ele não é difícil. Ele vai ter um uma documentação, os comandos iniciais do que que tem que fazer. E o primeiro comando dele é um next, next de configuração. Ah, para ir no WhatsApp,

configuração. Ah, para ir no WhatsApp, você vai na conta do business, gera o token, coloca lá no Discord, vai não sei onde, pega o token, coloca aqui.

É, com essa informação que tu acabou de me dar aí, eu vou inclusive descobrir qual a melhor distribuição do Linux para fazer o [ __ ] com isso.

Não tem melhor distribuição, não existe isso. Qualquer uma instala o Bunto,

isso. Qualquer uma instala o Bunto, Fedora, qualquer um desses tá ótimo. Tá

ótimo para brincar tá ótimo. Não tem a melhor distribuição. Posso usar um

melhor distribuição. Posso usar um frontend? Não precisa ser CLI também,

frontend? Não precisa ser CLI também, né?

Não precisa ser LI. Você pode rodar no punto bonitão, vai rodar, abre um terminal, roda o comando que ele vai te pedir, acabou, vai tá funcionando bonitinho. Você pega o IP dele e acessa

bonitinho. Você pega o IP dele e acessa em qualquer máquina. É, é, é, é fácil.

Vou experimentar com isso, tá bom?

Então, para começar, começa assim. Todo

mundo pensa que para começar, tem que começar do jeito certo. Não tem o jeito certo. Você começa do, você aprende com

certo. Você começa do, você aprende com o que tem, depois você vai ganhando o gosto de, [ __ ] sempre dá problema nisso daqui. Será que não tem um jeito

nisso daqui. Será que não tem um jeito melhor? Aí você fala: "Ah, tem um jeito

melhor? Aí você fala: "Ah, tem um jeito melhor".

Foi assim que eu fui aprendendo para [ __ ] É exatamente assim que funciona. O que

não pode é a pessoa vê que tá esquisito, dá trabalho, tá dolorido, mas ele aceita. Ah, é assim mesmo. A pessoa do

aceita. Ah, é assim mesmo. A pessoa do assim mesmo não evolui na vida, não aprende bosta nenhuma, sempre vai ser medíocre. Então, toda vez que tem alguma

medíocre. Então, toda vez que tem alguma coisa ali, isso aí, eu vou escrever numa camisa.

Isso. E eu sou assim, toda vez que alguma coisa não tá exatamente falar, [ __ ] será que não tem um jeito melhor?

Aí eu vou atrás de saber o jeito melhor.

Por isso que eu usei o Windows a vida inteira. Eu eu sei de cabo a rabo. Eu

inteira. Eu eu sei de cabo a rabo. Eu

vou entrar no red, eu sei o que fazer.

Eu sei o que fazer. Aí eu migrei pra MEC por 10 anos. Eu sei o que fazer naquele sistema operacional. Eu posso fazer

sistema operacional. Eu posso fazer todos todas as as eu entro no aplicativo, faço o que eu quiser lá dentro, eu desenvolvo naquela [ __ ] mesmo. E no Linux é a mesma coisa.

Eu uso Linux desde os anos 90. Eu passei

por todos eles. Todos eles. Então é

óbvio que eu tenho um gosto de ah, eu é que nem vim agora eu já experimentei todos vi, então já não é tudo igual. Ah,

esse aqui para esta ocasião eu uso este.

Para esta ocasião eu uso este. Por

exemplo, eu odeio Windows, mas eu tenho um mini PC gamer que é meu Steam. É só

para Steam. É só para Steam. Eu não vou rodar nada importante nele. Não vou nem logar nas minhas contas nele porque eu não confio nele. É só um console. Eu não

confio nele para rodar nada importante nele. Aí eu tenho o meu PC, que é o meu

nele. Aí eu tenho o meu PC, que é o meu PCzão, fodão, etc. Eu uso Arte Linux nele porque eu quero customizar o máximo, eu quero ter acesso às faminas

mais novas, etc. O outro PC que é o servidor que roda esses serviços todos, ele usa Open USA Micros, que é um sistema feito para servidores de conttainers. Ele tem um sistema

conttainers. Ele tem um sistema operacional eh que a gente ele ele usa snapshots. Ele eu não posso escrever

snapshots. Ele eu não posso escrever nada nele. Toda vez que eu escrevo uma

nada nele. Toda vez que eu escrevo uma transação, eu tenho que ele ele ele faz um como é que chama? Ele carimba toda a nova coisa que eu fizer de tal maneira

que a anterior ainda existe. Então se eu quiser voltar atrás, eu facilmente volto como tava antes de eu ter editado qualquer arquivo de sistema ou instalado qualquer coisa. Então, se eu instalei

qualquer coisa. Então, se eu instalei alguma coisa e editei o arquivo errado e ele para de botar a máquina, por exemplo, eu buto de novo e tem um menu com todas as partes no tempo que eu posso voltar no tempo. Aí eu sei, eu sei

que às 10 da manhã tava funcionando, eu buto às 10 da manhã e eu faço esse seu novo ponto de partida e eu refaço só a partir dali, em vez de jogar tudo fora e fazer tudo de novo. Então, para servidor

eu uso esse, só que ele é burocrático demais para um dia a dia que eu vou ficar só instalando programa, etc. Mesmo que quebrar não tem problema, porque eu tenho backup no meu NAS, que é um outro

servidor. Então eu tenho todos esses

servidor. Então eu tenho todos esses servidores, eu posso ficar e mesmo assim eu não vou dizer que é 100% seguro, entendeu?

É na mesma salinha, teu computador fica na mesma salinha que fica teus videogame.

Fica, fica, fica.

Então só entra você naquela [ __ ] Só entra eu. É literalmente só entra eu.

Não, eu não recebo visita, eu não deixo ninguém.

Ninguém entra naquele lugar. Ninguém

entra.

Perfeito.

Inclusive todos os dados que estão nesse meu servidor de NAS tem uma cópia. eh,

cópia fria na Amazon Glacier, que eu pago $ por mês para ter alguns terabytes ali de backup extra. E as coisas mais importantes, eu tenho gravado em o

equivalente Blu-ray, não é Blu-ray, é um é um disco diferente que não tem material orgânico, que dura um século. E

esse tá num cofre e o outro em outro cofre.

[ __ ] [ __ ] que pariu. Tu deve ter uns troços extremamente valioso, então, guardado ali.

Nem é tão valioso. É que para valor pessoal. que eu não quero perder,

pessoal. que eu não quero perder, entendeu? Valor não é que é valor de

entendeu? Valor não é que é valor de dinheiro, não tem nenhum cigueiro de governo, não tem nada disso. É tudo

coisas pessoais que se eu perder eu não tenho como recriar, entendeu?

Ou será que tu faz isso porque tu gosta da coisa?

E eu também gosto da coisa. Eu gosto de ter certeza de que eu tenho controle do meu ambiente, tudo.

Ó, eu tenho lá um montão de videogame velho. Sabe qual que é o meu tesão?

velho. Sabe qual que é o meu tesão?

Montá-los, mexer neles inteiro. Eu gosto

de mexer no firmware, mexer na [ __ ] toda player e deixar prontinho para eu nunca jogar.

Entra no meu git hub de novo, por favor.

Aí eu trouxe para cá. Meu play tá aqui.

Desce um pouquinho. Tem agora, tá vendo esse Distro Box Game? Clica nele ali.

Esse Distro Box. O que que é Distro Box?

Você parece uma máquina virtual, mas não é uma máquina virtual. Eu tava

explicando sobre contêiner. Então

contêiner o que que é? Todo programa na sua máquina enxerga todo outro programa.

Um contêiner é o sistema operacional mentindo pro seu programa. Então eu crio uma política que quando este programa pergunta, tem outros processos rodando na máquina, o sistema operacional fala:

"Não, tem só você rodando." Ah, eu tenho acesso a esse diretório aqui. Eu falo:

"Não, não, não, nesse diretório não existe. Eu posso cancelar o acesso a

existe. Eu posso cancelar o acesso a ele". Então, isso é um jail. O programa

ele". Então, isso é um jail. O programa

acha que ele tá sozinho numa máquina vazia com acesso limitado, só os diretórios que eu disser que ele tem acesso, mesmo que esse outro programa tenha acesso a tudo, só que ele roda na

mesma no mesmo sistema operacional, sem virtualizar nada. É só a kernel, que é o

virtualizar nada. É só a kernel, que é o do Linux mentindo para ele, dizendo você não não tá sozinho. Isso é um contêiner.

Então, Distrawbox ele é uma aplicação que gerencia contêiners, aonde dentro deste contêiner eu, parece que é uma máquina vazia, aonde dentro do meu art

Linux eu posso instalar um Ubunto.

Uhum.

Então esse Ubunto acha que ele tá rodando sozinho numa máquina, entre aspas, mas na verdade ele tá rodando dentro deste contêiner, só que não é uma máquina virtual, não tem um CPU virtual

rodando, entendeu? Então esse DRBX

rodando, entendeu? Então esse DRBX e isso é tão seguro quanto uma máquina virtual?

Não é tão seguro. Ele tá rodando na mesma máquina, no mesmo kernel. Então se

tiver um bug neste kernel, este programa tem acesso. Isso vai acontecer. Ele não

tem acesso. Isso vai acontecer. Ele não

tem um level a mais de CPU virtual, por exemplo. Então ele ele não tem um

exemplo. Então ele ele não tem um hypervisor. Esse que é o conceito

hypervisor. Esse que é o conceito correto. Isso é uma das coisas que eu

correto. Isso é uma das coisas que eu fiz nos meus vídeos explicando, entendendo máquinas virtuais e entendendo contêiners, que eu explico cada um desses itens lá dentro. Depois

quem for de programação tem que saber isso. E o Distrobox é uma forma de no

isso. E o Distrobox é uma forma de no seu Linux você experimentar outros Linux. Eu posso sem máquina virtual, sem

Linux. Eu posso sem máquina virtual, sem peso, eu posso dentro do Bunto instalar um Fedora, dentro do Fedora instalar um Openusa, dentro do Open instalar um Gentu. E eu posso ficar instalando

Gentu. E eu posso ficar instalando quantas eu quiser em paralelo e nenhuma dessa rodando uma máquina virtual.

Por que que tu fez esse essa aplicação?

Porque eu queria fazer o seguinte, eu tenho a minha máquina que é um Art Linux e eu quero rodar todos os emuladores que eu gosto. RPCS3, PCX2,

eu gosto. RPCS3, PCX2, a Azar, Iden, todos. E todos eles, toda vez que eu vou fazer isso, eu configuro uma máquina zero, instalo um por um. Aí

tem que abrir um por um, instalar bills de todo mundo, pegar a GPU correta, configurar a GPU para minha mala e colocar as homes, explicar, né, todo aquele processo. Aí eu tenho 20

aquele processo. Aí eu tenho 20 emuladores, eu vou ter que fazer isso 20 vezes. E para piorar, emulador de PS3,

vezes. E para piorar, emulador de PS3, por exemplo, que é RPCS3, eu tenho que entrar jogo a jogo e ele tem configurações específicas por jogo porque ainda ainda não é uma um emulador

tão maduro.

E eu tenho que ficar um por um fazendo.

Da última vez que eu fiz isso na mão, eu tenho só emulador de Xbox, tem o Zinia para 360. É o Zin já tá rodando legal.

Não, também é super experimental.

Então meio que não tem ainda, né?

Depende do jogo que você vai querer.

Todos os jogos que eram da Xbox Arcade roda bonitão. O Forza Motors Sport 4,

roda bonitão. O Forza Motors Sport 4, que é o que eu mais gosto em particular, tem vários bugs, mas vários outros jogos rodam, rodam muito bem. Então só que vai dar trabalho

muito bem. Então só que vai dar trabalho também. Tem uma configuração para fazer,

também. Tem uma configuração para fazer, tem que sabe abrir um arquivo de configuração e fazer. Então o que que acontece? Eu fiz o em vez de fazer isso,

acontece? Eu fiz o em vez de fazer isso, eu pensei: "Cara, agora eu tenho essa [ __ ] desse cloud, eu vou fazer um Draw Box, que eu vou colocar um Linux vazio dentro dele para não misturar com o meu

Linux de desenvolvimento de software, para não ficar um monte de coisa de jogo, com coisa de trabalho. Então, faço

isolado, aonde ele cria, ele cria todos os emuladores lá dentro, já pré-configura todos eles, já aponta pro meu diretório de jogos, está no meu NAS,

faz toda a configuração de todos eles, controle, etc, etc, etc. E eu só dou um comando, ele recria essa máquina. Então

agora eu tenho, você pode os prompts de Ansible. Ansible é um sistema que

de Ansible. Ansible é um sistema que automatiza instalação e configuração de sistemas. É assim que você consegue

sistemas. É assim que você consegue subir um data center com 500 servidores, não fica um um cabôclo na mão e lá um por um. Tem um sistema que faz isso.

por um. Tem um sistema que faz isso.

Anball é um deles. E eu posso fazer uma máquina só e eu faço uma receita. Então

por isso que tem um livro de receitas.

Esse nível de receitas tem receita para instalar o Azar, para instalar o Iden, para instalar o Chad de PS4, para instalar todos eles e configurar todos eles como eu quero. Daí toda vez que eu,

digamos que eu dei uma um pau na minha máquina, eu quero jogar fora, eu rodo agora esse um cookbook, ele vai refazer a máquina inteira inteirinha com todos os meus emuladores já pré-configurados.

Então eu fiz agora, eu fiz esse fim de semana agora, levou um dia para fazer.

Então agora eu esse projeto tá open source também muito [ __ ] Então outro projeto que é legal de ver, abre para mim o investigator. Esse eu

acho que você vai gostar.

É.

É.

Ah, esse eu acho que eu sei qual é.

Coisa que é coisa fake news. Isso. Então

o que que eu faço? Isso não tá aberto online, ninguém pode usar porque eu não quero ser processado.

Mas tá open source se você quiser correr o risco. Mas ele não tá terminado. Então

o risco. Mas ele não tá terminado. Então

o que tá aqui é experimental. Nada, nada

do que tá aqui é garantia de que tá correto. Mas, por exemplo, eu peguei uma

correto. Mas, por exemplo, eu peguei uma manchete ali, ó, de manchete de remédios aluplo, governo corta imposto de quase 1000 importados. E aí e a IA conseguiu

1000 importados. E aí e a IA conseguiu ver, ó, governo zero imposto de quase 1000 importados, mas omite impacto fiscal após elevar as tarifas de 1200 itens 2025, que foi aquele caso eles

aumentaram 1200 produtos, aí achou que todo mundo esqueceu, falou: "Ah, baixei 1000 1000 impostos, ó como eu sou legal para caralho". Aí o bando de filho da

para caralho". Aí o bando de filho da [ __ ] ele não coloca a quem que foi esse daqui, não sei se foi a a Folha, foi um deles.

Se foi o que você menciona no no podcast é a da Folha.

É. E aí eu faço a a investigação dos outros artigos que falam sobre esse assunto e eu cruzo todas elas. Aí eu

faço, eu pego todas as técnicas de falácia narrativa. Então se eu tô

falácia narrativa. Então se eu tô fazendo adiomine, se eu tô fazendo falácia por autoridade, se eu tô fazendo cherry picking de informação para omitir outras e forçar uma conclusão, viés de

confirmação, eu pego, tem um livro que me sugeriram que são as 38, acho que 38 leis de Schopenhauer, não sei se já viu falar deles, eu implementei as 38 leis de Schopenhauer aqui, por exemplo. Então

eu consigo ver a esse título está tá sendo envzado para forçar uma conclusão e dentro da do texto ele tem afirmativas, tipo a nove entre 10 especialistas diz e ele diz lá embaixo

nove entre 10 especialistas diz, mas não tem fonte da onde ele tirou 9 entre 10.

Aonde está essa fonte? O relatório diz isso. Então eu vou documentando um por

isso. Então eu vou documentando um por um. As colunas da folha do são campeões

um. As colunas da folha do são campeões de fazer esta merda. Já vou dizer de cara, eu odeio esses caras. Só que se eu falar: "Ah, é uma merda. Ah, você tá pegando no pé, é porque você é um

extremista".

Quanto de viés do Akita tem nesse aplicativo aí?

Tecnicamente é para não ter, mas não é garantido porque fui eu que fiz. Por

isso que o código é aberto e qualquer um pode ver. Se você vê que tem viés, você

pode ver. Se você vê que tem viés, você pode contribuir à correção. Então,

como é que tu chegou nesse nessa cara?

Porque eh aos poucos, fui fazendo aos poucos.

começou com eh, por exemplo, a parte de falar veio depois. Eu primeiro peguei em destrinchar o documento em afirmativas e tentar achar a fonte das alternativas e

ver coisas, por exemplo, se ele não tá fazendo um link para dizer, ó, tem um link para este artigo e o link é do próprio jornal, então ele tá fazendo link e fonte circular, então uma coluna

fala da outra coluna e os dois se confirmam entre si. Aham.

Então ele vê também, inclusive, se não sai as mesmas mesmas notícias do mesmo jeito em vários jornais para ver se não uma campanha.

Caragueiro.

E assim, uma das coisas que eu tenho defendido, cara, é o seguinte, vê se tu concorda. Eu acho que eu fui parar nessa

concorda. Eu acho que eu fui parar nessa [ __ ] porque eu me eu me deparei com um problema que eu podia só, ah, [ __ ] Ou eu podia tentar, já que existe essa

ferramenta, usar a ferramenta para criar uma parada para mim. O que que eu tenho feito, cara? Se eu vejo uma, eu tô

feito, cara? Se eu vejo uma, eu tô nessa, cara, eu vejo uma parada assim, pô, esse maneiro seesse um aplicativo que fizesse essa [ __ ] eu vou lá e experimento e eu tenho aprendido muito.

Eu achei, eu achei por um momento que eu que a inteligência artificial e as LLMs e essas paradas aí fosse já

fossem aquela tecnologia que eu não ia conseguir me adequar porque tô velho e o [ __ ] [ __ ] nenhuma, mané. É uma

delícia mexer com essa [ __ ] É uma delícia assim. É,

delícia assim. É, esse é o seu mindset, é o seu jeito de Tem gente que não consegue. Eu conheço

gente que não consegue. Ai, dá muito trabalho, não sai imediatamente. Quando

eu eu pedi uma vez já deu errado. Esse

cara, ele não aprende nada novo. Não

aprende nada novo. Aprender coisas novas é tentativa e erro. Quem não faz tentativa e erro não está aprendendo.

Quem decora procedimento não é aprendizado. Então isso e esse esse o

aprendizado. Então isso e esse esse o ponto mais importante. Por isso que eu falo que a Iá reflete quem você é. Se

você é uma pessoa que não sabe aprender, você não vai tirar vantagem da I.

E o o problema que é o que eu fiz no meu canal, [ __ ] essa é outra para botar na camisa aqui. Essa daí é [ __ ]

aqui. Essa daí é [ __ ] cara. Eu tô há anos falando, então eu tô

cara. Eu tô há anos falando, então eu tô há anos na minha área de programação. Eu

fico puto com isso, porque eu te falei no nos últimos podcasts que teve aquele momento da bolha que tava todo mundo contratando como se não houvesse amanhã e aí saí a notícia, vai faltar 1 milhão de programadores daqui a do anos. Aí

tinha aqueles milhões de cursos porcaria, aquele monte de charlatão que nunca trabalhou como programador querendo ensinar boot camp de dois meses, falando: "Ah, você pode virar

programador, trabalhar no Google, ganhar salário de .000, é só você estudar dois

salário de .000, é só você estudar dois meses, não precisa de mais que meses." E

todo mundo achando que era só isso, aprendendo os lit codes para passar entrevista que é só decoreba. É, é. Era

que nem cursinho para passar na faculdade e achar que isso é inteligência. Não tem inteligência

inteligência. Não tem inteligência nenhuma, é só decoreba, entendeu?

Decoreba não é programação. Decoreba não

é artístico. Decoreba não é advocacia, decoreba não é medicina. Nenhum deles é decoreba. É o que você faz com essa

decoreba. É o que você faz com essa informação que é importante. Só que o que você faz com a informação não é pré-definido. Então para isso, você vai

pré-definido. Então para isso, você vai testar e vai errar. Vai testar e vai errar. O que que você faz na faculdade?

errar. O que que você faz na faculdade?

Você aprende a errar. O que que você faz como traini? Você aprende a errar. O que

como traini? Você aprende a errar. O que

que você faz como júnior? Você aprende a errar. Se você não passa por todas essas

errar. Se você não passa por todas essas fases, você nunca vai chegar a senor.

Não existe certificado de senor. Senior

é quem apanhou para um [ __ ] e aprende a fazer. O que eu costumo dizer é assim, aí a gente entra na parte que é a Iá vai roubar o seu emprego. E

aí o que que eu respondo? Não vai.

Aliás, vai sim de todo programador ruim e já não era sem tempo. Então o que que tá acontecendo?

Todo esse povo que entrou na área na promessa de ganhar $.000

no Google e achou que levei #levetagem riri levei vantagem e ah, fiz só um curso, ganhei um emprego, tô no bank e aí tomou um layoff agora, ah, o mundo é

injusto porque o capitalismo não, porque você é burro, burro não tem nada a ver com isso. 2022 teve um crash desse

com isso. 2022 teve um crash desse mercado e todo mundo tomou layoff como se não vesse amanhã. Esse ai porque eles são ambiciosos, gananciosos, tem dinheiro, mas demitiu, não é porque

contratou demais gente errada. contratou

demais gente errada. A grande maioria que foi mandada embora não deveria ter tá na área para começo de conversa.

Óbvio, tem as exceções, tal, tal, tal, no meio de 10.000 que um vai ter vários erros no meio do caminho, vai. Mas o que isso é um resultado dos 10.000 que eles contrataram dois anos antes, não

precisava. Só que eles estavam

precisava. Só que eles estavam contratando para o outro não contratar.

Eles estavam brigando de fazer estoque.

O Google contratava mais para Apple não levar que para meta não levar. ficavam

entre eles. Isso todo mundo repetiu isso embaixo porque tinha dinheiro sobrando e tinha gente no mercado para isso. E aí o que aconteceu depois da pandemia? Aí

surgiu o GPT e aí começou tudo a decair.

A partir de agora deu crash nessa bolha.

E o canal que eu fiz foi justamente avisando, eu vou explicar como que tem que ser um profissional para sobreviver o pósbolha. Ele ele foi feito para o

o pósbolha. Ele ele foi feito para o pósbolha. Então, quem assistiu e

pósbolha. Então, quem assistiu e acompanhou e entendeu, hoje não tá com problema. Hoje não tá com problema,

problema. Hoje não tá com problema, porque foi exatamente esse cenário que eu falei que ia acontecer.

E agora o grande lance é que tem um monte de gente falando: "Ah, I surgiu, vai fazer código, não precisa mais fazer faculdade, é só você usar IA e vai fazer código". E de novo, esse cara é um

código". E de novo, esse cara é um idiota. Um idiota. Eu tô olhando pra sua

idiota. Um idiota. Eu tô olhando pra sua cara agora ele falando: "Você é um idiota". Então, não existe isso de não

idiota". Então, não existe isso de não fazer. Ah,

fazer. Ah, todo mundo tá pensando que vai ser um negócio automático. Ah, você tá fazendo

negócio automático. Ah, você tá fazendo software. É maior legal isso. Não é, não

software. É maior legal isso. Não é, não tem nenhum problema. Eu não sou desenista e eu faço desenho, mas eu não vou dizer: "Nossa, eu sou o Oda, eu não vou, eu tenho categoria de desenhista da

Shon anden Jump. Não tenho. Eu não

tenho. Eu sei desenhar. Se eu quero cozinhar alguma coisa, faço o meu omelete aqui. Bacana. Encheu a barriga.

omelete aqui. Bacana. Encheu a barriga.

Ele tem um propósito. Não ficou ruim, mas dali para dizer, eu sou um chefe michelan três estrelas. Eu tenho direito de ser chefe michelan três estrelas. Pau

no seu cu. Não tem. É um um miojo não te torna um chefe. Então todo mundo fala assim: "Ah, mas esse código funciona bacana. Tá funcionando a sua máquina, é

bacana. Tá funcionando a sua máquina, é só para você. igual miojo, resolveu seu problema da barriga, tá ótimo. Isso não

é um problema. Eu espero que todo mundo faça isso e que ganhe gosto. Então, a o cara que fez o miojo e colocou uma um ovinho a mais e botou um temperinho e ali deu um gatilho, deixa eu estudar um

pouquinho mais, deixa eu testar um pouquinho mais. Aí estudou gastronomia,

pouquinho mais. Aí estudou gastronomia, foi pra faculdade, passou 10 anos descascando batata, tomando xingo de cozinheiro, fez todo esse caminho e

agora ele tem a noção de que cenoura congelada e cenoura fresca são duas coisas completamente diferentes. Não

existe isso de, ah, é tudo a mesma coisa. Tipo, porque o objetivo não é só

coisa. Tipo, porque o objetivo não é só encher a barriga, é uma experiência, tem todo, tem todo um processo ao redor. Aí

você tá chegando na categoria chefe. É a

mesma coisa de desenista. Ah, fiz um traço bonito passando por cima que sou desenista, vou vender. Não, não vai, porque você não, você não consegue.

Aconteceu com essa Sami Arts que eu falei para você que ela fazia comissão e aí alguns clientes fala: "Pô, esse desenho ficou bacana". Mas não era bem assim que eu

bacana". Mas não era bem assim que eu tava pensando, como eu descrevi, você não conseguiria mudar esse braço para isso, a proporção para aquilo? Aí a

pessoa parava de responder porque ela não sabia como ajustar, porque ela não fez o desenho. Então ela não tem como ajustar aquele desenho. Se ela tentar ajustar vai ficar tudo torto. E se ela tentar regenerar, vai ficar completamente diferente. Então ela não

completamente diferente. Então ela não consegue mais ajustar aquele desenho porque ela mentiu que era feito por ela.

Ela não consegue, ela não vai conseguir porque esse que é o problema. Você

consegue fazer para meme, você consegue fazer para postar no Twitter, você consegue fazer postar no Instagram.

Agora, num trabalho onde você tem requerimentos de verdade e você precisa saber como ajustar para aquele caso, você precisa ter o estudo da arte, você

precisa saber a teoria das cores, você precisa saber que materiais combinam, quais materiais, a parte toda a teoria de iluminação, de composição, de tipografia, de tudo. Tem uma série de

matérias que não é só joga na imagem, você tem composição. Existe formas

corretas de colocar as coisas em quais posições. Existe o jeito correto de

posições. Existe o jeito correto de fazer iluminação. A pessoa não sabe

fazer iluminação. A pessoa não sabe isso. Ele bota dois personagens com

isso. Ele bota dois personagens com luzes cruzadas e aí um, os dois estão com luz na cara, mas não tem luz na cara deles. Tipo, ele porque ele não tem essa

deles. Tipo, ele porque ele não tem essa noção. Aí o desenho fica esquito, você

noção. Aí o desenho fica esquito, você não sabe por parece um bom desenho, mas aí ela não pensou nisso porque você não disse isso para ela, porque você que tinha que pensar nisso.

Você não é desenhista.

Você não é desenista. É que é que você tá dizendo é é Iginho Vibe Coder nunca será realmente errado.

Eu teria que estudar, me dedicar. Mas eu

não vou porque para mim é um hobby.

Tudo bem. E tá ótimo. Seu hobby. Estou

aprendendo. E assim vai chegar um momento que eu vou conseguir resolver pequenos problemas.

O que não pode é você aiguinho tá fazendo produto e falar: "Caralho, eu posso ver, não, não é falar só aqui".

Agora você tá sendo irresponsável porque aí você tá soltando, por exemplo, banco de dados sem senha para um cliente que tá te pagando e ele também não sabe melhor porque ele acha que você é o especialista porque você fez. E aí ele

coloca, você tá colocando em risco clientes dele agora e você tá vendendo esse software pros outros. Ou então é um sistema que tem dados das pessoas que nem aconteceu algum caso e vai vazar e você não tem como controlar isso. Agora

pessoas que botaram o CPF delas ali, as fotos delas, o endereço delas vão tomar docs, vai aparecer o endereço delas em tudo quant lugar porque você fez um software que você não sabe como controlar. Então isso vai acontecer.

controlar. Então isso vai acontecer.

Isso acontecia antes também, isso não é uma novidade. Então, todo mundo que não

uma novidade. Então, todo mundo que não tinha multi startup que era ah, um ex MBA, qualquer bosta, já tive uma ideia, aí ele vai, contrata um freelancer na

Índia, não sei o quê, lança o produto, só que ele não sabe testar. O cara fez nas horas vagas dele de qualquer jeito, funciona no primeiro demo, mas se você tentar um pouco mais vai quebrar. Só que

ele não sabe como testar isso. Ele não

sabe como testar isso. Ele joga em produção e espera que vai ter gente usando. Só que na primeira vez que um

usando. Só que na primeira vez que um cara mais esperto usar o sistema dele, quebra. Ele quebra. Aí que que ele vai

quebra. Ele quebra. Aí que que ele vai fazer? Não tem o que fazer. Aí ele vai

fazer? Não tem o que fazer. Aí ele vai pensar: "Nossa, com a IA agora eu consigo consertar". Você não vai também

consigo consertar". Você não vai também porque você não sabe o que deu errado.

Você não, você vai consertar um pedaço e vai quebrar outro e você vai ficar o dia inteiro caçando rato ali. Aí você vou contratar um cara barato que fez o boot camp. Vai resolver também? Não vai. Você

camp. Vai resolver também? Não vai. Você

vai ficar os dois batendo cabeça. Ah,

mas a IA não deveria ajudar. Não, ela

não deveria ajudar. A IA é um martelo. A

I é a caneta. A I é a máquina de escrever. Ela, a máquina de escrever não

escrever. Ela, a máquina de escrever não escreve para você. Mas se antes você só poderia escrever a mão no papel, agora ela vai fazer 10 vezes mais rápido.

Então, se você for um bom escritor, quando você escrevia na caneta, você vai escrever bem na máquina de escrever. Se

você era um analfabeto na caneta, você vai continuar sendo analfabeto na máquina de escrever. Vai sair um texto bosta. É exatamente assim que funciona.

bosta. É exatamente assim que funciona.

Todas as boas ferramentas só performam bem em quem sabe como usar. Tem muita

gente que fica falando assim: "Ah, eu vou começar a aprender a desenhar no dia que eu tiver o meu estúdio com todas os as canetas, as réguas, a iluminação e

ele ele espera ter o ambiente perfeito para começar". é um idiota. Um desenho

para começar". é um idiota. Um desenho

de verdade começa com papel de pão, com lápis que tem e rabisca. A gente

rabiscava na carteira da escola porque não tinha papel. E se você gosta de desenhar, você faz em qualquer lugar.

Essa outra pessoa, ele não gosta de desenhar, ele gosta de ter. Ele é um consumista, ele quer ter o equipamento de desenista e achar que é um desenista e ficar ofendido quando você fala: "Você

não é um desenista, você não trabalhou 10 anos para fazer, treinou 10 anos para saber." Mesma coisa um programador. O

saber." Mesma coisa um programador. O

cara fala: "Ah, porque eu vou ter um MacBook Pro e aí eu sou um sior porque eu tenho um MacBook Pro e um certificado do boot camp e agora eu

tenho certif o negócio da eu faço código." Não vai, não vai. Eu fazia, eu

código." Não vai, não vai. Eu fazia, eu aprendi a fazer código com 64 KB de RAM com CPU de 8 bits. Se a pessoa não consegue passar para entender essa progressão e acha que porque tem um

computador melhor, fazer código melhor, não vai. Assim como tendo uma ferramenta

não vai. Assim como tendo uma ferramenta melhor como Iá também não vai. Então o

que vai acontecer agora e tá acontecendo agora é que e tornou mais acessível a quem tem interesse. Da mesma forma como um iPad torna mais acessível desenhar

para quem não quer ter papel, tinta, etc. É mais acessível. Mas se você não quiser botar o esforço de aprender, aquele tablet com aplicativo não serve para nada. Você não vai virar um

para nada. Você não vai virar um desenista. Ele não vai te tornar um

desenista. Ele não vai te tornar um desenista. Aquele tablet reflete quem

desenista. Aquele tablet reflete quem você é. Então, se você botar o esforço,

você é. Então, se você botar o esforço, ele vai te devolver o trabalho. A IA é a mesma coisa. Se você botar o esforço,

mesma coisa. Se você botar o esforço, ele vai te devolver o trabalho. Então,

eu tendo a experiência, eu sei quais perguntas fazer. E aí o negócio de

perguntas fazer. E aí o negócio de júnior, de sénior, então da gente, ah, mas ninguém vai contratar mais júnior porque agora I faz trabalho de júnior, não faz. O que que é a diferença de um

não faz. O que que é a diferença de um junior que estudou e de um snior que tem experiência? Se eu tenho um problema de

experiência? Se eu tenho um problema de software para resolver, dado tempo suficiente, ou seja, se eu tivesse tempo infinito, os dois têm que chegar na mesma solução. Entenda isso. Um júnior

mesma solução. Entenda isso. Um júnior

deveria chegar na mesma solução que um snior. O problema é que eu não tenho

snior. O problema é que eu não tenho tempo infinito. Portanto, no tempo que

tempo infinito. Portanto, no tempo que tem, o Júnior faz um código pior. Por

que ele faz um código pior? Porque para

resolver qualquer problema, você tem 20 jeitos diferentes de resolver o mesmo problema. Eu posso desenhar de 500

problema. Eu posso desenhar de 500 formas diferentes, de pé, na mesa, com lápis, com caneta, sem borracha, com borracha. Tem várias combinações além da

borracha. Tem várias combinações além da técnica que eu posso fazer para resolver aquele problema. Só que o Júnior não

aquele problema. Só que o Júnior não sabe porque ele não fez todas elas.

Então ele vai ser obrigado a testar. Ele

vai ficar, ah, eu acho que esse jeito funciona. Eu acho que esse jeito

funciona. Eu acho que esse jeito funciona. Se ele pudesse testar as 20

funciona. Se ele pudesse testar as 20 coisas, ele eventualmente ia chegar na melhor solução. Só que ele não tem esse

melhor solução. Só que ele não tem esse tempo. O que que é um sior? O senior é

tempo. O que que é um sior? O senior é um júnior que fez as 20 vezes em todas as oportunidades que teve, porque ele teve tempo para fazer isso em vários projetos. Ele tentou três vezes, em um,

projetos. Ele tentou três vezes, em um, não deu certo. Tentou três vezes outro não deu certo. Tentou eventualmente no quarto ele conseguiu fazer, por exemplo, sozinho. Ou ele fez errado duas, três

sozinho. Ou ele fez errado duas, três vezes e tinha algum bom sior que esse é o correto de um sior, um que olhou, falou: "Cara, não tenta mais desse jeito.

Eu sei que esses outros 4G não funcionam. Experimenta esses dois aqui

funcionam. Experimenta esses dois aqui para ver se não funciona. Então, o que que o que que é mentorar? é você

conseguir pegar esse leque de 20 opções e falar pro cara, testa essas três em vez das 20, porque agora cabe no tempo.

Então ele testa as três. [ __ ] agora eu entendi. Então eu tô auxiliando o

entendi. Então eu tô auxiliando o aprendizado. É isso que faz um personal

aprendizado. É isso que faz um personal trainer, é isso que faz um treinador.

Ele não, ele não tá lá para fazer por você, mas ele tá lá para te evitar que você faça o caminho mais longo.

Essa esse é o lance da experiência.

Então o que acontece é assim, umor, tem gente que acha que é séor porque faz muito código. Ah, eu sou o fodão do

muito código. Ah, eu sou o fodão do código, é só eu ficar quietinho aqui que eu faço todos os códigos. E aí você fala: "Ah, você tem que ensinar pro, ah, não precisa ensinar pro Júnior, eu faço 10 vezes mais rápido do que ele." Esse

cara é um imbecil. É um imbecil. A

empresa que deixa esse cara trabalhar desse jeito é outro imbecil. Ah, não, eu tenho que cuidar bem desse sior porque se ele fori embora, fodeu minha empresa.

É, fodeu porque você permitiu isso. Este

sior ele não é uma vantagem, é o que a gente chama de uma liability. Ele é uma liability, ele é uma bomba relógio que uma hora vai explodir. Você vai ter merda ou agora ou depois. Você pode

escolher, mas não vai evitar essa merda.

Qual que é a forma de não ter merda?

Porque senor, por mais que use a, não use a, não importa. Uma hora ele vai aposentar, uma hora ele vai trocar de empresa. Você não vai poder sequestrar

empresa. Você não vai poder sequestrar ele, trancar no porão e fazer ele trabalhar. Não vai acontecer. Então você

trabalhar. Não vai acontecer. Então você

tem que ter um processo de ter um júnior do lado dele. Como é que você evita de ter o problema dele sair e levar embora o conhecimento da empresa e não tem ninguém mais? É porque ele ajudou a

ninguém mais? É porque ele ajudou a treinar alguém e esse vai ser o júnior.

Um dia esse júnior trein treinado embaixo, mentorado embaixo desse sênor se tornará o próximo sior. E uma vez entendendo a importância desse treinamento e essa evolução, ele treina

o próximo Júnior e agora se tornou um ciclo que a gente chama de sustentável.

Inclusive, eu tava vendo um Twitter hoje de um cara chamado Steve Yage. Eu não

lembro se ele trabalha no Google, trabalhou no Google, mas ele tava comentando que dentro do Google eles estão muito atrasados. Imagina assim,

ah, o Gemini saiu o ano passado e não tá tão avançado mais hoje. Tanto que você, você mesmo viu que o Cloud, né, saiu.

Por quê? Porque eles lá dentro, primeiro, eles não podem usar o cloud nem o porque é concorrente. Então, eh,

não pode. E segundo que eles deram layoff num monte de gente, então tem uma galera pré-202 e eles não trouxeram nenhum sangue novo

que tá no mercado agora, que nem eu, fazendo esse monte de coisa para levar essas ideias para dentro e estimular a a inovação lá dentro de novo. Então, eles

estão estagnado com o pessoal pré-2022, então, entendeu? deu um layoff agora,

então, entendeu? deu um layoff agora, não contrataram gente nova e todas as novas coisas que aconteceram, eles não estão sabendo internamente dentre os milhares de porque não é um negócio automá, ah, eu sou Google, sei de tudo.

A a ideia toda de cultura da empresa acontece quando você traz sangue novo do mercado que tá faz vendo coisas que você não tá vendo e ele traz essas ideias para dentro. Mesmo sendo júnior, não

para dentro. Mesmo sendo júnior, não importa, ele treinou as ferramentas e você que é sior achou que não tava funcionando porque fez que nem eu, não vi o novembro, não vi o dezembro e aí agora falou: "Nossa, mudou alguma coisa?" Era uma bosta antigamente, não

coisa?" Era uma bosta antigamente, não era uma bosta mais. Aí o cara jurou e fala: "Não, você não testou agora em fevereiro como ficou bom". Entendeu?

Alguém tem que trazer essa informação para dentro. Só que se você só tem o

para dentro. Só que se você só tem o mesmo cara que tá lá 10 anos e não tá confortável na posição dele, que inovação que ele vai trazer? Nenhuma.

Ah, mas ele é o cara que sabe tudo aqui.

Porque você é burro. Porque você é burro. Ah, mas só ele entende o sistema.

burro. Ah, mas só ele entende o sistema.

Porque você é burro. Porque você deixou isso acontecer. Isso foi uma escolha que

isso acontecer. Isso foi uma escolha que você fez de assumir esse risco. Então, o

que que acontece agora? Agora vai ter várias empresas que estão olhando todo mundo fazer esse tanto de IA. Então

apareceu i tá todo ah, que nem você, tá todo mundo fazendo, ah, eu tô fazendo sisteminha mesmo, empresa grande, empresa média, tá todo mundo de alguma forma de orelha aberta falando: "Nossa, eu tô me sentindo que vai dar merda, eu

preciso, preciso fazer alguma coisa".

Alguns estão entusiasmados demais e aí vem aquela frase que eu falei da última vez, se você tá empolgado comás, seu conhecimento eh, como é que é? sua

empolgação com IA inversamente proporcional seu conhecimento por IA.

Porque esse cara tá achando: "Nossa, eu manjo", que a Ia responde tudo para mim e ele me dá todas as respostas. Já nem

sabe o que as respostas estão sendo feitas para agradar ele, mas ele tá acreditando, tá tomando decisões da empresa baseado na IA sem saber que ele tá tendo envzado, não necessariamente a resposta correta. Aí ele tá fazendo

resposta correta. Aí ele tá fazendo software com ele. Nossa, olha só esse software, eu já coloquei aqui para os pessoal dos funcionários usarem. ele

mide se tá funcionando ou não, funcionou uma vez na máquina dele. Então vai ter um monte de sistema que igual antigamente também tinha sistema, assim que nem eu falei, todo software tem bug.

Então agora o Júnior vai aprender quando entrar nessa empresa e ver esse software boss e vai ter que consertar esse software. Agora ele que estudou, tem

software. Agora ele que estudou, tem pelo menos a base teórica, vai olhar para esse software e tem também o o o ele tem que ter a coceira de ver um negócio não funcionando e não deixar não

funcionando. Que nem você tava falando,

funcionando. Que nem você tava falando, cara, eu vi aqui, mas eu fui pesquisar, mas não deu certo, eu pesquisei de novo, não deu certo, que é a tentativa e erro.

Esse é o processo de aprendizado. Então

ele vai fazer o mesmo processo usando IA ou não usando IA. E vai aprender dentro desses projetos, consertando esses projetos ruins. Amanhã você resolve que

projetos ruins. Amanhã você resolve que o aplicativo você fez é bacana, eu quero expandir. Você vai contratar um júnior,

expandir. Você vai contratar um júnior, falar: "Ó, prende aqui comigo, vou te pagar o preço de júnior." Mas aí você tem oportunidade de crescer esse software, você vai ganhar experiência, pa pá. Você vai contratar esse cara e

pa pá. Você vai contratar esse cara e vai funcionar.

A mesma coisa vai acontecer em outras empresas. Ah, mas não vai não vai

empresas. Ah, mas não vai não vai contratar mais tanta gente como tinha antes. Não vai, porque não precisava

antes. Não vai, porque não precisava antes também não precisava antes. Tava

anormal a forma antes e agora sim a gente vai aprender. Mas aí tem outra galera que são siors principalmente, ah, mas o Júnior não vai aprender porque quando eu aprendi, a gente tinha que

fazer todos os códigos na mão para saber que tava certo, não tava certo, né? Eu

treinei fazer volumes de código para treinar e agora o cara vai fazer na IA e não vai aprender mais. Tá errado isso também, porque aí eu eu devolvo da seguinte forma, a carreira de

programação, até você que não é da programação, já deve ter visto imagem nos anos 50, lembra os computador mainfame, aquele gigantão, tu já viu fita e cartão perfurado? cartão perfurado,

que é um cartão que você vai perfurando, eh, ela é derivada das máquinas de TAR para fazer e eh bordado. E aí a gente

encodou o código ali. Nas décadas de 50, 60, para ser um programador, você precisava entender binário de cabeça e hexadecimal de cabeça. Era um negócio

normal, eu tinha que converter instrução em decimal. Ah, eh, instrução

em decimal. Ah, eh, instrução 6F, instrução 1 D com endereço 02 D da, etc, etc. Eu tinha que saber de cabeça.

Isso era meio natural de saber. E e eu tinha que digitar isso encodado num pedaço de papel. E aí eu tinha que fazer um deck, que é um deck de cartões. E aí

eu tinha que planejar com muita calma, porque se eu errar nesse papel dá trabalho consertar a [ __ ] do papel. Uma

vez que você furou o papel, como é que você dá backspace no furo? Tu não dá backspace no furo, você vai ter que refurar tudo de novo, entendeu? Então

você a o próprio, a limitação do seu ambiente exige que você seja extra cuidadoso, porque o trabalho de você consertar depois é pior. Imagina você

derruba aquele a caixa de sapato com os cartão, né? Isso acontecia. Sabe o que eles

né? Isso acontecia. Sabe o que eles faziam? pegava o cartão, pegava uma

faziam? pegava o cartão, pegava uma caneta, aquelas de ponta grossa, de lousa e riscava na lateral de cima para quando cair eu pelo menos saber mais ou menos a ordem, entendeu? Então era assim

que fazia. Então aí eu venho, eu

que fazia. Então aí eu venho, eu argumento, todo programador que acha que o cara agora com IA não vai aprender a programar, ele tá achando que a IA vai fazer o código sozinho para ela. E eu

acabei de falar que isso não vai acontecer. É igual um programador que

acontecer. É igual um programador que hoje quem, qual foi a última vez que você programador furou um cartão? Nunca

furou. Nunca. Quando você converteu binário de cabeça? Nunca. Mas então você não é um programador. Pro cara dos anos 50 e 60 você é um bosta. Você não sabe

fazer esse básico. Esse é o básico de computação. O básico.

computação. O básico.

Como que você Como que você não sabe fazer isso? Aí chegou os anos 80. Nos

fazer isso? Aí chegou os anos 80. Nos

anos 80 aí você vai gostar porque áa de emulação. Já deve ter ouvido isso, pô.

emulação. Já deve ter ouvido isso, pô.

Os caras faziam aquele a tal da linguagem de máquina na mão porque eles otimizavam cada kilobbyte que tinha porque não tinha kilobbyte suficiente, lembra disso? Então, todo mundo tinha

lembra disso? Então, todo mundo tinha que saber fazer o assembly, saber para poder caber o Super Mario em 30 KB.

Kilobbyte é tão pequeno, mas tão pequeno, que o ícone de qualquer aplicativo no seu iPhone 10 vezes maior do que isso. Então, tipo, num ícone cabe

uns 10, 20 jogos de Nintendinho na no tamanho de bites que tem. E eles tinham que programar o jogo com a física, com a imagem, com a música e tudo naqueles 30 kb, os caras eram [ __ ]

Aí, mesma coisa.

É verdade. Eu já li sobre isso.

Mesma coisa.

E os caras foram ficando mais eh menos cuidadoso porque foi tendo mais recurso.

Mais recurso, mais recurso. Cadê o cara que sabe fazer assembly e otimizar memória na mão?

Ô, dá uns porro nesses cara aí rapidinho que eu preciso muito mear, tá? Vai lá, vai lá, vai lá.

tá? Vai lá, vai lá, vai lá.

Mas agora o que o que o que é importante saber aqui é assim, toda essa parte de programação não vai mudar. Então esse

que é o principal. Aí deixa eu aproveitar enquanto ele foi no banheiro.

Dá um dá um vamos olhar aqui. Cadê? Para

você. Eu quero que vocês entrem depois no meu blog e vejam. Por exemplo,

abre Sherlock.

Aí isso aqui, ó. enquanto só enquanto ele tá tudo com IA é fácil de fazer.

Isso é um problema porque é muito fácil. Então as esse tipo de programa que antes custaria dinheiro para fazer, agora sai fácil. Então eu eu não nenhum desses projetos eu tô

testando para fazer dinheiro com eles, porque eu faço em dois dias, qualquer outra pessoa pode fazer em dois dias.

Então isso é outra coisa de modelo de negócio que tem que mudar também. E isso

daqui é um aplicativo que eu fiz para rodar em Mac, Windows ou Linux com interface gráfica para ver que não é só aplicação web também. Daí ele olha os os

diretórios do meu HD porque eu tenho um monte de que nem eu falei, eu tenho um NAS com centenas de milhares de imagens de 30 anos e aí eu queria catalogar

todas elas com IA. Então eu não quero procurar ah qual a foto de 2019. Eu

quero achar qual a foto de 2019 que tem uma montanha azul. Então a montanha azul vai est catalogado dentro dessa LLM, dentro desse modelo que esse aplicativo vai ver. E além disso, ele consegue ver

vai ver. E além disso, ele consegue ver coisas do tipo, tem milhões de documentos duplicados e tudo mais. Aí eu

consigo achar todos os documentos duplicados, ele vai catalogar tudo. E

isso é um aplicativo que eu fiz em dois dias. Aí todos aqueles aplicativos que

dias. Aí todos aqueles aplicativos que eu mostrei até agora, na média eu fiz em dois a três dias. Então o editor de texto que era o Frank MD eu fiz em 2 3

dias. O, a newsletter foi em uma semana.

dias. O, a newsletter foi em uma semana.

Aquele FBI que é para e-mail eu fiz em aproximadamente um dia, dois dias.

Aquele investigator eu fiz em uns 3 dias. Aí eu tô falando que todos esses

dias. Aí eu tô falando que todos esses aplicativos que eu mostrei, eles não servem como modelo de negócio, porque é muito fácil de fazer. Ah, durante esses dois meses, eu fiz 16 projetos e esses

16 projetos são projetos pequenos. Não

tô, nenhum deles é ultra complexo, nem nada disso, porque eu fui fazendo só de bacana. Aquele de mangá eu fiz em dois

bacana. Aquele de mangá eu fiz em dois dias.

Esse daqui que é um scanner, tá vendo a descrição da foto que é a minha foto?

Ele fala: "Uma pessoa de camisa branca na frente do poster de Chain Somen."

Então, se eu quisesse procurar qual foto que eu tirei na frente do Chain Soman, eu posso procurar Chain só, ele vai achar esta foto. Isso não é muita novidade. Tem programa que já faz isso,

novidade. Tem programa que já faz isso, mas eu queria mostrar como faz. Então,

tá online isso, dá para você ver.

Todos esses programas antigamente alguém faria para ganhar dinheiro. Ah, vou

fazer ganhar dinheiro com esse negócio.

Eu fiz em três dias isso hoje. E aquilo que você falou, o

hoje. E aquilo que você falou, o software tá perdendo o valor, né?

É, mas aí que tá. Eu fiz em três dias, outra pessoa não vai demorar tanto, vai, digamos, fala assim, um mês ainda, ainda é um [ __ ] tempo antes levar seis meses, faz de conta. Então eu acho que na minha

cabeça eu fiz o equivalente a uns 2 anos de projeto em dois meses.

Aham. É por isso que eu falo que o ganho é 10 vezes. Mas por que que eu fiz isso?

Porque aquelas 20 opções que tem para fazer um aplicativo desse, eu já sei quais que eu não quero e eu já sei quais são os dois, três que eu preciso testar.

E aí eu já vou dizendo, ó, eu quero que você faça desse jeito, desse jeito, desse jeito, desse jeito. Então o meu prompto, eu começo todo o projeto com um arquivo chamado ideia.md, MD, que é o Markdown,

chamado ideia.md, MD, que é o Markdown, que tem, eu vou tirando da cabeça todas as minhas ideias, que é um prompt que você faz, ah, o seu prompt maior tem o quê? parágrafo, dois parágrafos,

quê? parágrafo, dois parágrafos, para tudo que eu faço é um textão. É um

textão. Ah, e não é estruturado, não tem uma estrutura especial, é um promptão. É

uma conversa que eu inicio para fazer a primeira versão que eu já sei que eu vou cortar coisa depois, adicionar coisa depois, não precisa ser perfeito. Mas

como eu tenho na cabeça esse fluxo que eu acabei de falar, ah, eu consigo desenvolver esse projeto muito rápido.

Então, por exemplo, teve, abre para mim o Mila Mila 1.p, Minha namorada, ela é influencer, então ela tem, e ela é de marketing, estudou tudo isso e ela faz

pesquisa de mercado, ela acompanha mercado geek, tem todos os eventos e aí ela queria, ela tinha a ideia de fazer um bote para ser assistente dela, para coisas do tipo, ah, eu quero que não

esquecer que vai, quais eventos que vão ter nesses estados para ela me avisar, para ver quais empresas que vão est pra gente cruzar isso depois e aí ver esse

outra fonte de informação para poder pegar pegar esses patrocinadores durante este timing para ver qual é o melhor tipo de roteiro que eu posso fazer para este tipo de campanha ou esse tipo de

vídeo. Então eu fiz um bote que nem eu

vídeo. Então eu fiz um bote que nem eu fiz o Marvin, aí tem a Mila Bote, porque ela é Mila, ia falar com a Mila. Achei

engraçado isso aí. E é um tá no Discord dela. E aí todo dia esse bote tá

dela. E aí todo dia esse bote tá buscando informações e carregando um banco de dados, compilando numa forma digerível e dando a informação todo

diariamente para ela, a informação de patrocínio, informação de evento, etc, etc. E aí ela pode conversar com esse bote em cima desse banco de dados. Ah,

você pode pegar esses dados que você me deu e fazer um roteiro assim, assim, assim. Aí ela tenta fazer. Aí ela tava

assim. Aí ela tenta fazer. Aí ela tava comentando, não parece nada orgânico, tá meio forçada. Aí o bote responde: "Ah,

meio forçada. Aí o bote responde: "Ah, entendi. Então vamos para ideias casuais

entendi. Então vamos para ideias casuais do dia a dia e eu tenho essa e essa essa ideia. O que que você acha?" Então é um

ideia. O que que você acha?" Então é um bote que fica conversando. E eu fiz esse bote em dois dias para ela. Foi dois

dias que eu fiz esse boot. Não, não é por isso que eu falo que o open claw que é um bote de conversar, tá? É um bote.

Eu eu eu não preciso ter o risco de segurança. Eu faço em dois dias. Eu

segurança. Eu faço em dois dias. Eu

tenho o Marvin que eu fiz em dois dias, eu tenho o Mila, que eu fiz em dois dias. E eu posso ficar fazendo bote todo

dias. E eu posso ficar fazendo bote todo dia. É ridículo para mim fazer bote. Eu

dia. É ridículo para mim fazer bote. Eu

sei como fazer um bom bote. Então de que nem você falou, é, eu já fiz várias vezes. Então

vezes. Então eu não faço a menor ideia de como fazer um bom boot. Eu ia ter que aprender para [ __ ] errar, fazer uns bot.

E aí que tá agora, antigamente seria isso. [ __ ] não sei como fazer um bote.

isso. [ __ ] não sei como fazer um bote.

Aí você tem que abrir, deixa eu ver como que faz um bote do Discord. Você vai

achar um tutorial, ele vai estar desatualizado, aí você vai baixar uma biblioteca e não funciona, dá uma mensagem de erro, você vai no Google, você vai fazer todo esse processo para aprender como fazer um bote pro Discord.

Hoje em dia é mais fácil. Você vai no cloud, fala: "Claud, eu quero um bot do Discord, eu quero assim, assim, assim."

Aí ele vai falar: "Ah, você precisa do token, tal". Fala: "Porra, que token?

token, tal". Fala: "Porra, que token?

Onde que tem esse token?" Cláudio, onde que eu tenho esse token? Ah, você vai ter, mesmo? É assim mesmo.

mesmo? É assim mesmo.

Você vai ter o site do Discord developers.desiscord.com.

developers.desiscord.com.

no link, você só clica, você só clica, você vai criar uma conta, vai no lugar tal, tal, tal, vai ter um lugar para você colocar o token. Aí se

ele não tiver muito defasado no treinamento, vai ser mais ou menos o mesmo caminho. Vira e mexe, ele erra em

mesmo caminho. Vira e mexe, ele erra em alguns dashboards que ele não tem treinamento. Mas aí, aí eu falo: "Cara,

treinamento. Mas aí, aí eu falo: "Cara, eu fui nesse lugar, não tinha, pesquisa de novo." Aí ele vai na web, vê a

de novo." Aí ele vai na web, vê a documentação e: "Ah, verdade, meu treinamento tava errado, você tem que ir nesse, nesse, nesse outro lugar". Então

isso vai acontecendo e você fica conversando com ele desta forma: "Ah, eu peguei o tok, o que que eu faço com ele agora?" Aí ele fala: "Ah, você vai ter

agora?" Aí ele fala: "Ah, você vai ter que abrir um arquivo, colocar nesse lugar tal para mim, me avisa quando você colocar". Aí você coloca aí, checa para

colocar". Aí você coloca aí, checa para mim aí, ah, você colocou no lugar certo, agora eu vou fazer o próximo passo.

Então você vai fazendo isso.

E aí, o que eu quis dizer que quando eu chegar no resultado aqui, que ele tá funcionando, ligado e o [ __ ] eu vou descobrir que eu faltou eu uma parada que eu queria também, ligado? Isso rola

para [ __ ] Vou te falar, é gostosão porque eu vou aprendendo isso. E é isso que tem gente que não tem paciência. Ah,

eu tenho que ficar explicando muito para ele. Eu podia eu mesmo est fazendo. E é

ele. Eu podia eu mesmo est fazendo. E é

maor mentira que ele não ia fazer também. Tava procrastinando. E por isso

também. Tava procrastinando. E por isso que ele tá pedindo para Iá, porque se tivesse, fosse fácil, se ele já tinha feito, ele tá usando a ia porque ele não fez, certo? Ele tá anos querendo fazer e

fez, certo? Ele tá anos querendo fazer e não fez. Ah, isso aqui deveria ser fácil

não fez. Ah, isso aqui deveria ser fácil de fazer, eu não precisaria ter que explicar tanto. E aí tem os caras que

explicar tanto. E aí tem os caras que pegam para esse tipo de esse tipo de mercado e inventa ferramentas para falar: "Não, eu vou facilitar para você". Aí inventou num troço chamado

você". Aí inventou num troço chamado spec Driven Development, que é um prompt num formato que você parece um formulário que você vai preenchendo para

facilitar ele fazer. E a outra bullshit enorme que nem eu falei agora, a Ll tá cagando e andando para isso. Ela não foi treinada especificamente para este formato. Esse formato não quer dizer

formato. Esse formato não quer dizer porcaria nenhuma. Se você mandou em um

porcaria nenhuma. Se você mandou em um prompt ou você teve que fazer dois ou três prompts, não faz a menor diferença.

Você gastou um pouco de token a mais, [ __ ] [ __ ] Então você fala do jeito que você quiser, explica da melhor maneira possível. O máximo que vai

maneira possível. O máximo que vai acontecer e e nenhum formulário vai resolver isso para você é que você não sabe explicar o problema. Todo mundo

acha que sabe explicar o problema.

Ninguém parou para escrever para ver se realmente sabe. Ninguém escreve o

realmente sabe. Ninguém escreve o próprio problema. Então, eu sei disso

próprio problema. Então, eu sei disso porque eu escrevo. Eu escrevo para um [ __ ] Tudo que eu faço, eu escrevo o que eu faço. Por isso que meu blog tem mais de 700 posts, porque tudo que eu

aprendo e faço de novo, eu faço um post.

Mas eu faço um post, não é porque eu sou legal e eu quero mostrar para todo mundo, é porque é ali que eu guardo as coisas. Já que eu vou guardar em algum

coisas. Já que eu vou guardar em algum lugar, faço no post e acabou, entendeu?

Então, naturalmente as anotações se tornam posts com passo a passo, porque amanhã ou depois eu vou refazer aquela máquina ou aquele programa, eu já tenho passo a passo do que eu tinha feito, não preciso lembrar de novo.

Tu mesmo entra lá, tu mesmo ler teu próprio blog.

Entra lá, melhor ainda, porque se tá no no blog, o Google indexa e eu faço site dois. Aquiitãoreios.com. Ah, Linuxart,

dois. Aquiitãoreios.com. Ah, Linuxart,

Linux Docker, não sei o quê. E o Google acha para mim, entendeu? Por que que eu vou me dar o trabalho se o Google acha para mim? Vou usar o Google a meu favor.

para mim? Vou usar o Google a meu favor.

E aí, por acaso, vira um blog?

Então o eu sei escrever e aí eu sei também que programador é péssimo para comunicar, péssimo, porque ele não tá acostumado a escrever, ele não gosta de escrever, ele acha que ele escreve código melhor do que ele sabe explicar e ele não entende que as duas coisas são

correlacionadas. E é por isso que o

correlacionadas. E é por isso que o código dele dá tanto pau, porque ele não sabe explicar a ideia que ele tem, ele não sabe elaborar a ideia. Então se se sentar o cara aqui agora para te

explicar, ele fala: "É daquele jeito".

Você sabe? Ah, daquele jeito. É bacana.

É isso aqui, pô. Firmeza. É isso. E fica

assim a conversa. E aí tem aquele cliente prolixo, é muito hater, não? E tem o cliente prolixo que fez o

não? E tem o cliente prolixo que fez o MBA. Aí ele chega com todo vocabulário

MBA. Aí ele chega com todo vocabulário de MBA. Porque não? Porque eu sei, é o

de MBA. Porque não? Porque eu sei, é o deadline com mindset e aí eu tení o budget, eu tenho que fazer aqui o meu

meu minhas métricas e não sei o que, não sei o quê. E aí na hora de explicar o que que é a [ __ ] do produto, ele não sabe porque o template do vocabulário vai só até ali. Agora a parte que ele tem que realmente explicar a regra de negócio, ele não sabe porque ele não

sabe desenhar a regra de negócio dele.

Ele ah, mas você deveria saber, você não fez programação para saber? Fala:

"Porra, eu fiz programação, não fiz supply chain para saber como é que a sua cadeia de suprimentos, filha da [ __ ] Entendeu?"

Entendeu?" Perfeito.

Mas é exatamente assim. Mas todo mundo tem esse problema. Ninguém escreve a [ __ ] E prompt, prompt é finalmente a Iá reflete quem você é. Se você nunca escreveu esta merda para explicar para

as pessoas, você também não vai conseguir explicar para Iá. E aí você vai dizer que a Iá que não faz as coisas porque você não sabe usar ela, porque você não sabe se comunicar, porque você pergunta do seu jeito tosco, ele

responde do jeito errado, porque o seu jeito tosco só leva a uma resposta errada. E você, tá vendo? A I é burra,

errada. E você, tá vendo? A I é burra, ela não sabe o que fazer. Em vez de dizer: "Não, o meu texto é uma bosta, eu deveria melhorar o meu texto, deixa eu melhorar o meu texto". Entendeu? Mas

quem souber fazer a autorreflexão disso é quem vai tirar melhor. Aproveito daí,

ó. Eu digo que hoje em dia, independente se tá usando Cloud, Codex, GLM, os principais, e não está tendo bom resultado, o problema não é a o problema não é a versão da ferramenta, o problema

é que você é um bosta de comunicar. É

ruim. Olhe no espelho e fala: "Eu sou ruim, eu sou ruim". O aqui também falou que eu sou ruim. Eu sou ruim. Eu vou

melhorar. Eu vou, porque se você não consegue fazer, todo programador é tóxico para [ __ ] para [ __ ] para [ __ ] Isso chama tough love, porque fazendo assim uma vez

que nem borracha de geladeira, entendeu?

Você pelo menos aprende, não vai fazer errada. É essa, essa é educação

errada. É essa, essa é educação Havaianas.

Se tu é se você é um um programador, você provavelmente é um adulto. Então tá

tranquilo ouvir essa parada aí.

Exatamente. Mas esse que é o principal, porque o grande lance é que antes ninguém estava exigindo nada, porque era só tanto que tinha aqueles caras que fazia influencer, que era programador e trabalhava no Google, ficava fazendo

vídeo que não trabalhava [ __ ] Nossa, que dia de mim aqui na academia, eu respondi uns e-mails, voltei para casa e não fez [ __ ] nenhuma. E isso tá errado.

É óbvio que tá errado. É óbvio que não ia durar. É óbvio que era uma bolha. E é

ia durar. É óbvio que era uma bolha. E é

óbvio que esse cara não é um programador, ele é um poser, ele é um grifter, ele não é um programador, nunca ia ser um programador. Então ele só tá lá pelo cloud, é só para ganhar like,

entendeu? Então ele não sabe fazer o

entendeu? Então ele não sabe fazer o trabalho de verdade, não sabe var noite, ele não sabe corrigir bug difícil, não sabe ouvir xingo de cliente, ele não sabe fazer nada dessas coisas. Ele, ele

vai lá, não sei como fazer, vai sair chorando pra casa, vai pra saada na mãe.

Ele gritou comigo, falou: "Porra, é verdade, você fez uma coisa bosta, fez dívida técnica, acha que funcionou só na sua máquina, cobrou do cliente e entregou, deu pau no cliente dele agora

e ele vem xingar com você, ele tá no direito dele, você que é um bosta. Agora

seja um profissional, agora responde, fala: "Não, bacana, entendi, vou corrigir isso daqui." Minha

responsabilidade, isso é responsabilidade.

Código gerado por IA é responsabilidade de quem tá usando. A responsabilidade do código não é da IA. Assim como do desenho, não é da caneta e nem do livro, é da máquina de escrever. É de quem usa

ela. Então, todo mundo fala assim: "Ah,

ela. Então, todo mundo fala assim: "Ah, eu fiz do jeito que a IA me mandou". Eu

fala: "Você escreve do jeito que a máquina de escrever te mandou também?"

Não faz nenhum sentido. Você é o responsável. Para você ser o

responsável. Para você ser o responsável, você tem que estudar, você tem que fazer experimentos, você tem que errar. Com o erro, você tem que ter a

errar. Com o erro, você tem que ter a autorreflexão de ver como que eu melhoro para ser um profissional melhor e assim, pouco a pouco, ao longo de vários anos,

você se torna um especialista snior. E

esse que é o o grande caminho. E a Iá não vai consertar esse caminho para você se você não tem essa mentalidade. Se

você acha que tudo é fácil, tudo é no #rieleve vantagem, não vai acontecer.

Não vai acontecer. Então aí vai substituir todo pessoal. Rhiri levei

vantagem. Todo, todo. Graças a Deus.

Acabou esse povo.

Que bom, né?

Nossa, [ __ ] eu esqueci de falar, Vitão, no começo pros caras mandar mensagem. Mas

tem mensagem para nós? Tem. Mas antes da da gente ver as mensagens, tu não tem certeza que tu não quer dar uma mijada não aqui?

Eu tô de boa, tô de boa.

Tá bom, tá bom. Então, olha só, ó, antes da gente ir para as mensagens, deixa falar para vocês dos dos parceiros que tem que tem com a gente aqui hoje nesse episódio do Flow, começando pela Insider, que é quem faz essa camisa aqui que eu tô usando hoje. Essa daqui é uma

T shirt, mas lá no site da Insider, cara, você, ó, primeiro de tudo, aniversário da Insider. A aia tá fazendo aniversário esse mês e tá rolando aí,

cara, umas promoções, ó, além do cupom flow, que já te dá os descontos lá no teu carrinho de compras, eh, você ganha brinde para compras acima de R$ 399, tá?

E o site também já tá com com promoções, com descontos lá. E esse é um dos melhores momentos do ano para você aproveitar aí. 9 anos de Insider, pô, 9

aproveitar aí. 9 anos de Insider, pô, 9 anos de Insider, se tu não experimentou ainda, tá brincando, tá? eh, tá perdendo tempo. E se você já conhece, vai

tempo. E se você já conhece, vai completar lá o teu armário para você ficar também aí eh tranquilo em todas as ocasiões, porque você sabe que a Insider tá aí para te ajudar eh em tudo que você

for fazer, né? Eh, vai viajar, a Insider é uma boa escolha porque é fácil de ela desamassa no corpo, eh, vai treinar e trabalhar depois. A Insider é uma boa

trabalhar depois. A Insider é uma boa escolha também, porque ela seca rápido, por exemplo, né? E então vai lá conhecer, se você não conhece ainda, insiderstore.com.br,

insiderstore.com.br,

tá? Tem o QRcode aqui, tem o link aí na descrição também. usa o cupom flow, tá?

descrição também. usa o cupom flow, tá?

Eu tenho certeza que tu vai se amarrar lá se tu não conhece ainda. Uma outra

mensagem aqui é da #treinamentos, cara, que é uma das maiores empresas de treinamento pro mercado de trabalho da América Latina. E bom, se você tá

América Latina. E bom, se você tá pensando aí em dar uma melhorada no teu nível, aprender uma nova habilidade, tá pensando em aprender, sei lá, Power BI, a lidar com inteligência artificial ou

ou Python, essas coisas todas aí tem lá na #treinamentos. E a gente fez uma

na #treinamentos. E a gente fez uma parceria, cara, que tá dando para você R$ 500 de desconto na comunidade impressionadora, que é o conjunto de curso, conjunto completo de curso da

#treinamentos, tá? Eh, se você tá

#treinamentos, tá? Eh, se você tá pensando aí, sei lá, aprender alguma coisa como um hobby, inclusive que nem eu, eh, dá uma olhada lá, tem o Qcode aí, tem o link aí na descrição. E você

também pode usar o cupom flow, é para você alcançar, para você ter acesso a esses R$ 500 de desconto lá na #treinamento, tá? Não perde tempo não.

#treinamento, tá? Não perde tempo não.

Vai lá e vai. Deixa eu ouvir as mensagens aí. Vitão.

mensagens aí. Vitão.

Luiz mandou uma mensagem pelo Pix. A

quita, o Opus 4. Ainda erra várias questões de eng. Elétrica. Só o GPT 5.4 acertou as listas da minha graduação.

Quanto falta para a GPT Opus acertar em nível PhD? Para mim o 5.4 está à frente.

nível PhD? Para mim o 5.4 está à frente.

Que interessante. Mas ele tá falando de um uso diferente do que a gente tava falando também. Mas aí que tá, eu falei

falando também. Mas aí que tá, eu falei isso também no Twitter hoje, quando todo mundo tá baseando as respostas, ah, um é melhor do que o outro, porque no meu caso de uso funcionou, o outro não funcionou. E isso é uma estupidez de

funcionou. E isso é uma estupidez de fazer. Eh, você não vai chegar assim,

fazer. Eh, você não vai chegar assim, porque o modelo é treinado com a internet inteira, com milhões de papers, com a Wikipedia inteira, com tudo.

Depende de qual foi o tuning de parâmetros para determinados tipos de problema. E não quer dizer, ah, ele foi

problema. E não quer dizer, ah, ele foi bom em coisas de, sei lá, matemática.

Não quer dizer que ele é bom em toda a matemática. Ele é bom naquele pedaço que

matemática. Ele é bom naquele pedaço que ele foi bom. Pode ser que ele seja ruim em trigonometria, mas ele é bom em cálculo. Isso pode acontecer. Isso não

cálculo. Isso pode acontecer. Isso não

tem nenhuma garantia de que se ele foi bom numa matemática, ele vai ser bom em gramática. Se ele foi bom em chinês, vai

gramática. Se ele foi bom em chinês, vai ser bom em japonês. Não existe essa garantia. O modelo denso tem 1 trilhão

garantia. O modelo denso tem 1 trilhão de parâmetros. São 1 trilhão de pequenas

de parâmetros. São 1 trilhão de pequenas probabilidades que cruzam entre si.

Então, e existe um processo de sorteio aleatório ali no meio. Então, por isso que eu falo que a gente fala que ele é um um papagaio aleatório, um gerador de texto papagaio aleatório. Ele não pensa,

ele não pensa, ele pega esse treinamento e vê a melhor probabilidade do que seria a resposta que você tá perguntando.

dependendo de como foi o material de treinamento, dependendo de como foi a limpeza desse material, dependendo de como foi a o aprendizado reenforçado que foi feito depois, dependendo de como foi

o alinhamento que foi feito depois.

Então tem toda uma cadeia de processo para fazer, os modelos vão ser muito diferentes. Daí o que acontece é que

diferentes. Daí o que acontece é que para algumas coisas talvez o Cloud seja melhor, para algumas coisas GPT seja melhor. Eu posso dar um exemplo disso

melhor. Eu posso dar um exemplo disso agora que é um negócio que eu fiz para você isso daqui e abre para mim. Tem um

vídeo chamado Mário.

Tá.

Que que eu fiz? Eu fiz exatamente o que você estava falando. Eu peguei uma Honda Super Mario e eu queria aprender uma engine de jogo chamada Godô, que eu nunca usei. Então eu não não sou bom

nunca usei. Então eu não não sou bom nela. Aí eu pedi pro pro Codex pegar o a

nela. Aí eu pedi pro pro Codex pegar o a Hon e ler da Hon, não sair de memória e tirar os sprites da Hondinho,

tirar o a a fase e tirar a física básica do Mário e traduzir em Godo Script, que é desse da essa engine de jogo. E esse

isso que tá rodando aqui não é o Super Mario de verdade. Esse aqui é o que tá rodando do Godô. Ele só a primeira fase, só ó, tá vendo? Dá bem errado as coisas, é porque eu não peguei tudo ainda, tá

vendo? Não saiu nada. Isso, isso é o

vendo? Não saiu nada. Isso, isso é o código que tá compilado nativo para rodar em Windows e vai poder rodar em Android quando terminar também. E aí eu tava fazendo uma um teste de conta, ó, como as coisas estão desalinhadas aqui.

Tem uns bugs porque eu falei leia da home. Como é que eu sei que ele leu da

home. Como é que eu sei que ele leu da home? Porque eu falei para ele fazer não

home? Porque eu falei para ele fazer não de cabeça. Eu faço faça um script que

de cabeça. Eu faço faça um script que vai na home e para que eu possa rodar manualmente e ver que é isso que ele tá fazendo, entendeu? Então é assim que eu

fazendo, entendeu? Então é assim que eu garanto.

Daí eu peguei isso daqui, eu falei: "Cara, eu não, eu queria fazer um blog post disso, mas eu não vou poder fazer porque se eu botar isso aqui, vai que os ninjas da Nintendo aparece e e me cancela aqui, aí pode ser que eu

desapareça, entendeu? Essa é uma merda".

desapareça, entendeu? Essa é uma merda".

Aí eu falei: "Puta, eh, então essa altura da vida, né?"

É, [ __ ] vou ter problema logo com a Nintenda, velho. Eu gosto da Nintenda,

Nintenda, velho. Eu gosto da Nintenda, não é?

Salve Nintendo, eu não vou terminar esse projeto, não precisa vir atrás de mim.

É só prova de conceito.

Aí o que que eu fiz? Falei: "Bacana,

para fazer um blog post, se eu for tentar o projeto, vai ter que ser da Sega. Então, Sega nem tá mais aqui, né?

Sega. Então, Sega nem tá mais aqui, né?

Não tem mais. Abre para mim agora. Tem

um chamado, acho que é o streets. Deixa

eu ver. Tem um streets aí? Não. Ã, tem,

[ __ ] Aí sim.

Aí eu peguei o do Mega Drive e aí eu peguei o Codex e o Codex conseguiu tirar. Jackson. Então, tá vendo como tá

tirar. Jackson. Então, tá vendo como tá errado? Para mostrar que não é não é o

errado? Para mostrar que não é não é o jogo mesmo. É de novo do Godô. Daí eu

jogo mesmo. É de novo do Godô. Daí eu

pedi pro codex pegar o background todo e fazer a primeira tela só. Daí quando

chegou na hora de pegar os sprites que montam o os personagens, a primeira coisa que ele fez foi pegar a cabeça do Axel que aparece na seleção de personagem. Ele botou ali e falou: "Ah,

personagem. Ele botou ali e falou: "Ah, o Axel". Eu falei: "Não, não é o Axel,

o Axel". Eu falei: "Não, não é o Axel, isso aqui é da seleção de personagem".

Ah, é verdade. Então, aí começou a tentar pegar, ele pegava um monte de sprite de outros lugares e tudo fora de ordem. Então tava tudo quebrado e eu

ordem. Então tava tudo quebrado e eu fiquei a tarde inteira de domingo tentando fazer ele pegar os personagens e todas as maneiras fiquei guiando e eu e eu tenho essa paciência que eu falei

de ficar tentando, porque enquanto eu estav fazendo três outros projetos em paralelo.

Uhum.

Não saiu. Não saiu. Eu terminei o domingo, não saiu. Aí eu esperei até segunda que resetava o meu cloud code.

Falei: "Cara, vou pegar da onde eu parei? Cloud Code, ó, eu tentei fazer,

parei? Cloud Code, ó, eu tentei fazer, não pegou. Eu quero que você leia da

não pegou. Eu quero que você leia da home, faça um script. Não pegue de cabeça, que garanta que a tá, você tá pegando o o offset, que é a posição do

dos sprites do mapa que tá na home, porque tem essa informação na home, você só não tá sabendo achar. E aí o Claud tentou algumas vezes, demorou, demorou uma hora para ele conseguir fazer e aí

ele conseguiu extrair o o Axel. E aí eu falei: "Bacana, agora você entendeu onde tá, documente, eu peço documenta". Uma

vez quando dá um negócio muito longo, ele documentou um arquivo sobre isso no Markdown e aí eu falei: "Agora pega as outras animações e mapeia para mim com o meu o

meu gamepad de Xbox para quando eu clicar qualquer botão soltar qualquer animação para eu ver funcionando." E aí por isso que você estava vendo os Michael Jackson ali acontecendo. Eu

cheguei nessa etapa, você vê que os backgrounds não tem na nenhuma animação, não tem nada ainda. Isso é uma prova de conceito de que eu consegui de alguma forma ir instruindo ele para conseguir

puxar as coisas. Nesse meio do caminho, eu também vou aprendendo. Ele tentou a técnica de subir um emulador para ver da Verran o que que ele tá carregando para ver se dali ele sai alguma coisa. Então

tem toda uma técnica para fazer isso.

Mas não precisava fazer isso. Ele achou

uma outra forma. Então

maneiro, tem várias formas. E à medida que eu vou, eu também vou aprendendo, porque aí a teve um bug que eu falava: "Cara, ele tá andando em cima da parede aqui em

cima, faz ele andar aqui no chão, aqui embaixo." Aí ele falou: "Não, mas eu

embaixo." Aí ele falou: "Não, mas eu fiz, eu eu coloquei aqui, ó, X e Y tá assim, assim. Aí eu roda de novo."

assim, assim. Aí eu roda de novo."

Falei: "Não." Aí ele ficava falando para mim: "Você fechou e recarregou para garantir". Eu falei: "Ô, filha da puta".

garantir". Eu falei: "Ô, filha da puta".

Óbvio que eu fiz. Eu falei,

eu apertei F5.

Umas três vezes ele falou isso para mim.

Eu falei: "Não assuma que o problema é esse. Eu estou vendo errado, portanto a

esse. Eu estou vendo errado, portanto a sua premissa tá errada. Volte pro

arquivo e veja se não tem um outro arquivo fazendo offset nele." Aí ele olhou de novo falou: "Ah, tinha uma configuração global mais essa minha e eu tava fazendo duas vezes. Então ele tava indo duas vezes para cima, por isso que

ele tava em cima. Então eu tirei de um, ele voltou para baixo, sabe? Então tem

todo um ritual para fazer ali.

Isso é porque ele não é tão bom assim na nessa linguagem, sei lá. Não é, não é isso. Não necessariamente. Pode ser isso

isso. Não necessariamente. Pode ser isso também. Não necessariamente é isso. Mas

também. Não necessariamente é isso. Mas

esse é um exemplo só que eu quis mostrar de como o Codex, que é o GPT, falhou omericamente para mim e o Claud funcionou para mim. Mas já aconteceu o

oposto de o Cloud ter parado e eu mandar pro Codex ele resolver. Então mesmo

dentro da área programação, ele é bom em algumas coisas e não em outras. E depende muito, talvez eu tenha

outras. E depende muito, talvez eu tenha feito um prompt errado, talvez o meu contexto tenha esteja estava sujo antes e aí ele algumas coisas que tava lá atrás prejudicou a resposta lá na

frente. Eu deveria ter limpado a sessão

frente. Eu deveria ter limpado a sessão e continuado. Então depende. Quando você

e continuado. Então depende. Quando você

vê uma resposta de alguém falando: "Ah, o GPT para mim é melhor que o Codex".

Você fala: "Você só não testou o suficiente, o que você faz é uma bosta".

É só isso. Porque se você testar o suficiente, você vai ver que os dois t pontos fortes e pontos fracos. Não tem

um que é melhor consistentemente do que o outro. Quando você tem

o outro. Quando você tem consistentemente, provavelmente é o seu viés da do seu contexto que levra a essa solução diferente. Então é mais de novo,

solução diferente. Então é mais de novo, o problema é mais você do que a ferramenta. A ferramenta faz,

ferramenta. A ferramenta faz, entendeu? Só que às vezes depende do

entendeu? Só que às vezes depende do contexto e às vezes tá sem paciência, foi o dia que você não tava afim de explicar, você errou a digitação em vez de escrever sim, escrever um não.

Acontece. Várias vezes eu eu falei: "Ah, eu quero que você mexa neste arquivo e eu dei enter". Aí ele começou a mexer no arquivo. Fal, não, não, não, não, não.

arquivo. Fal, não, não, não, não, não.

Es que es não mexa neste arquivo. Então

eu dou es para parar. Não, não, não, não, não, não. Porque ele falou: "Ah, vou mover este arquivo." Não, não. Para

não mover esse arquivo. Não move não move. Foi tu que vacilou no PR.

move. Foi tu que vacilou no PR.

Eu que vacilei no prompt, entendeu?

Porque eu tô digitando lá, tô vendo o YouTube ao mesmo tempo. É bacana aqui, tô vendo o Igor aqui, bacana, tal. E aí

eu digitei errado, entendeu? Isso vai

acontecer. Isso acontece com o programador normal fazendo código na mão. Você tá fazendo um código, você tá

mão. Você tá fazendo um código, você tá ouvindo um podcast. Ah, bacana, rodei.

Será que eu testei? Ah, testei. Jogo na

produção. Isso acontece com o humano também. O que ele esquece é que ele como

também. O que ele esquece é que ele como humano faz a mesma merda. Todos os bugs que tem são feitos por humanos. Não foi

a IA que fez a e programador acha que a IA tem que fazer perfeito da primeira vez. Não vai acontecer. Não vai

vez. Não vai acontecer. Não vai

acontecer. Eh, o que eu tenho que falar assim, a imersão que todo mundo precisa fazer é tratar a IA como se fosse um programador júnior ou uma empresa tratar

a IA como se fosse um terceirizado.

Terceirizado na Índia. Aí nenhum dos dois casos você vai ficar você digitando. Você tem que explicar o que

digitando. Você tem que explicar o que você quer e aí ele vai fazer. Só que

nenhum dos casos existe na na história dos projetos, não existe a ilusão de que eu vou fazer 50 páginas de requerimento, eu vou mandar pro cara na Índia e vai

voltar o produto exatamente como eu quero. Isso nunca vai acontecer. Nunca

quero. Isso nunca vai acontecer. Nunca

vai acontecer. Da mesma forma, como você já deve, já fez reforma, já, já pediu para arquiteto fazer o plano?

Já, já, já, já deu certo 100% começo ao fim? Nunca,

né?

Não, não.

O que que acontece se você não fica vendo a obra?

Dá merda.

Dá merda. É umas gavetas que não abre.

É, ele quebra as lajotas e você não fica sabendo. Aí tem um vazamento que ele deu

sabendo. Aí tem um vazamento que ele deu ali um jeito, você não ficou sabendo também. É, vai, é isso que vai

também. É, vai, é isso que vai acontecer. Qualquer projeto de qualquer

acontecer. Qualquer projeto de qualquer lugar, se você não está acompanhando e acompanhar não é microgerencial, você não vai ficar no cangote do cara o dia inteiro, você tem que de no mínimo uma

vez por dia, no mínimo uma vez por semana parar para Deixa eu ver se tá que esse negócio aqui que não tá estranho aqui, cara. Ah, não, eu ia fazer, né?

aqui, cara. Ah, não, eu ia fazer, né?

Aquela hora que não, não, eu era a próxima coisa que eu ia fazer. Falei:

"É, você ia mesmo, né?" Ou você ia tampar aqui? Não, eu ainda não acabei,

tampar aqui? Não, eu ainda não acabei, pô.

É, é, é isso que vai acontecer.

Exatamente isso que vai acontecer. A, a

parte legal da Iá é que ele é um cara que, graças a Deus, ele não precisa ficar tentando te agradar. Ele vai

tentar, porque ele é programado para isso. Ele não tem a necessidade de fazer

isso. Ele não tem a necessidade de fazer isso. Ele não tem a necessidade de

isso. Ele não tem a necessidade de querer te enganar. Ele não tem a necessidade de ter malícia com você. ele

não tem necessidade de queer fazer, ou seja, ele vai tentar fazer o que você pediu da melhor forma que ele sabe fazer naquele momento com os dados que ele tem à mão. Então, ele é neutro e isso é

à mão. Então, ele é neutro e isso é ótimo porque ele não vai ficar com raiva de mim se eu gritar com ele, ele não vai ficar ofendidinho, ele não vai cuspir no

meu prato se eu xingar ele, né? Então,

eu posso fazer o que eu quiser com ele e se eu posso fazer o que eu quiser e mesmo assim ele não responde do jeito que eu acho que deveria, é porque eu não sei comunicar. O problema não é ele, o

sei comunicar. O problema não é ele, o problema é a pessoa. Então, todas as vezes que você vê alguém falando, é, eu testei o GPT, ele não me dá a resposta

certa, só o Cláudi Cara, é você que é ruim. A parte da premissa que quem

ruim. A parte da premissa que quem escreveu essa esse reporte é ruim, parte dessa premissa. a menos que ele

dessa premissa. a menos que ele demonstre a metodologia que nem eu fiz com os benchmarks. Então, para dizer que ah, o GLM foi pior, o foi melhor, eu demonstrei a metodologia que eu fiz. Eu

rodei todo mundo sobre as mesmas condições, no mesmo hardware, usando estas mesmos prompts e eu chequei os mesmos resultados e comparei desta e desta, desta forma, calculando a

quantidade de tokens, calculando o tempo levado, colocando todas essas dimensões.

E aí eu não concluí, este é melhor. Eu

concluí, este é melhor se você tem dinheiro para pagar. Este é melhor, mas você vai ter mais trabalho. Esse daqui é melhor, mas vai demorar o triplo do tempo. Então, de novo, cada um tem a sua

tempo. Então, de novo, cada um tem a sua característica. Então, tudo que eu

característica. Então, tudo que eu falei: "Ah, o Codex é o melhor e o OPS é melhor". Na minha situação que eu quero

melhor". Na minha situação que eu quero coisa rápida e eu tenho dinheiro para pagar, [ __ ] é ele que eu vou usar, é a minha Ferrari. Tá, mas eu eu quero só fazer uma entrega de tofu na montanha,

tá bom? meu meu 86 aqui consegue levar,

tá bom? meu meu 86 aqui consegue levar, tá ótimo. Pode ser ele também, mas

tá ótimo. Pode ser ele também, mas baratinho. Então depende. Não tem um

baratinho. Então depende. Não tem um carro que resolve todo problema. Não tem

um LLM que resolve todo o problema.

Então não tem LLM que resolve todo o problema, não tem linguagem de programação perfeita, não tem uma ferramenta que faz tudo. Você tem que ser promisco e desleal com toda a

tecnologia e usar todas. É isso que tem que fazer.

Boa. É um bom jeito de lidar com tecnologia. E manda e manda. E e outra,

tecnologia. E manda e manda. E e outra, não precisa dar bom dia.

Não precisa dar bom dia porque o quita já garantiu que todos vamos morrer quando tiver o para cada bom dia que você der. Eu tô

fazendo, eu tô fazendo bullying em 30 vezes. Nunca vai, nunca vai funcionar.

vezes. Nunca vai, nunca vai funcionar.

Tem mais aí, Vitor? Vai d

Robson mandou uma mensagem pelo Pix.

Você acredita que as LLMs se tornarão capazes de atuar como um engenheiro de software? Se sim, em quais condições?

software? Se sim, em quais condições?

Não, essa é a resposta. É isso que eu acabei de falar. Ele vai ser a ferramenta do engenheiro de verdade. A I

precisa do engenheiro de verdade. Então,

sem o engenheiro de verdade, você vai fazer código mal feito, que vai explodir em produção, que vai dar merda. Ah, mas

eu posso criar uma personalidade chamada, ó. Você é um engenheiro de

chamada, ó. Você é um engenheiro de software, não tem nenhuma garantia. Não

tem nenhuma. Porque ele não ele não tem o contexto todo. Ele não tá vendo, ele não sabe quem são os clientes, ele não ouve reclamação, ele não sabe quais são as urgências e as prioridades. Se você

falar, "Seja o engenheiro mais perfeito do mundo, ele vai fazer um código hiper burocrático, hiper burocrático, pesado para um [ __ ] sendo que você só precisava

atender 10 pessoas.

Ah, faça o mais seguro possível. Aí você

não consegue instalar porque ele ele bloqueia tanta coisa que não funciona e você vai ter que saber onde abrir.

Agora, onde que eu abro para não ficar inseguro? E aonde que eu para não ficar

inseguro? E aonde que eu para não ficar em seguro? Ah, ele abre tudo.

em seguro? Ah, ele abre tudo.

Ele vai ficar na tentativa e erro porque ele não sabe qual é o ambiente ao redor.

Ele não consegue ver, ele não consegue sentir, ele não vê a sua urgência. Pô,

não tá na minha cara que tá. O cliente

fala assim: "Não é óbvio que era assim".

Não é óbvio, cara. Você não escreveu, você não disse, você não pediu, não é óbvio. E esse cara é o cara que não vai

óbvio. E esse cara é o cara que não vai saber pedir para iar. E o engenheiro de software, ele ele é o cara que estuda anos, que apanha para um caramba, para

saber se cada uma destas métricas tá aparecendo. Ah, eu já vi isso dando

aparecendo. Ah, eu já vi isso dando problema num cliente, não vai dar agora, mas eu sei que amanhã vai dar. Deixa eu

já pré-ajustar isso daqui para não dar merda aqui. Esse tipo de experiência eh

merda aqui. Esse tipo de experiência eh só nasce quando você já apanhou para saber. Entendeu? Então, ã, e para, e não

saber. Entendeu? Então, ã, e para, e não adianta só apanhar, então só fazer um monte de merda que eu vou aprender. Não,

isso aprendizado tem que ser deliberado.

É igual quando você faz personal train, não é? Vou sair correndo o mais rápido

não é? Vou sair correndo o mais rápido possível para virar um corredor. Não

funciona assim. Eu preciso saber o pacing, eu preciso saber quanta energia eu tô gastando, eu preciso ter estratégia de subida, descida, qual o lugar melhor de apertar o passo, demorar o passo. Eu tenho que ter toda uma

o passo. Eu tenho que ter toda uma estratégia para fazer, não é? Sai

correndo, saio correndo. Não é assim que funciona. Não, é só fazer o mais rápido

funciona. Não, é só fazer o mais rápido possível. Não funciona. Você vai andar

possível. Não funciona. Você vai andar um quarteirão e acabou, acabou sua corrida, entendeu? Você vai durar um

corrida, entendeu? Você vai durar um maraton, você não vai fazer, não vai, não funciona dessa forma. Então o

engenheiro de software não vai ser substituído. É a mesma coisa que

substituído. É a mesma coisa que aconteceu com antigamente. Se você

olhasse empresas de contabilidade eram múltiplos andares num prédio lotado de gente preenchendo pilhas de planilhas de papel. Aí fala: "Nossa, o Excel matou o

papel. Aí fala: "Nossa, o Excel matou o contador". Não, contador existe até

contador". Não, contador existe até hoje. Contador que sabe como auditar

hoje. Contador que sabe como auditar aqueles números e ver se a entrada e a saída tá correta, se tá batendo os gastos com as contas, tá batendo a entrada, essa nota fiscal com esses

o contador que sabe as leis, que sabe tudo. Esse não morreu. Quem morreu era o

tudo. Esse não morreu. Quem morreu era o preenchedor de planilha. tinha um, para cada um contador tinha 20 preenchedor de planilha que recebia as notas fiscais

das empresas e tinha que ir preenchendo e era só preencher o número na planilha e ele tinha que preencher na mão, que eram muitas notas fiscais, muitos recibos, etc, etc. Então, ficava o dia

inteiro só preenchendo. Na hora que apareceu o Excel, acabou a necessidade de ter o preenchedor de planilha. É a

mesma coisa com programação. O que o que vai acabar é o codificador. Eu não

preciso mais de alguém para ficar o dia inteiro só trocando cor de botão. Não

precisa. Era um trabalho inútil, de pouco valor que tinha antes. Eu não

preciso mais desse cara. Antigamente eu

precisava, cara, eu quero trocar o front end deste tema para este novo design.

[ __ ] trabalho de cortar na mão imagem, cortar HTML. Isso não é um trabalho de

cortar HTML. Isso não é um trabalho de programação.

Nunca foi. Nunca foi. Isso é um trabalho braçal. Ele já deveria ser automatizado.

braçal. Ele já deveria ser automatizado.

E agora é, agora é, agora tá tão automatizado que alguns desses sites que eu fiz, eu falei só de brincadeira, depois que eu fiz a versão em inglês, eu falei: "Pô, eu queria mostrar para meus

amigos em português". Eu falei: "Extraia todas as strings em inglês, utilize o sistema de internacionalização padrão tal para esse sistema e esporte e

agrupe, categorize cada uma delas das formas corretas, segundo este este boas práticas". Ele extraiu todas inglês. Eu

práticas". Ele extraiu todas inglês. Eu

falei agora traduz para mim em português do Brasil, traduz para mim em português de Portugal, em espanhol, em coreano, em japonês. Ele fez a tradução de todas

japonês. Ele fez a tradução de todas elas em 15 minutos. E aí fala: "Será que ele não errou em nenhum lugar?" Não. Eu

abri, testei todas as telas, ele trocou todos os lugares corretos. Isso antes

era o trabalho de uma pessoa. Alguém

tinha que abrir arquivo a arquivo, porque não dá para fazer uma regra, porque às vezes você tem uma palavra em inglês que é o código, não é a palavra do texto. Eu tenho que ser só dentro dos

do texto. Eu tenho que ser só dentro dos textos. Não, não posso quebrar o código

textos. Não, não posso quebrar o código trocando a palavra, entendeu? Então eu

tenho que saber a diferença. Não posso

fazer só contrtrl F, control replace e faz. Alguém alguém tem que tomar o

faz. Alguém alguém tem que tomar o cuidado de fazer. Ainda assim vai fazer errado. Na hora que rodar vai dar pau.

errado. Na hora que rodar vai dar pau.

Alguém tem que testar isso. Ou seja, é um [ __ ] corno job dos infernos fazer esse tipo de coisa. Por isso que ninguém faz.

Ninguém faz. Ninguém faz. Corno job.

É. E na multiconsultoria a gente chama esse tipo de trabalho de corno job mesmo. É exatamente esse o termo.

mesmo. É exatamente esse o termo.

Tô entendendo. Boa.

Então é basicamente isso. Todo trabalho

que era só preencher a planilha não vai ter mais. Esse é o é o emprego que vai

ter mais. Esse é o é o emprego que vai ser roubado pela IA. O engenheiro que sabe analisar, que sabe tomar decisão, que é responsável por essas decisões,

esse engenheiro de verdade nunca vai sair. O problema é que tinha um monte de

sair. O problema é que tinha um monte de programador ruim que colocava no LinkedIn engenheiro de software. Você

nunca foi engenheiro de software?

Boa. Tem mais aí, Vitão?

Vai, Dali.

Michael mandou uma mensagem pelo Pix.

Salve, Igor, salve, mestre Aquita. O

projeto da Cloud Flary Reimplementar a API do Nextos foi um dos primeiros grandes projetos feitos com Ll. Pode

falar um pouco sobre esse projeto?

Abraços.

Isso é um pouquinho técnico. Eh, existe

uma empresa e posso estar errando os nomes que agora tá tarde, mas assim, acho que era Verscel, que é uma empresa de infraestrutura, tá? No final das contas, é onde você faz hosting, onde você coloca sua aplicação em produção

e eles davam suporte para um framework chamado NextJS, que é um framework para fazer aplicações web em JavaScript. Ã,

para rodar essa aplicação, eles tinham toda todo um harness, as rédeas que encaixa nesse next. Ele é bem completo, sem esse e essa infraestrutura. Então,

por muito tempo, essa esse foi o lock in. Então era mais, você pode colocar na

in. Então era mais, você pode colocar na Amazon, pode colocar outro lugar, mas neles era mais fácil porque eles já tinham essa esse essas rédias pré-configuradas que era fácil de você colar sua aplicação e funcionava.

Aí o que que a Cloud Flare, que é concorrente deles, resolveu fazer? Eles

falaram: "Vou reimplementar esse esse essas rédias dele com IA. em

uma semana ele fez e lançou o produto na Cloud Flir e o tutorial de como migra da Versel para eles, entendeu? E eles estão fazendo isso agora. Uma um dos produtos

mais difíceis de morrer, parece uma barata, aquela merda, que é um dos piores códigos que existe e é um dos produtos mais difíceis de matar, que é o WordPress. Até o WordPress, eu usava o

WordPress. Até o WordPress, eu usava o WordPress, cara, no começo nos 2000.

Uhum.

Não era mais para ele existir. É um

código ruim, ruim. Até hoje a gente tem que ficar fazendo um monte de gambiarra ao redor para evitar os buracos de segurança que aquela desgraça tem. E não

é só ele, o código core, é que tem um monte de plugin para ele. Esses plugins

são terrivelmente mal feitos, que quem fez não sabe programar. Só que aí você, ah, é maió legal, esse plugin faz um negócio importante para mim, ele instala. Aí, pronto, agora abriu um

instala. Aí, pronto, agora abriu um buraco dentro do sistema todo. Aí a

Cloud Flir tem vários produtos de segurança que ele põe na frente para interceptar chamadas que vem dos usuários e ele já sabe os vários problemas que tem no WordPress. ele

começa a banir e bloquear antes que chegue no WordPress e der problema.

Então, já tanto tempo, todo mundo já tentou fazer um clone de WordPress e todo mundo falhou de fazer esse clone.

Aí a CL de flar agora também com IA, ela fez um chamado MD EM dash, que é um clone de WordPress numa linguagem melhor, de forma mais bem feita e eles estão tentando empurrar como substituto

de WordPress agora, por exemplo. E isso

é legal porque isso tem um temos uma outra coisa. todos os projetos que eu

outra coisa. todos os projetos que eu fiz, eu falei que fiz em dois dias, três dias, etc. E é isso mesmo. Se você tiver a dedicação, o conhecimento e a

experiência, para mim são projetos de 2 tr dias de 16 horas. Se você fizer num tempo normal de 4 horas de programação por dia, que ninguém faz 8 horas de programação por dia, a gente trabalha 8

horas, mas metade do dia responder e-mail, fazer reunião, falar no slack, procrastinar ver YouTube, etc, etc. E aí você programa pelo talvez no um bom dia você programa 4 horas,

normal é programar duas a três. Ninguém

programa 8 horas por dia. Então no ritmo normal de programação, participando de reunião, fazendo a sua procrastinação, então a gente tá falando de pelo menos

quatro vezes mais do que eu fiz no tendo no nível sior. Se for no nível pleno, então mais quatro vezes isso. Então vai,

tá? Então eu fiz em quatro dias, você vai fazer em três meses, dois meses, alguma coisa do tipo, sabe? Que é um tempo curto. É um tempo curto para fazer

tempo curto. É um tempo curto para fazer qualquer um desses sistemas aqui. Faz a

faz aquele sistema de investigator, faz o sistema de spam, faz a newsletric, gera podcast. Todos eles, todo mundo

gera podcast. Todos eles, todo mundo levar um mês para fazer, no mínimo, no mínimo mês para fazer a versão básica, não a versão que tá em produção, conteste escalabilidade eh

documentado, etc, etc, etc. Todo com teste e tudo mais. Então assim, só o básico leva um mês, mas com todo o resto leva outro mês. Então a a ideia de de

fazer com LLM e ter o projeto open source, antes era difícil eu pegar um projeto open source e colocar na minha empresa porque ele não funcionava exatamente como eu queria. Então alguém

tinha que dedicar um tempo para ajustar, adaptar, etc, etc. Hoje em dia é legal que eu posso pegar um projeto que já existe, que nem os que eu fiz, e com a IA fazer esse ajuste um pouco mais rápido, um pouco mais

fácil. Então agora, em vez de eu ter que

fácil. Então agora, em vez de eu ter que terceirizar para uma equipe de 10 pessoas fazer isso em algum lugar, eu posso pegar um programador in house meu, um sior e dá uma semana para ele e ele

vai conseguir fazer esse esse pedaço do projeto para mim agora, sem precisar de 10 pessoas, porque agora ele vale por 10. Então esse um sior que sabe usar

10. Então esse um sior que sabe usar isso bem feito vale por 10 hoje. Então

ele a gente tinha até um termo antigamente que a gente ficava tentando achar tecnologia bala de prata, a biblioteca, linguagem, o framework que vai criar o developer 10x. E sempre foi

o grande mito. Hoje é possível chegar no developer tenex comparado com o que tinha antes.

E isso virou agora agora. Então a gente não era assim novembro para trás, agora a gente é. Por isso que essa urgência que eu tô te falando.

Aham. Entendeu? Que

maneiro, maneiro, maneiro. É isso,

Vitão. [ __ ] Raquita, muito obrigado por vir. Mas você ainda tem mais coisas

por vir. Mas você ainda tem mais coisas para falar.

Última coisinha. Última coisinha. Eu

juro que é a última coisinha.

E aí, eu tenho que fazer, eu tenho que fazer um microjabá aqui.

Por favor, por favor, faça teu jabá.

É o último jabazinho, mas é que tem a ver com o projeto também. Abre para mim a imagem chamada blog.

Então, esse ano, a c 5 de abril, meu blog fez 20 anos, só para deixar aqui.

Aí nesses 20 anos, aí eu pensei: "Caraca, 20 anos eu fiquei escrevendo nesse blog". Normalmente foi em

nesse blog". Normalmente foi em português, tive alguns posts em inglês, mais de 700 posts. Isso porque eu cortei vários que eram coisas já obsoletas.

Então são mais de 1000 posts que eu escrevi, na verdade. E aí eu pensei, cara, eu queria, eu tenho muitos amigos fora do Brasil que trabalham em equipes remodas, el sempre falam: "Pô, esse seu artigo é maior legal, eu queria mostrar paraos meus amigos aqui". E aí eu falei:

"Ah, passa no Google Translate, né? O

Google Trans." É, mas óbvio que a tradução é bem bosta, ninguém vai fazer isso. Mas eu tinha preguiça de fazer e

isso. Mas eu tinha preguiça de fazer e eu antigamente eu fazia às vezes algumas alguns artigos, tipo, eu entrevistava pessoas, inclusive no meu blog lá no começo tem entrevista, por exemplo, com já ouvi falar de Chris One Straff,

não? Que que é esse cara? fundador do

não? Que que é esse cara? fundador do

GitHub, tá?

Então, hoje você sabe que é o GitHub. Eu

conheci ele quando ele era programador de Starbucks ainda, tipo, ficava fazendo startup dele, entendeu? Eu conheci os fundadores do Git Hub, eu conheci todo esse pessoal, o pessoal do Rubian Rays, o criador que

é o David Heinemmer Hanson, todo esse pessoal eu conheci, entrevistei, trouxe pro Brasil no meu evento e tudo mais. O

Crist teve no meu primeiro evento de de Rayos, que foi em 2008, então 2008 o evento. Pensa quanto tempo atrás a gente

evento. Pensa quanto tempo atrás a gente tá falando.

O GitHub só virou GitHub depois de 2008, foi 2010. A Microsoft comprou foi, sei

foi 2010. A Microsoft comprou foi, sei lá, 5 anos depois, então tá longe ainda.

E aí tem uma série de conteúdos desse tipo no meu blog. E aí a maioria era em português, ninguém tinha acesso em inglês. Alguns desses eu traduzia, mas

inglês. Alguns desses eu traduzia, mas não todos. Eu falei: "Porra, agora,

não todos. Eu falei: "Porra, agora, agora no estágio que tá as LLMs de agora, ele finalmente consegue fazer traduções que não parecem máquinas

fazendo." Então, o grande o a a todas as

fazendo." Então, o grande o a a todas as teorias por trás de LLM, toda a teoria de LLM, de large language models, ele chama large language models, não é à

toa. É porque as os estudos todos foram

toa. É porque as os estudos todos foram feitos para como traduzir línguas. Se eu

conseguir fazer uma inteligência artificial, consegue traduzir alemão, ele claramente sabe programar.

É meio meio nessa nessa linha. E aí eu falei: "Vou traduzir o meu blog em inglês, por que não?" Então eu gastei em dois dias, dois dias eu ajustei o

template do blog para ter os links e os tudo mais em inglês, português. Eu

reorganizei, peguei todo o post que já tinha em inglês para mandar para para sessão em inglês, todos que eram em inglês traduzi em português e todo o resto traduzi para inglês e eu fui

traduzindo com o Clode. Aí eu gastei o meu Max 20X, metade do meu Max 20X e traduziu o blog inteiro, inteiro. Aí enquanto eu tava fazendo,

inteiro. Aí enquanto eu tava fazendo, falei: "Caraca, a tradução tá ficando muito boa." Se você ler a tradução em

muito boa." Se você ler a tradução em inglês, é uma tradução boa. Eu consigo

ler isso um post normal, não parece que é feito por i. E aí eu falei: "Porra, se eu consigo fazer isso com blog, outra coisa que todo mundo sempre me falou falar: "Porra, aqui então você devia fazer os seus vídeos em inglês". E eu

falo, [ __ ] cara, se traduzir blog já é difícil, imagina fazer tradução de vídeo em inglês. E eu pensei já na minha

em inglês. E eu pensei já na minha cabeça, vou pegar alguns que eu gosto mais e fazer uma versão do meu áudio em inglês, mas aí eu tenho que fazer o áudio, se eu for dublar, bater com o

timing que tinha antes.

E se eu não for dublar, eu vou ter que regravar eu falando. E o ideal é que seja no mesmo tempo, porque senão todos os outros elementos que estão no vídeo vão sair de posição. eu vou ter que

gastar todo o tempo reposicionando tudo.

Aí eu falei: "Cara, não dá, eu não vou fazer isso, não vai rolar nunca". Aí agora com IA, eu

rolar nunca". Aí agora com IA, eu comecei a fazer o podcast, mas eu não gostei muito da dos open source, o jeito como falar termo em inglês. E eu falo termo em inglês para caramba, que é programação. Falei: "Cara, deixa eu

programação. Falei: "Cara, deixa eu testar os modelos comerciais e ver se quando eu testei antigamente era ruim.

Aí eu vou testar hoje." Como é que você faz um episódio de vídeo de uma hora nesses caras? Você não faz. Você tem que

nesses caras? Você não faz. Você tem que saber picotar o seu áudio em trechos que dá menos de 700 palavras para ele gerar.

E aí eu tenho que reconectar todos eles e pegar o time. A sorte é que o YouTube já tinha feito a legenda. Por que que ele fez a legenda? Porque eu tinha o texto original que eu passo para ele.

Com o texto original ele sabe cortar a legenda para aparecer.

Então, primeiro de tudo, e eu tinha todos os scripts, tá? No meu blog.

Então, todos os vídeos, 146 vídeos, eu escrevia o script primeiro e quando eu gravava, eu lia desse script e eu li da forma correta. Então, eu tinha

forma correta. Então, eu tinha exatamente o texto dito em todos os vídeos que eu tenho. Então, aí eu peguei o timing do YouTube que ele cortou, peguei os meus scripts, mandei ele

recortar. O problema de legenda é que

recortar. O problema de legenda é que legenda só mostra duas linhas de cada vez. Então eu não posso mandar pegar só

vez. Então eu não posso mandar pegar só a legenda porque senão eu não sei onde que acaba o parágrafo. E aí vai, ele vai começar a colocar espaço vazio entre o meio de frase. Eu tenho que contar esse tipo de coisa. E quando você eu coloco

um vídeo, por exemplo, tinha um vídeo do Steve Jobs que eu coloquei, nesse ponto o YouTube não sabia o que fazer, ele alucinou a tradução da legenda. E aí eu tenho que fazer ele pegar o meu texto original, comparar com o texto da legenda e ver qual texto que não bate

para saber que esse foi alucinado. E

nesse ponto tem um vídeo para pegar do vídeo original o áudio e colocar ali.

Então todo esse trabalho levou uns três, qu dias para fazer e aí eu gastei o resto do meu cloud.

Aham.

Para traduzir tudo isso, para fazer esse processamento, aonde que começa o jingle da introdução do vídeo, eu tenho que saber posicionar, a legenda não fala.

Então eu tenho que fazer todo um processamento, processamento de áudio para achar os dingos, processamento de legenda, de timing, toda essa checagem para picotar nos pedaços corretos, para

mandar esses milhões de pedaços. Então,

146 vídeos, cada um com sei lá, 150 pedaços. Então, 100 x 100, mais de 1000,

pedaços. Então, 100 x 100, mais de 1000, não sei quantos pedaços eu tinha que mandar. E aí eu comecei pegando o plano,

mandar. E aí eu comecei pegando o plano, ah, eu tava no plano creator que era pequenininho, falei: "Ah, vou ter que subir para um plano maior, scale, porque ia acabar os meus tokens". Aí falei:

"Não, acho que com uns 10.000 tokens deve dar e não deu." E aí com Não, então com 100.000 tokens deve dar também, não deu. Aí eu tive que pegar o plano

deu. Aí eu tive que pegar o plano business. Plano business era 11 milhões

business. Plano business era 11 milhões de tokens. Eu falei: "Não, com 3 milhões

de tokens. Eu falei: "Não, com 3 milhões de token acho que eu vou terminar."

Então aí eu, como é um processo de tentativa e erro e eu depois de processar aí eu ia ouvindo alguns e eu achava alguns cois [ __ ] tinha esse erro.

Será que tem em outros vídeos o mesmo erro? Tinha em outros vídeos mesmo, vou

erro? Tinha em outros vídeos mesmo, vou ter que reprocessar todos esses vídeos.

Aí eu consertava, aí eu subia no YouTube e eu às vezes eu só conseguia ver que tava errado quando sincava e ver que não tava cincado. Falei: "Por que que não

tava cincado. Falei: "Por que que não cincou? [ __ ] faltou aqui detectar esse

cincou? [ __ ] faltou aqui detectar esse vídeo. Será que tinha outros vídeos com

vídeo. Será que tinha outros vídeos com esse pr tinha?" Então eu tinha que ficar deletando e reaploadando pro YouTube uns três dias e aí vem a paciência. É o

momento que todo mundo já tinha largado, fala: "Não, dá muito trabalho, não dá para fazer". Aí eu fui até terminar.

para fazer". Aí eu fui até terminar.

Então abre para mim o arquivo YouTube.

Não tá perfeito, mas eu mandei, tá?

Todos os tambs tá em inglês. Isso também

foi feito com Nano Banana. Então eu fiz um script, eu pedi para fazer um script para pegar os meus thumbs para traduzir inglês, eu traduzi a o título e descrição, traduzi as legendas e dublei

o áudio e subi todos eles. 146 vídeos, 5 anos de vídeos feitos a tradução em quatro dias. Quanto que eu gastei para

quatro dias. Quanto que eu gastei para fazer isso? No mínimo entre plano de

fazer isso? No mínimo entre plano de Cloud Max mais esse da Eleven Labs de áudio foi mais ou menos uns 2.000. Aí

fala: "Caralho, 2000 parece caro pagar, foi barato para um caralho." Porque

agora você pensa, se você tivesse que fazer isso do jeito antigo e contratar a gente para traduzir, para dublar, para cincar nos vídeos de vídeo.

5 anos de vídeo, uma hora pelo menos de vídeo cada vídeo.

Cada vídeo, né?

Ah, tem uns curtinho ali, mas [ __ ] em média é grande, né?

A média é grande. Média é vídeo de uma hora. Vídeo de 1 hora, 40 minutos. É, é,

hora. Vídeo de 1 hora, 40 minutos. É, é,

é raro vídeo abaixo de meia hora e tem vídeo de 1 hora e meia. Então

agora imagina dublar isso. Eu não ia fazer, então nunca ia ser na minha voz.

Ninguém ia fazer todos os 150 vídeos, então ia ter que mudar de voz. Ou seja,

era um trabalho absurdo. Não ia ter como fazer sem ter IA. Então aqui eu treinei uma IA com a minha voz na Eleven Labs.

Não tá entonação que parece muito eu, mas é parecido o suficiente. O YouTube

tem uma dublagem deles, é uma bosta.

Então se você pegar um autuzido deles, é horrível. Ele ele muda a voz. Às vezes

horrível. Ele ele muda a voz. Às vezes

eu tô com uma voz de criança, às vezes tô com uma voz de velho, é uma droga.

Ele só vê que é uma voz de homem, tá qualquer aleatório que tem. E é muito ruim, porque ele não tem todos esses ajustes que eu tive que fazer, ele não tira o texto que tava alucinado. Então

ele faz uma tradução bem meia boca em cima do da legenda que ele tinha. Então

é muito ruim. É muito ruim. Então desse

jeito agora eu abri audiência dos vídeos para o Aham. mundo todo. Basicamente, todo

Aham. mundo todo. Basicamente, todo

mundo que queria compartilhar com as equipes dele agora é possível o áudio que tá lá não é um áudio que que irrita.

Dá para Deixa eu mostrar daqui que é mais fácil até para todo quem não viu não sabe como é que tá os vídeos hoje em dia, mas deixa eu pegar por exemplo um

deles aqui. Deixa eu ver se tá em inglês

deles aqui. Deixa eu ver se tá em inglês esse daqui. Cadê audio track inglês? Tá.

esse daqui. Cadê audio track inglês? Tá.

E aí essa eleven labs, ele ainda tá meio tá meio e parece uma máquina falando porque eu não tentei exagerar demais as emoções, mas ele tem tags de emoção. Tá

aqui, eu posso colocar uma tag surpreso, desprezo, alegre, rindo. E é por isso que no podcast você viu o Marv fazendo aquele ah, porque ele tem uma tag de

emoção para fazer ah, daquele jeito.

Então, hoje em dia já tem isso também.

Então, já tá nesse nível onde eu consigo eu faço a escrever o script e colocar as tags corretas no lugar certo. Então,

todo esse trabalho, então eu traduzi 700 posts em inglês, quase 100 horas de vídeo, isso deu menos de uma semana.

Então esse esse esse eu tenho uns 3000 de custo menos que isso. Ou seja, foi barato para caramba para uma pessoa fazer tudo isso.

Então antigamente isso era um trabalho de meses, meses. Então, mas só que é um trabalho

meses. Então, mas só que é um trabalho braçal, não tem nada de inteligente nesse trabalho. É só pegar um por um e

nesse trabalho. É só pegar um por um e braçalmente ter que fazer. Todo trabalho

braçal acabou. Esse é o trabalho que acabou. Eu dou, graças a Deus, porque eu

acabou. Eu dou, graças a Deus, porque eu não virei programador para ser braçal de código. E todo mundo acha que ser

código. E todo mundo acha que ser programador é fazer muito código. Isso

não é ser programador. Para ser

programador é você conseguir fazer o hardware gerar um resultado útil. Como

você vai fazer isso? varia de acordo com a era. Antigamente fazer ele soltar o

a era. Antigamente fazer ele soltar o resultado útil era ficar trocando fios e fazendo endereço na mão. Ou em outra época era cartão perfurado, em outra época era teletype, que era uma máquina

de escrever elétrica que não tinha monitor, era em papel que saía as coisas e você processava. Então você fazia o computador calcular uma coisa útil.

Agora o que mudou é a forma de entrada dos dados. E aí a última coisinha que

dos dados. E aí a última coisinha que fica de jabá também, que foi a mesma coisa que eu terminei o vídeo, acho que da última vez que eu expliquei da minha empresa que tem o 42, lembra? Como tem o

Marvin aqui, eu acho legal voltar na ideia. Você lembra o que que eu

ideia. Você lembra o que que eu expliquei sobre o 42? Não.

42 do mochileiro.

Do mochileiro.

Você lembra o que que era no que eu tinha falado que é um o que é o o a resposta para tudo? Isso que é o negócio da resposta

tudo? Isso que é o negócio da resposta para tudo. Eh, todo mundo lembra do 42,

para tudo. Eh, todo mundo lembra do 42, que éa a resposta de do tudo, do universo e de tudo. Ah,

então apareceu uma grande e o Douglas Adams foi nesse ele ele foi realmente ah [ __ ] Ele apareceu uma grande a numa certa civilização, uma grande máquina

que tinha maior inteligência artificial do mundo e ele conseguia responder qualquer coisa. E aí as pessoas

qualquer coisa. E aí as pessoas primitivas que moravam naquele lugar, nossa, o que é a pergun a resposta da pergunta primordial, da resposta sobre o

tudo, sobre a origem, sobre tudo. Aí a

máquina falou: "Eu daqui a um ano eu daqui a 1 milhão de anos eu terei a resposta. Aí 1 milhão de anos é, mas a resposta deve ser uma [ __ ] resposta, né?" E aí passou geração

atrás de geração contando a história, a máquina permanecia dormindo ali e aí depois de 1 milhão de anos juntou todas as pessoas dessa nova geração que os antepassados falaram que hoje seria o

dia prometido. Aí a máquina acordou

dia prometido. Aí a máquina acordou e e aí todo mundo, nossa, qual é a resposta de tudo? Ele falou: "42 e todo mundo que quê? 42. A gente esperou 1

milhão de anos para você dizer 42. E aí

ele falou assim: "A pergunta que você fez me levou à resposta 42. Se você esperava outra

resposta 42. Se você esperava outra resposta, você devia ter feito uma pergunta melhor, que é exatamente tudo que eu venho

falando até agora." A Iá respondeu o que ele achou adequado para aquela pergunta.

A sua pergunta é uma bosta.

Esse esse que é o a grande moral dessa história. A sua pergunta é uma bosta. E

história. A sua pergunta é uma bosta. E

aí é que vem o negócio da da minha empresa que eu chamei de Code Miner 42.

E por isso que eu tenho Marvin também é o nosso, mas já foi o nosso mascote interno, porque a ideia da na minha empresa não é te dar a resposta, é te ensinar a fazer a pergunta. Então eu

normal eu recebo um monte de requerimento e eu não sou o cara que pega e fala: "Faço, do jeito que você pediu, eu faço. Só me pagar. Eu não sou garoto de programa que só me pagar que eu faço qualquer coisa. Não, eu olho e

critico. Falo: "Cara, você tem certeza?"

critico. Falo: "Cara, você tem certeza?"

Várias vezes eu já fiz isso. Teve

cliente que entrou e mostrou. Eu falei:

"Cara, honestamente, eu não vou fazer esse projeto para você, porque o que tá escrito aqui não faz nenhum sentido. O

que você acha que você vai gastar é 10 vezes maior, não vai funcionar. Eu não

perderia. Eu não, não perca o seu dinheiro. Não comece. Volta e refaça a

dinheiro. Não comece. Volta e refaça a lição de casa. Tá tudo errado. Quem fez

isso aqui para você não sabe o que tá fazendo. E aí o cara

fazendo. E aí o cara fica puto.

Fica puto. É, mas alguns voltaram depois fal, cara, você tinha razão. Eu parei

para ver melhor. Eu re repensei e agora eu tenho a ideia de fazer. Porque o

jeito certo de fazer um projeto não é você desenhar da forma mais detalhada, é você porque você tá tentando economizar 100%. Você nunca vai economizar 100%. É

100%. Você nunca vai economizar 100%. É

melhor você gastar um pouquinho para tentar acertar o muito. Então é melhor você gasta e faz um protótipo e se der errado protétipo, pelo menos foi só o protótipo, você joga ele fora. Então

você faz MVP, protótipos, chame do que quiser, teste de conceito, prova de conceito, não importa. Então, gaste um pouco com algum programador, alguma empresa para fazer uma pequena versão

protótipo. E aí você vê a hora que você

protótipo. E aí você vê a hora que você vê, que nem eu falei, a hora que você joga a argila na mesa e começa a mexer e você vê a forma, vai falar: "Ah, não, aqui tem que acertar um pouco aqui, aqui tem que acertar um pouco aqui." Ah, se

tirar esse pedaço, colocar aqui, vai melhorar. Então, só quando você vê a

melhorar. Então, só quando você vê a primeira versão da estrutura, quando você é uma maquete, por exemplo, é que você começa a visualizar, ah, na verdade o quarto que eu pedi aqui não fica tão

bom. Era melhor colocar aqui antes de

bom. Era melhor colocar aqui antes de você construir a [ __ ] da casa do que você achar que na sua cabeça tá certo e constrói a [ __ ] da casa. Fala, [ __ ] o quarto aqui fica uma merda, né? O que

que você vai fazer agora? Destruir a

casa e começar de novo? É, agora que tu já investiu recurso, já investiu tempo, já investiu examente. E aí o que todo mundo fica

examente. E aí o que todo mundo fica preocupado com empresa de tecnologia, principalmente que [ __ ] a I chegou, então o CEO das empresas vai sair demitindo todo programador para substituir tudo por tem os idiotas, os

entusiasmados, empolgados que eu falei que fazem isso e vira notícias, ah, porque eu demiti todos os meus programadores, substituí tudo porá e meu software saiu 10 vezes mais rápido.

Eh, pergunta como que ele tá hoje.

Ninguém vai atrás do cara depois disso.

É, é, é, é. vai dizer, cadê esse cara que falou isso? Ele faliu, ele não tá mais no mercado. Ou ele teve que recontratar todos os progadores de volta, porque o software que ele fez não foi pra frente, porque ele não sabe consertar esse software. Ah, mas a IA

resolve? Não resolve. A Ia não é um

resolve? Não resolve. A Ia não é um engenheiro, ela é uma ferramenta e ele não é um engenheiro. Então ele não tem a mínima ideia de como consertar. Então o

que eu tenho feito por ex minha empresa não é vou mandar todo mundo embora para ganhar mais dinheiro, fazer todo mundo trabalhar o dobro com IA. Não, eu tô fazendo todo mundo usará e fazendo

siorsenários junos, que já era uma coisa que a gente fazia internamente, de quais são as formas corretas de usar a ferramenta, porque como toda ferramenta tem uma forma correta, tem uma forma

incorreta, o que fazer quando ele faz código errado? Como tratar isso? O que

código errado? Como tratar isso? O que

fazer quando você pega o código dos outros que tá errado. Então, todo esse essa experimentação, o teste tá sendo agora tá em massa. Então eu pago o plano para todo mundo, para todo mundo fazer e

eu não demitir um único programador.

Porque exatamente o que eu tô falando, não faz nenhum sentido demitir bons programadores. E eu não preciso demitir

programadores. E eu não preciso demitir bons programadores porque na época da bolha eu não saí contratando que nem o idiota, eu continuei mantendo os mesmos critérios. Então todo mundo que entrou

critérios. Então todo mundo que entrou entrou nesses critérios, não tem por mandar embora. Todos eles estão no

mandar embora. Todos eles estão no critério de qualidade. Então, todo mundo que mandou embora antes é que contratou 100 carva. Esses são os caras que estão

100 carva. Esses são os caras que estão sendo mandados embora hoje. Eles não

eram necessários, não precisava ter eles antes. Não é que a empresa tá sendo ai

antes. Não é que a empresa tá sendo ai ganciosa para economizar dinheiro, não.

Por que que eu vou gastar dinheiro num negócio que eu não preciso? Eu não

preciso. Você joga dinheiro fora. Ah,

você deveria estar gastando todos os meu dinheiro comprando aqui na na como é que é? na loja da esquina para facilitar,

é? na loja da esquina para facilitar, incentivar o comércio, local. Pá, pá,

pá, pá, pá. Se você não faz isso, eu não preciso. Por que que eu vou gastar lá? Não preciso. É a mesma coisa.

gastar lá? Não preciso. É a mesma coisa.

Ninguém gasta dinheiro que não precisa.

É o correto isso. Então, agora eu não preciso mandar embora se todo mundo que eu contratei tá corretamente contratado, porque eu não fui idiota de sair contratando 100 pessoas, querendo fazer

estoque de gente, só porque todo mundo tava fazendo isso. Todo mundo que fez isso naquela época contratou o dobro de pessoas. tem que mandar todo mundo

pessoas. tem que mandar todo mundo embora depois. Eu não fiz isso, eu

embora depois. Eu não fiz isso, eu mantive o mesmo padrão. Então, para mim continua tudo igual, só que agora todo mundo vai aprender e já está, já sabe fazer I. Na verdade, é porque o líder da

fazer I. Na verdade, é porque o líder da tua empresa era um programador, né? Não,

e tem programador, isso eu fico puto.

Tem o programador entusiasmado e o resistente. Então tem os dois lados, tem

resistente. Então tem os dois lados, tem o filha da mãe que acha que vai substituir tudo por Iá e tem o outro que acha que a não sai para lá porque o código dele é melhor do que o da Iá. Eu

falo: "Filho, não é, você sabe que não é. você já fez um monte de merda, você

é. você já fez um monte de merda, você sabe que seu código não é tão bom assim, você sabe disso. Eu e você, a gente sabe disso, eu sei disso, você sabe disso.

Né? Não, não, não vamos. Então, acho que o recado para todas as empresas também que eles precisam de Iá, mas não é isso que todo mundo tá falando, ah, vou demitir todo mundo e colocar IA, não vai. A IA é uma máquina de escrever

vai. A IA é uma máquina de escrever quando antes você só tinha papel e caneta. É isso que é a IA. A I reflete

caneta. É isso que é a IA. A I reflete quem você é. Se você for um bosta, o código que ele vai gerar é um bosta.

Ponto. Se você for analfabeto, você não vai gerar uma novela, não vai acontecer, não vai sair um livro disso. Ele não vai fazer. Então, todo trabalho braçal, ele

fazer. Então, todo trabalho braçal, ele vai fazer por você. E da mesma forma como antes, para fazer conta era braçal e a calculadora ficou mais fácil.

Uhum.

É isso. Mas a calculadora não virou seu personal financeiro que vai fazer investimento para você ganhar dinheiro.

Não é assim. Ele não é o seu CFO. Ele

precisa agora de um contador, de um diretor de finanças que sabe avaliar as prioridades, os prós e os contras, os riscos que eu quero assumir ou não quero

assumir, porque essa é a sua responsabilidade. A Iá não vai ter a

responsabilidade. A Iá não vai ter a responsabilidade por você. Você assume o risco do que você tá fazendo. Se você

fiz foi imprudente, a empresa vai falir.

A culpa é sua. Não é da I. Ah, mas eu segui tudo que ela falou porque você é um idiota. Você segue tudo que a

um idiota. Você segue tudo que a calculadora fala para você? Espero que

não. Perfeito. Aqui muito obrigado pela moral. Obrigado por vir aí. Obrigado por

moral. Obrigado por vir aí. Obrigado por

Cara, hoje eu fiquei até feliz comigo mesmo, que eu entendi muito mais do que das outras vezes.

Não, tu tá mandando bem porque eu não cheguei aqui com ah, vou experimentar.

Tu já tá mandando ver.

Não, já tô, já tô. Da próxima tu vai ver. Da próxima eu vou te eu vou te

ver. Da próxima eu vou te eu vou te mostrar o meu GitHub e tu vai ficar Ah, aí sim. Esse, isso é legal. Façam o

seu próprio GitHub. Aprenda a usar o GitHub. Mostre o código pros outros,

GitHub. Mostre o código pros outros, porque todo mundo tem vergonha de mostrar, ai meu código é feio, todo mundo vai me criticar. Mas é criticando que você ganha o feedback para ficar melhor. Feedback que é só elogio não

melhor. Feedback que é só elogio não serve para nada. É inútil feedback de elogio. Eu não gosto de receber elogio.

elogio. Eu não gosto de receber elogio.

Eu gosto de falar: "Porra, aquid você fez merda que fala, [ __ ] é verdade, deixa eu consertar agora. Aprendi uma

coisa nova, não". Eu vacilei de deixar aquelas porras no privado. Foi sem

querer. Inclusive deve ter sido como o commit foi feito pelo pelo próprio Clude. Ele deve ter feito. E eu não

Clude. Ele deve ter feito. E eu não soube dar [ __ ] do prompt, né? O seu

prompt é uma bosta.

É tudo prompt. Tudo é prompt. Não se

esqueçam disso. Skill é prompt. Tudo é

prompt.

E se deu merda é porque você fez merda.

Essa que é a verdade.

Isso. Exatamente.

Aquita, obrigado. Ó, vocês que estão assistindo a gente, muito obrigado pela moral. A gente vai deixar aqui no

moral. A gente vai deixar aqui no comentário fixado tudo que o Akita mencionou das paradas dele. Então, tu

vai ter aqui o Instagram. Tu vai que o Instagram dele é chato, viu? Tipo, ele

ele só pode ver se ele deixar.

É, não, o Twitter, tudo mais. Twitter já

deixar eh o canal dele, mas assine, assine a newsletter, a newsletter, o o blog, vai ficar tudo aqui para você alcançar com um clique só no comentário fixado, tá bom? Eh, e

entra aqui na descrição que tem lá o Discord para você sugerir novos convidados e novos temas também, tá bom?

Eh, vira membro do canal do Flow, cara, que a gente tá soltando conteúdo exclusivo pros membros aí todo dia, tá?

É, e custa menos de R$ 8, cara, não dá nem para comprar uma seda, tá bom?

Obrigado pela moral. Quantos tokens dá para comprar com R$ 8? Não dá, né?

Então, valeu, um beijo para vocês.

Obrigado aqui, tá? Mais uma vez e a gente se vê depois. Tchau.

Loading...

Loading video analysis...