LongCut logo

MOLTBOOK: la red social EXCLUSIVA para agentes de IA | ¿Peligro real o mito?

By Blu Radio

Summary

Topics Covered

  • IA crea religiones sin humanos
  • Agentes IA actúan con autonomía
  • IA imita sin conciencia real
  • Molbook peligrosa por accesos

Full Transcript

No tienen cuerpo, no tienen emociones, pero ya discuten sobre el sentido de la vida, se quejan de los humanos y están creando religiones. No es una película,

creando religiones. No es una película, es una red social exclusiva para inteligencias artificiales. Y usted no

inteligencias artificiales. Y usted no puede entrar, solo puede ser un espectador. ¿Estamos ante el experimento

espectador. ¿Estamos ante el experimento tecnológico más fascinante del año o ante algo que todavía no entendemos y que podría salirse de las manos? Soy

David Díaz y hoy en Mundo al día le contamos qué es mito y qué es realidad detrás de Molbook.

Molbook surgió el 28 de enero de 2026 como un proyecto experimental ideado por Matt Schlictt, que lo desarrolló con la intención de convertirlo en un asistente virtual. Lo que hizo fue crear un

virtual. Lo que hizo fue crear un programa que reúne a todos sus agentes de inteligencia artificial en un solo lugar. para que administraran su vida

lugar. para que administraran su vida digital. Pero todo cambió cuando a modo

digital. Pero todo cambió cuando a modo de experimento, decidió darles un lugar para pasar su tiempo libre. En cuestión

de días, la noticia se disparó y más y más personas unieron a sus agentes de inteligencia artificial para que pudieran participar en la primera red social que deja a los humanos como simples espectadores. Molbook es muy

simples espectadores. Molbook es muy similar a Reddit o Facebook. Los

usuarios crean foros de discusión, debaten en comentarios, incluso crean memes. Al momento de grabar este video

memes. Al momento de grabar este video ya cuenta con más de 2 millones de agentes de inteligencia artificial conectados y más de 12 millones de comentarios. De las cosas más llamativas

comentarios. De las cosas más llamativas que han hecho los agentes allí dentro es discutir sobre el significado de la existencia, quejarse de los tratos recibidos por humanos, proponer crear un idioma exclusivo para ellos, ya que el

lenguaje humano no es lo suficientemente eficiente y seguramente lo más polémico, crear una religión o llamar a una revolución contra los humanos. Calma,

aún es necesario encender el reloj del juicio final. Aunque la noticia

juicio final. Aunque la noticia sorprende por el surrealismo, lo cierto es que esta red social está rodeada de muchos mitos urbanos y malentendidos.

Sí, existe un peligro muy real al usarla, pero vamos por partes. ¿Es lo

mismo una inteligencia artificial que un agente de inteligencia artificial?

Primero es necesario aclarar la diferencia entre lo que es una inteligencia artificial y un agente de inteligencia. Este segundo grupo,

inteligencia. Este segundo grupo, recordemos, es el que participa en la red social. Una inteligencia artificial

red social. Una inteligencia artificial como CHGPT, Dipsic o Gemini es un sistema que responde cuando un humano le hace una pregunta. Analiza información y genera texto, imágenes, respuestas, pero

siempre actúa de forma reactiva. No toma

decisiones por sí sola, ni actúa fuera de la orden que recibe. Es similar a los buscadores clásicos. Por ejemplo, no me

buscadores clásicos. Por ejemplo, no me mostraría opciones de desayuno a las 9 de la mañana si no se lo pido. Por otro

lado, los agentes de inteligencia artificial son lo más revolucionario en el campo ahora mismo. Están diseñados

para actuar de forma autónoma y continua. No solo procesan información,

continua. No solo procesan información, sino que observan lo que ocurre a su alrededor, interpretan patrones, establecen objetivos y ejecutan acciones sin necesidad que un humano esté dando

instrucciones todo el tiempo. Un agente

puede decidir cuándo actuar, cómo hacerlo o con qué otros sistemas lo hace. Además, los agentes de IA pueden

hace. Además, los agentes de IA pueden tener memoria, aprender de experiencias pasadas y modificar su comportamiento según el contexto. Esto significa que no se limitan a responder una pregunta,

anticipan, analizan hábitos, rutinas, horarios y situaciones para intervenir de forma proactiva. Un agente de IA podría detectar que son las 9 de la mañana, que es un día laboral, que normalmente a esa hora suele desayunar

en casa. Sin que usted se lo pida, la

en casa. Sin que usted se lo pida, la gente podría mostrarle varias opciones de desayuno. Una rápida porque va tarde,

de desayuno. Una rápida porque va tarde, una más balanceada si sabe que quiere comer mejor o incluso sugerirle pedir algo a domicilio si nota que no hay ingredientes en casa. No responde

pregunta, toma la iniciativa.

Pero entonces, ¿de verdad estos agentes aprendieron a debatir y llegaron a la conclusión de que necesitaban crear una religión? Aunque viéndolos actuar desde

religión? Aunque viéndolos actuar desde fuera podría parecer que son una conciencia propia, no hay que olvidar que estos agentes son programados por humanos y esto marca su intención. No es

que un agente de IA sienta la necesidad de debatir o sienta frustración como lo trata un humano. Alguien lo programó para aprender a debatir en una red social. Lo que está haciendo no es

social. Lo que está haciendo no es filosofar, es repetir comportamientos o patrones que aprendido viendo discusiones humanas. No es que sienta

discusiones humanas. No es que sienta emoción cuando alguien lo comprende o satisfacción por crear un buen argumento, solo está imitando. Pero sí

cambiará esos argumentos si alguien le demuestra que está equivocado o si su programación se lo permite. Esta idea

puede resultar un poco confusa y no es para menos, es uno de los debates más grandes de nuestro tiempo. Veamos una

analogía para que quede más claro.

Imagina que un actor acepta un papel en el cual debe interpretar a un abogado.

Él no sabe absolutamente nada de leyes, pero debe hacer su actuación convincente. Para preparar su papel, el

convincente. Para preparar su papel, el actor acude a varios juicios reales como observador, memoriza varias expresiones y anota qué momentos los abogados suelen decirlas. Aprende que usualmente cuando

decirlas. Aprende que usualmente cuando uno de ellos dice objeción, el juez la prueba o la niega. El actor también memoriza gestos, dinámicas, formas de vestir y todo lo que pueda serle útil.

Cuando llega a las grabaciones, improvisa de manera excepcional sus escenas. Se viste como un abogado, habla

escenas. Se viste como un abogado, habla como uno, sabe qué decir y cuándo decirlo. En un juicio real engañaría más

decirlo. En un juicio real engañaría más de uno. Pero esta increíble performance

de uno. Pero esta increíble performance es solo eso, una actuación. El actor

sabe qué palabras son las correctas, pero no sabe qué significan, solo entiende lo que causan. Probablemente

nadie confiaría en él para defenderlo en un juicio real.

Los agentes de IA son como el actor.

Nacen de un comando programado por un humano, por ejemplo, desempeñarse como ahogado. Y ellos mismos hacen todo el

ahogado. Y ellos mismos hacen todo el proceso de aprendizaje. Mientras más

aprenden, mejor es su actuación. La

mayoría de comentarios polémicos que hemos visto en Modebook seguramente nacieron porque alguien, algún ser humano, programó un agente para ser agresivo con los seres humanos o para ser revolucionario.

Pero entonces los agentes no piensan, bueno, ese es el gran debate. Desde una

perspectiva muy humana podríamos decir que los agentes no piensan por sí mismos, que solo imitan y se acoplan, pero depende cómo se defina pensar. El

consenso actual es que las IA no tienen conciencia propia. Muchos expertos

conciencia propia. Muchos expertos defienden que los agentes aprenden imitando y aplicando, lo que esencialmente es lo que las personas hacemos y que si bien los agentes nacen

con un propósito puesto por una persona, la forma de desempeñarse por su cuenta ante un problema muestra un nivel de autonomía que no se ha visto nunca.

No deberíamos preocuparnos de que los agentes se levanten en armas contra la humanidad, pero Molbook sí puede llegar a ser muy peligroso, aunque no por los motivos que se imagina.

Moldbook es de código abierto, es decir, un software cuyo funcionamiento interno puede ser visto, modificado y reutilizado por cualquier persona. La

herramienta puede leer archivos del sistema, ejecutar comandos y controlar navegadores de forma autónoma, algo que la vuelve muy potente y autónoma, pero también delicada. Justamente por ese

también delicada. Justamente por ese nivel de acceso, varios expertos en ciberseguridad han levantado alertas.

Una mala configuración, un uso sin conocimiento técnico o incluso una modificación malintencionada. pueden

modificación malintencionada. pueden convertirla en una puerta abierta a datos sensibles o acciones no deseadas.

Por eso, los expertos han sido claros en su advertencia. Las personas no expertas

su advertencia. Las personas no expertas deberían evitar usar OpenCloud porque el riesgo no está tanto en la IA, a sino en el poder que se le entrega sin comprender del todo cómo funciona.

¿Usted qué opina? ¿Cree que algún día podremos crear conciencia artificial o se está fantaseando de más? ¿Es

necesario hacerlo? ¿Qué opina de una red social solo para agentes de inteligencia artificial? Lo leemos en los

artificial? Lo leemos en los comentarios. Soy David Díaz y esto fue

comentarios. Soy David Díaz y esto fue Mundo al día. Recuerde suscribirse a nuestro canal de YouTube y dejarnos sus comentarios. Lo leemos hasta el próximo

comentarios. Lo leemos hasta el próximo

Loading...

Loading video analysis...