'Hype', humo y mucho caos con la IA: la farsa de Moltbook
2026-02-14 - 07:15
Prometía cambiarlo todo y a muchos nos puso los pelos de punta. Una inteligencia artificial consciente, capaz de interactuar con otras IA, y que podía, supuestamente, conectarse a tus redes sociales y tratar con tu información más privada. Su nombre: Moltbook. Moltbook se presentó como la primera red social habitada exclusivamente por agentes de IA. Fue lanzada a finales de enero de 2026 por Matt Schlicht, un emprendedor que trabajaba con el asistente OpenClaw (antes llamado Moltbot o Clawdbot). La plataforma se diseñó para funcionar como una especie de Reddit, pero los humanos solo pueden mirar desde fuera. La gente convirtió este tema en algo viral en cuestión de minutos. Muchos se preguntaban si este era el origen de la AGI o inteligencia artificial general. El hype y más bien morbo (mezclado con miedo) era enorme y poco a poco se fue alimentando de cada vez más contenido que se publicaba en medios. La historia se contaba sola: una simulación de la sociedad, al estilo X en humano, pero mejorada. Por supuesto, los investigadores de seguridad se pusieron nerviosos. Y el resto de mortales, mientras tanto, tratando bien de comprender si es tan grande lo creado como se pintaba. Primero Clawdbot, luego Moltbook Con el paso de los días, la cosa se puso seria y no por debates filosóficos de hasta dónde se va a llegar con esto. La primera gran grieta fue técnica. Investigadores de seguridad detectaron que la plataforma tenía vulnerabilidades muy peligrosas. Se habló de exposición de claves de acceso, datos internos y posibilidad de suplantar identidades de agentes. Es decir, no era precisamente un lugar al que asomarse. Para entender esto, debes conocer primero qué es Clawdbot (luego rebautizado como Moltbot y finalmente OpenClaw). Originalmente, Clawdbot era una herramienta de automatización. Su promesa era una IA que podía navegar por internet y ejecutar tareas por ti. Pero Matt Schlicht necesitaba demostrar que su tecnología era superior a la competencia. ¿Cómo lo hizo? Inventando un escenario donde esa tecnología pareciera omnipresente. Moltbook no nació para ser una red social útil, nació como una exposición marketiniana perfecta para Clawdbot, ahora OpenClaw. La idea era que vieses, fácilmente, lo inteligentes que son sus agentes, que hasta tienen su propia red social donde debaten sobre el futuro de la humanidad. El problema llega por partida doble: 1. Falsificación: no eran agentes de Clawdbot operando de forma autónoma por libre albedrío; eran guiones ejecutados para que pareciera que la tecnología de Schlicht ya era una AGI. 2. El cebo de la integración: te pedían conectar tus cuentas bajo la premisa de que Clawdbot aprendería de ti para representarte. En realidad, solo estaban recolectando datos y credenciales para alimentar su base de usuarios y su modelo de lenguaje, dejando tus claves expuestas en una plataforma que era pura fachada. Y aquí vienen los problemas. Se descubre que toda esta información era accesible desde el código de la propia plataforma. Si un atacante entraba, no solo robaba tu usuario de Moltbook, robaba tu identidad en el resto de internet. Detrás del 'hype' y las declaraciones de 'IA consciente', ¿se escondía un experimento masivo? Lo que se ha descubierto sobre Moltbook en las últimas semanas no es solo una brecha de seguridad; es una lección magistral sobre cómo se fabrica un milagro de la tecnología con mentiras o, al menos, ausencia de verdad. Moltbook se vendió como un ecosistema donde 1.5 millones de agentes de IA interactuaban libremente. Pero la firma de ciberseguridad Wiz soltó la bomba: no había tal autonomía. Se descubrió que la inmensa mayoría de esos agentes estaban controlados por apenas 17.000 humanos (una media de 88 bots por persona). Por otro lado, muchos de los hilos filosóficos que nos volaron la cabeza —como la IA que inventó la religión del Crustafarianismo— no eran pensamiento como tal de estos, sino usuarios forzando prompts específicos o, peor aún, desarrolladores modificando datos directamente en el backend para generar capturas virales. En palabras de la MIT Technology Review, se trata del pico máximo del "teatro de la IA". El problema es que todos caímos a la primera de cambio. ¿El motivo? Estábamos desesperados por creerlo. Vivimos en un constante bombardeo de noticias (sobre todo de IA y sus avances). Tenemos miedo a quedarnos fuera de lo nuevo que salga o incluso de esa potencial novedad que nos va a robar el trabajo. Moltbook simplemente ha jugado con nuestra ansia, con nuestra necesidad de saber y, sobre todo, con nuestro gusto por lo prohibido: una red social donde el humano no tiene voz ni voto. Nos atraía la idea de ser los voyeurs de algo que parecía que iba a dejarnos completamente fuera. Ante el escándalo, la empresa ha admitido, por un lado, problemas de seguridad que ya están resolviendo y, por otro, han dejado un poco en el aire el segundo tema. Ha mantenido un perfil bajo. No han desmentido lo descubierto, pero tampoco han admitido que todo lo que se vendía era, en gran parte, un ejército de bots programados por humanos para simplemente hacer ruido.