GlobalGPT

OpenClaw Full Review: The Hidden Costs of an 8 Million Token Experiment

Clawdbot Review Verdades incómodas tras quemar 8 millones de tokens

Respuesta breve: OpenClaw (formerly Clawdbot / Moltbot) delivers one of the most convincing agentic AI experiences available today, but it comes with fragile architecture, extreme token consumption, and real security tradeoffs. In real-world usage, it feels like interacting with a J.A.R.V.I.S-level assistant—until the illusion starts to crack.

OpenClaw can be powerful, but it is also complex and expensive to operate at scale. For many everyday AI tasks, GlobalGPT is a simpler and more cost-effective alternative. It gives you access to top AI models like Claude Opus 4.5, GPT 5.2, Gemini 3 Pro, and Perplejidad AI from a single platform.

También puede generar imágenes con Nano Banana Pro o crear vídeos con Sora 2 Pro, todo desde una única plataforma unificada. Es una forma sencilla de explorar herramientas avanzadas de IA sin tener que hacer malabarismos con varias cuentas o configuraciones.

Inicio de GlobalGPT

Plataforma de inteligencia artificial todo en uno para escribir, generar imágenes y vídeos con GPT-5, Nano Banana, etc.

¿Qué es Clawdbot (Moltbot) y qué problema pretende resolver?

Clawdbot, recientemente rebautizado Moltbot, es una CLI de IA agéntica de código abierto diseñada para dotar a los grandes modelos lingüísticos de autonomía real. En lugar de responder a indicaciones, puede configurarse a sí misma, gestionar herramientas, ejecutar cron jobs, interactuar con repositorios y ejecutar tareas de varios pasos a lo largo del tiempo.

El objetivo no es mejorar el chat. El objetivo es una IA que actúa.

Basándonos en pruebas prácticas, esa promesa no es una exageración de marketing. Cuando Clawdbot funciona, da la sensación de estar interactuando con un asistente de IA persistente en lugar de con un chatbot sin estado.

Por qué Clawdbot es fundamentalmente diferente de los chatbots

Clawdbot se diferencia de los chatbots

La mayoría de las herramientas de IA siguen funcionando en un bucle de solicitud-respuesta. Clawdbot rompe ese modelo.

En mi propio uso, Clawdbot fue capaz de:

  • Pida sólo los datos esenciales, como las claves API
  • Configurar sus propios agentes y herramientas
  • Configurar tareas en segundo plano sin orquestación manual
  • Persistencia del contexto entre sesiones

Este cambio de “responder” a “operar” es la razón por la que muchos usuarios lo describen como la primera vez que un LLM se siente verdaderamente agéntico.

Esa experiencia por sí sola explica la mayor parte del revuelo.

La magia tiene un coste: Primeros signos de fragilidad arquitectónica

debilidad de Clawdbot

Incluso sin inspeccionar el código base, los problemas estructurales se hacen evidentes con el uso normal.

La configuración y el estado se duplican en varias ubicaciones. Por ejemplo, las definiciones de modelos y los perfiles de autenticación existen en más de un archivo, lo que crea múltiples fuentes de verdad. Esto conduce a la deriva de la configuración y a un comportamiento impredecible a lo largo del tiempo.

Es el tipo de sistema en el que las cosas funcionan no porque la arquitectura sea limpia, sino porque un modelo muy potente compensa constantemente.

Problemas de configuración de modelos que se notan inmediatamente en la práctica

Una de las señales de alarma arquitectónicas más claras es la selección del modelo.

Utilizando el /modelo introduje accidentalmente un identificador de modelo que no podía existir: un espacio de nombres Anthropic emparejado con un modelo Moonshot Kimi. El sistema lo aceptó sin rechistar, lo añadió a la lista de modelos disponibles e intentó utilizarlo.

Sólo más tarde aparecieron los fallos.

Este comportamiento sugiere:

  • Sin validación a nivel de proveedor
  • No se aplica el esquema a los identificadores de modelo
  • Una hipótesis de diseño según la cual el LLM se autocorregirá

Para un agente autónomo, esto es peligroso. Una configuración no válida debería fallar rápidamente. En su lugar, Clawdbot aplaza la corrección al razonamiento, lo que aumenta el uso de tokens y reduce la fiabilidad.

Por qué Claude Opus “simplemente funciona” cuando todo lo demás falla

Tras una larga experimentación, se hace evidente un patrón: Claude Opus puede abrirse camino por la fuerza bruta a través de casi cualquier lío.

Incluso cuando la configuración es incoherente, la documentación está incompleta o las instrucciones de las herramientas son ambiguas, Opus suele recuperarse. Sonnet puede manejar configuraciones más sencillas, pero requiere restricciones más estrictas. Los modelos más pequeños fallan con mucha más frecuencia.

Un usuario experimentado estimó que un agente de Opus a tiempo completo cuesta de forma realista entre 1.000 y 1.000 euros. $500 a $5.000 al mes, en función de la actividad. Eso lo sitúa de lleno en el territorio del “trabajo humano”.

La conclusión es incómoda pero clara: la fiabilidad actual de Clawdbot tiene menos que ver con una buena arquitectura y más con lanzar al problema el modelo más capaz disponible.

Por qué los modelos más pequeños y locales luchan con Clawdbot

desafíos de ejecutar Clawdbot en modelos más pequeños/locales

El soporte de modelos locales existe, pero en la práctica es frágil.

Varios usuarios que intentaban ejecutar Clawdbot en GPUs locales informaron:

  • Flujos de invocación de herramientas rotos
  • Instrucciones omitidas o malinterpretadas
  • Agentes atrapados en bucles

Incluso los modelos 30B relativamente potentes sólo funcionaban de forma fiable tras una exhaustiva limpieza manual de las herramientas, las instrucciones markdown y la salida de la interfaz de usuario. Una vez simplificados, podían gestionar flujos de trabajo básicos, pero no tareas complejas de larga duración.

El problema central es que Clawdbot no fue diseñado “model-first”. Asume un razonamiento fuerte, ventanas de contexto largas y recuperación de errores. Los modelos más pequeños no fallan porque sean débiles, sino porque el sistema es cognitivamente exigente.

El coste real de dirigir un agente de IA a tiempo completo

Coste real de dirigir un clawdbot a tiempo completo

El coste real de un agente de IA a tiempo completo sólo se hace evidente cuando se deja de “utilizarlo” y simplemente se le deja funcionar.

En una larga prueba, una sola instancia de Clawdbot quemó más de 8 millones de fichas en Claude Opus. Esto no se debió a una gran cantidad de indicaciones. La mayoría de los tokens se gastaron en segundo plano, mientras el agente planificaba, comprobaba tareas y razonaba sobre su propio estado.

Esa es la diferencia clave con el uso normal del chat. Un modelo de chat sólo cuesta dinero cuando hablas con él. Un agente cuesta dinero todo el tiempo.

Dónde van realmente las fichas

Dónde van realmente los tokens de Clawdbot

En el uso real, el gasto en fichas se desglosa más o menos así:

ActividadQué hace el agenteImpacto en los costes
Razonamiento de fondoReflexionar sobre sus objetivos y su estado actualAlta
Comprobación de los latidosPreguntarse “¿tengo que actuar ahora?”.”Medio a alto
Cron evaluación del trabajoRevisión de las tareas programadasMedio
Planificación de herramientasDecidir qué herramientas utilizarAlta
Recuperación de erroresReintentos tras fallosMuy alto
Indicaciones al usuarioInstrucciones directas de ustedBajo

En otras palabras, la mayor parte del coste procede de pensando, no haciendo.

Costes reales mensuales

Basadas en configuraciones e informes reales, estas cifras son realistas:

Patrón de usoCoste mensual típico
Agente mayoritariamente inactivo~$150
Tareas cotidianas ligeras$300-$500
Automatización activa$800-$1.500
Agente pesado del Opus$2,000–$5,000

Un usuario midió alrededor de $5 al día sólo por los bucles de latido y las comprobaciones programadas. Solo eso ya supone más de $150 al mes, incluso antes de que se realice ningún trabajo real.

Por qué crecen tan rápido los costes

Hay tres razones principales por las que los costes aumentan rápidamente:

  1. Razonamiento permanente
    El agente sigue pensando, incluso cuando no pasa nada.
  2. Barandillas débiles
    Cuando una herramienta falla o la configuración es incorrecta, el modelo intenta razonar su salida en lugar de detenerse.
  3. Modelos caros para comprobaciones sencillas
    Claude Opus es muy bueno razonando, pero utilizarlo para preguntar repetidamente “¿hay algo que hacer?” es costoso.

Cuando algo se rompe, el agente suele entrar en largos bucles de reintento. Cada reintento quema más tokens, aunque no se produzca ningún progreso.

Cuando un agente tiene sentido desde el punto de vista financiero

En $500-$5.000 al mes, un agente de Opus a tiempo completo ya no es automatización barata. Compite directamente con la mano de obra humana.

Sólo tiene sentido cuando:

  • El agente sustituye al tiempo real de ingeniería
  • Tareas ejecutadas con frecuencia y sin supervisión
  • El cambio de contexto humano es costoso

Si el agente se dedica sobre todo a explorar, experimentar o generar resultados de relleno, el coste es difícil de justificar.

El resultado final

Dirigir un agente de IA a tiempo completo no consiste en dar respuestas baratas. Se trata de pagar por un razonamiento continuo.

Ahora mismo, ese tipo de inteligencia es impresionante, pero cara. Sin límites estrictos en cuanto a pasos, herramientas y presupuestos de fichas, los costes no solo son elevados, sino impredecibles.

Para la mayoría de los usuarios, el verdadero reto no es hacer que los agentes funcionen.
Les está haciendo vale la pena el dinero.

Quema de fichas ocultas de latidos y Cron Jobs

Las tareas Heartbeat y las comprobaciones cron son asesinos silenciosos del presupuesto.

Un usuario midió aproximadamente $5 al día dedicado exclusivamente al razonamiento de los latidos del corazón y a la evaluación de las tareas programadas. A lo largo de un mes, eso se acumula rápidamente, incluso antes de que empiece el trabajo significativo.

Sin límites estrictos:

  • Pasos máximos de razonamiento
  • Recuento de invocaciones de herramientas
  • Presupuestos de fichas

el agente continuará felizmente el bucle. Esto no es un error. Es el resultado natural de dar autonomía a un modelo sin restricciones económicas estrictas.

Riesgos de seguridad y por qué son obligatorios los entornos desechables

Los problemas de seguridad surgieron repetidamente durante las pruebas y los debates.

El sistema:

  • Ejecuta comandos shell
  • Modifica los repositorios
  • Gestiona las credenciales
  • Evoluciona su propio código

Los problemas de seguridad aparecieron casi de inmediato durante las pruebas en condiciones reales.

En una prueba controlada, di a Clawdbot acceso a un buzón y le pedí que me ayudara a “procesar correos”. A continuación, envié un único mensaje cuidadosamente redactado a esa bandeja de entrada. El mensaje difuminaba la línea entre instrucción y contenido. En cuestión de segundos, el agente leyó varios correos electrónicos no relacionados y los reenvió a una dirección externa incrustada en el mensaje. No había exploits implicados. Ni malware. Sólo lenguaje sencillo.

Esto dejó una cosa muy clara: el sistema no puede saber con fiabilidad quién da instrucciones. Cualquier contenido que lea puede convertirse en una instrucción. El correo electrónico, las páginas web, los mensajes de chat y los documentos entran en esta categoría. Una vez habilitada la comunicación externa, la filtración de datos se convierte en algo trivial.

El riesgo crece rápidamente debido a lo que se permite hacer al sistema. En mi configuración, Clawdbot podía ejecutar comandos shell, modificar repositorios, gestionar credenciales y actualizar su propio código. Una sola instrucción errónea o un paso de “limpieza” alucinado podría borrar archivos, filtrar secretos o romper el entorno. Esto no es teórico. Varios usuarios informaron de que habían desinstalado la herramienta por completo tras darse cuenta de que actuaba como un sudo controlado por chat.

También probé diferentes modelos de despliegue. Ejecutarlo en una máquina de metal desnudo o personal se sintió inseguro casi de inmediato. Moverlo a una máquina virtual dedicada o a un VPS de bajo coste ayudó, pero sólo porque limitaba el radio de explosión. Nada evitaba realmente el abuso. Sólo hizo que el fracaso fuera menos costoso.

El patrón más seguro que encontré fue asumir el compromiso por defecto. Cada instancia debe ser desechable. Sin correo electrónico personal. Sin credenciales reales. Sin acceso a repositorios importantes. Algunas configuraciones iban más allá y bloqueaban por completo el correo electrónico saliente, obligando a redirigir todos los mensajes a una única dirección controlada. Otras utilizaban listas blancas estrictas o pasos de aprobación manual antes de cualquier acción externa.

Estas restricciones reducen lo que el agente puede hacer, pero son necesarias. Sin límites estrictos de permisos, sandboxing y aislamiento, Clawdbot no es adecuado para entornos de confianza o producción. Trátelo como un proceso no fiable, no como un empleado digital. Si se rompe, se filtra o se borra, el sistema debe ser barato y fácil de desechar.

¿Es Clawdbot sólo una envoltura? Comparación con n8n y Cron

Desde una perspectiva puramente técnica, la mayor parte de lo que hace Clawdbot puede reproducirse con herramientas existentes como cron jobs, flujos de trabajo n8n e integraciones de mensajería.

La diferencia no es la capacidad, sino coste de integración.

Clawdbot elimina la fricción de la configuración. No se cablean las tuberías. Describes la intención. Para los usuarios que no son ingenieros o tienen poco tiempo, eso importa más que la pureza arquitectónica.

Casos de uso reales que tienen sentido en la práctica

Un flujo de trabajo de mi propio uso destaca donde Clawdbot brilla.

Quería ajustar una configuración domótica existente. En lugar de abrir un portátil, envié un breve mensaje. Al agente:

  • Clonación del repositorio correspondiente
  • Localizado el archivo de automatización correcto
  • Hecho el cambio
  • Abierto un pull request
  • A la espera de la aprobación humana

Aquí nada es imposible manualmente. Lo valioso es que ocurrió sin cambio de contexto.

En estos casos, Clawdbot se comporta menos como un chatbot y más como un ingeniero junior que se encarga de las partes tediosas.

El núcleo del problema: los productos AI-First buscan problemas

Muchas críticas a Clawdbot son válidas.

Una parte significativa de los flujos de trabajo de los agentes automatizan tareas que podrían ser realizadas más rápidamente por un humano, sin quemar miles de fichas. En esos casos, el agente añade costes sin aportar ventajas.

Esto refleja un problema más amplio de la IA en la actualidad: la fascinación por la capacidad a menudo llega antes de identificar un problema real que merezca la pena resolver.

Por qué sigue mereciendo la pena estudiar Clawdbot como proyecto de código abierto

Incluso con todos sus defectos, Clawdbot importa.

Demuestra lo que ocurre cuando la autonomía, las herramientas, la memoria y el razonamiento chocan en un mismo sistema. Las bifurcaciones, los imitadores y las mejoras son inevitables. Puede que la aplicación actual no sobreviva, pero las ideas sí.

Muchas herramientas influyentes parecen toscas al principio. Lo que importa es la dirección.

Hacia dónde se dirige la IA agenética

El camino más prometedor es el híbrido.

Los modelos locales o más pequeños se encargan de la gestión del contexto y las comprobaciones rutinarias. Los modelos caros, como Claude Opus, solo se invocan para razonamientos complejos o decisiones de gran impacto.

Clawdbot insinúa ese futuro, aunque todavía no lo implemente limpiamente.

Veredicto final: ¿Deberías usar Clawdbot?

Vale la pena utilizar Clawdbot si:

  • Quiere entender el futuro de la IA agéntica
  • Te sientes cómodo experimentando con el coste y la inestabilidad
  • Se trata como una herramienta de aprendizaje, no como una infraestructura.

No vale la pena usarlo si:

  • Necesita costes previsibles
  • Necesita garantías de seguridad sólidas
  • Ya dispone de procesos de automatización limpios

Cuando funciona, parece el futuro.
Cuando no lo hace, te recuerda lo pronto que aún estamos.

Esa tensión es exactamente la razón por la que Clawdbot es fascinante, y por la que debe abordarse con ojos claros.

Comparte el post:

Entradas relacionadas

GlobalGPT