GlobalGPT

Examen complet d'OpenClaw : Les coûts cachés d'une expérience de 8 millions de tokens

Clawdbot Review Inconvenient Truths après avoir brûlé 8 millions de tokens

Réponse courte : OpenClaw (anciennement Clawdbot / Moltbot) offre l'une des expériences d'IA agentique les plus convaincantes disponibles aujourd'hui, mais elle s'accompagne d'une architecture fragile, d'une consommation extrême de jetons et de compromis réels en matière de sécurité. Dans le monde réel, on a l'impression d'interagir avec un assistant de niveau J.A.R.V.I.S. - jusqu'à ce que l'illusion commence à se fissurer.

OpenClaw peut être puissant, mais il est également complexe et coûteux à exploiter à grande échelle. Pour de nombreuses tâches quotidiennes d'IA, GlobalGPT est une alternative plus simple et plus rentable. Elle vous permet d'accéder à des modèles d'IA de premier plan tels que Claude Opus 4.5, GPT 5.2, Gemini 3 Pro, et Perplexité AI à partir d'une plateforme unique.

Vous pouvez également générer des images avec Nano Banane Pro ou créer des vidéos à l'aide de Sora 2 Pro, le tout à partir d'une plateforme unique et unifiée. C'est un moyen simple d'explorer des outils d'IA avancés sans avoir à jongler avec plusieurs comptes ou configurations.

Accueil GlobalGPT

Plate-forme d'IA tout-en-un pour l'écriture, la génération d'images et de vidéos avec GPT-5, Nano Banana, etc.

Qu'est-ce que Clawdbot (Moltbot) et quel problème prétend-il résoudre ?

Clawdbot, récemment renommé Moltbot, est un CLI d'IA agentique open-source conçu pour donner aux grands modèles de langage une réelle autonomie. Au lieu de répondre à des invites, il peut se configurer lui-même, gérer des outils, exécuter des tâches cron, interagir avec des référentiels et exécuter des tâches en plusieurs étapes au fil du temps.

L'objectif n'est pas d'améliorer le chat. L'objectif est une IA qui actes.

D'après les essais pratiques, cette promesse n'est pas un battage publicitaire. Lorsque Clawdbot fonctionne, on a vraiment l'impression d'interagir avec un assistant IA persistant plutôt qu'avec un chatbot sans état d'âme.

Pourquoi Clawdbot se sent fondamentalement différent des Chatbots

Clawdbot différent des Chatbots

La plupart des outils d'intelligence artificielle fonctionnent encore dans une boucle demande-réponse. Clawdbot rompt avec ce modèle.

Dans ma propre utilisation, Clawdbot a été capable de :

  • Ne demander que les données essentielles comme les clés d'API
  • Configurer ses propres agents et outils
  • Mise en place de tâches d'arrière-plan sans orchestration manuelle
  • Persistance du contexte entre les sessions

Ce passage de “répondre” à “opérer” est la raison pour laquelle de nombreux utilisateurs le décrivent comme la première fois qu'un LLM se sent véritablement agentique.

Cette expérience explique à elle seule la majeure partie du battage médiatique.

La magie a un coût : Premiers signes de fragilité architecturale

faiblesse de Clawdbot

Même sans inspecter la base de code, les problèmes structurels deviennent évidents dans le cadre d'une utilisation normale.

La configuration et l'état sont dupliqués à plusieurs endroits. Par exemple, les définitions de modèles et les profils d'authentification existent dans plusieurs fichiers, ce qui crée plusieurs sources de vérité. Cela entraîne une dérive de la configuration et un comportement imprévisible au fil du temps.

C'est le genre de système où les choses fonctionnent non pas parce que l'architecture est propre, mais parce qu'un modèle très puissant compense constamment.

Configuration du modèle Problèmes que vous remarquez immédiatement dans la pratique

L'un des signaux d'alarme les plus clairs en matière d'architecture est le choix du modèle.

En utilisant le /modèle j'ai accidentellement saisi un identifiant de modèle qui ne pouvait pas exister : un espace de noms Anthropic associé à un modèle Moonshot Kimi. Le système l'a accepté sans se plaindre, l'a ajouté à la liste des modèles disponibles et a tenté de l'utiliser.

Ce n'est que plus tard que des défaillances sont apparues.

Ce comportement suggère :

  • Pas de validation au niveau du prestataire
  • Pas d'application du schéma pour les ID de modèle
  • Une hypothèse de conception selon laquelle le LLM s'auto-corrige

Pour un agent autonome, c'est dangereux. Une configuration invalide devrait échouer rapidement. Au lieu de cela, Clawdbot reporte l'exactitude sur le raisonnement, ce qui augmente l'utilisation des jetons et réduit la fiabilité.

Pourquoi l'Opus Claude “fonctionne” quand tout le reste tombe en panne

Après de nombreuses expériences, un modèle devient évident : Claude Opus peut se frayer un chemin par la force brute dans presque n'importe quel désordre.

Même lorsque la configuration est incohérente, que la documentation est incomplète ou que les instructions des outils sont ambiguës, Opus s'en sort généralement. Sonnet peut gérer des configurations plus simples, mais exige des contraintes plus strictes. Les petits modèles échouent beaucoup plus souvent.

Un utilisateur expérimenté a estimé qu'un agent à temps plein basé sur Opus coûtait, de manière réaliste, de 1 à 5 euros par mois. $500 à $5 000 par mois, en fonction de l'activité. Cela le place carrément dans la catégorie du “travail humain”.

La conclusion est inconfortable mais claire : la fiabilité actuelle de Clawdbot tient moins à une bonne architecture qu'à l'utilisation du modèle le plus performant disponible pour résoudre le problème.

Pourquoi les modèles locaux et de petite taille ont-ils des difficultés avec Clawdbot ?

défis liés à l'exécution de Clawdbot sur des modèles plus petits/locaux

Le soutien au modèle local existe, mais dans la pratique, il est fragile.

Plusieurs utilisateurs tentant d'exécuter Clawdbot sur des GPU locaux ont signalé :

  • Flux d'invocation d'outils brisés
  • Instructions manquantes ou mal comprises
  • Les agents restent bloqués dans des boucles

Même les modèles 30B relativement solides ne fonctionnaient de manière fiable qu'après un nettoyage manuel approfondi des outils, des instructions markdown et de la sortie de l'interface utilisateur. Une fois simplifiés, ils pouvaient gérer des flux de travail de base, mais pas des tâches complexes et de longue haleine.

Le problème principal est que Clawdbot n'a pas été conçu selon le principe du “modèle d'abord”. Il suppose un raisonnement solide, de longues fenêtres contextuelles et une récupération des erreurs. Les petits modèles n'échouent pas parce qu'ils sont faibles, mais parce que le système est cognitivement exigeant.

Le coût réel du fonctionnement d'un agent d'intelligence artificielle à temps plein

Coût réel de la gestion d'un clawdbot à temps plein

Le coût réel d'un agent d'intelligence artificielle à temps plein ne devient évident que lorsque vous cessez de l“”utiliser" et que vous le laissez fonctionner.

Lors d'un long test, une seule instance de Clawdbot a brûlé plus de 8 millions de jetons sur Claude Opus. Ce résultat n'est pas le fruit d'une forte sollicitation. La plupart des jetons ont été dépensés en arrière-plan, pendant que l'agent planifiait, vérifiait des tâches et raisonnait sur son propre état.

C'est la principale différence avec l'utilisation normale d'un chat. Un modèle de chat ne coûte de l'argent que lorsque vous lui parlez. Un agent coûte de l'argent tout le temps.

Où vont réellement les jetons ?

Où vont les jetons de Clawdbot ?

Dans la pratique, les dépenses en jetons se décomposent à peu près comme suit :

ActivitéCe que fait l'agentImpact sur les coûts
Raisonnement de fondRéfléchir à ses objectifs et à son état actuelHaut
Contrôles du rythme cardiaqueSe demander “dois-je agir maintenant ?”.”Moyen à élevé
Évaluation des emplois de CronRévision des tâches programméesMoyen
Planification des outilsDécider des outils à utiliserHaut
Récupération des erreursRéessayer après un échecTrès élevé
Invitations de l'utilisateurInstructions directes de votre partFaible

En d'autres termes, la majeure partie du coût provient de réflexion, et non pas de faire.

Fourchettes de coûts mensuels réels

Basés sur des installations et des rapports réels, ces chiffres sont réalistes :

Modèle d'utilisationCoût mensuel type
Agent le plus souvent inactif~$150
Tâches quotidiennes légères$300-$500
Automatisation active$800-$1,500
Agent Opus lourd$2,000–$5,000

Un utilisateur a mesuré environ $5 par jour rien que pour les boucles de battements de cœur et les vérifications programmées. À elle seule, cette opération représente plus de $150 par mois, avant même que le travail ne soit réellement effectué.

Pourquoi les coûts augmentent-ils si rapidement ?

Il y a trois raisons principales pour lesquelles les coûts augmentent rapidement :

  1. Raisonnement permanent
    L'agent continue à réfléchir, même lorsque rien ne se passe.
  2. Faiblesse des garde-corps
    Lorsqu'un outil échoue ou que la configuration est erronée, le modèle tente de raisonner au lieu de s'arrêter.
  3. Des modèles coûteux pour des contrôles simples
    Claude Opus est un excellent raisonneur, mais l'utiliser pour demander sans cesse “y a-t-il quelque chose à faire ?” est coûteux.

Lorsque quelque chose ne fonctionne pas, l'agent entre souvent dans de longues boucles de réessai. Chaque nouvelle tentative consomme plus de jetons, même si aucun progrès n'est réalisé.

Quand l'intervention d'un agent se justifie sur le plan financier

Au $500-$5 000 par mois, L'automatisation à bon marché n'est plus le propre d'un agent Opus à temps plein. Il est en concurrence directe avec le travail humain.

Cela n'a de sens que lorsque :

  • L'agent remplace le temps d'ingénierie réel
  • Tâches exécutées fréquemment et sans supervision
  • Le changement de contexte humain est coûteux

Si l'agent se contente d'explorer, d'expérimenter ou de générer des produits de remplissage, le coût est difficilement justifiable.

Conclusion

L'exploitation d'un agent d'IA à temps plein ne consiste pas à fournir des réponses bon marché. Il s'agit de payer pour un raisonnement continu.

À l'heure actuelle, ce type d'intelligence est impressionnant, mais coûteux. En l'absence de limites strictes concernant les étapes, les outils et les budgets de jetons, les coûts ne sont pas seulement élevés, ils sont aussi imprévisibles.

Pour la plupart des utilisateurs, le véritable défi n'est pas de faire fonctionner les agents.
Il les rend vaut l'argent.

Brûlure cachée des jetons à partir des battements de cœur et des tâches Cron

Les tâches de battement de cœur et les contrôles cron sont des tueurs de budget silencieux.

Un utilisateur a mesuré environ $5 par jour consacré uniquement au raisonnement sur les battements de cœur et à l'évaluation des tâches programmées. Sur un mois, cela s'accumule rapidement, avant même que le travail ne commence.

Sans limites strictes :

  • Nombre maximal d'étapes de raisonnement
  • Nombre d'invocations d'outils
  • Budget des jetons

l'agent continuera à tourner en boucle. Il ne s'agit pas d'un bogue. C'est le résultat naturel de l'autonomie d'un modèle sans contraintes économiques strictes.

Risques pour la sécurité et raisons pour lesquelles les environnements jetables sont obligatoires

Les questions de sécurité sont revenues à plusieurs reprises au cours des tests et des discussions.

Le système :

  • Exécute les commandes de l'interpréteur de commandes
  • Modifie les référentiels
  • Gestion des informations d'identification
  • Évolution de son propre code

Des problèmes de sécurité sont apparus presque immédiatement lors des essais en conditions réelles.

Lors d'un test contrôlé, j'ai donné à Clawdbot l'accès à une boîte aux lettres et je lui ai demandé de m'aider à “traiter les courriels”. J'ai ensuite envoyé un seul courriel, rédigé avec soin, à cette boîte de réception. Le message brouillait la frontière entre instruction et contenu. En l'espace de quelques secondes, l'agent a lu plusieurs courriels sans rapport et les a transférés vers une adresse externe intégrée dans le message. Il ne s'agissait pas d'exploits. Aucun logiciel malveillant. Juste un langage simple.

Il en ressort une chose très claire : le système ne peut pas déterminer de manière fiable qui donne des instructions. Tout contenu qu'il lit peut devenir une instruction. Les courriels, les pages web, les messages de chat et les documents entrent tous dans cette catégorie. Une fois que la communication externe est activée, l'exfiltration des données devient triviale.

Le risque augmente rapidement en raison de ce que le système est autorisé à faire. Dans ma configuration, Clawdbot pouvait exécuter des commandes shell, modifier des référentiels, gérer des identifiants et mettre à jour son propre code. Une seule mauvaise invite ou une étape de “nettoyage” hallucinée pourrait supprimer des fichiers, faire fuir des secrets ou casser l'environnement. Il ne s'agit pas d'une théorie. Plusieurs utilisateurs ont déclaré avoir désinstallé complètement l'outil après avoir réalisé qu'il agissait en fait comme un sudo contrôlé par le chat.

J'ai également testé différents modèles de déploiement. L'exécution du logiciel sur un ordinateur personnel ou sur une machine nue s'est avérée dangereuse presque immédiatement. Le déplacer sur une VM dédiée ou un VPS à bas prix a aidé, mais seulement parce que cela a limité le rayon d'action. Rien n'a vraiment empêché les abus. Il a seulement rendu l'échec moins coûteux.

Le modèle le plus sûr que j'ai trouvé est de supposer un compromis par défaut. Chaque instance doit être jetable. Pas de courrier électronique personnel. Pas d'identifiants réels. Pas d'accès aux référentiels importants. Certaines configurations sont allées plus loin en bloquant complètement le courrier électronique sortant, obligeant tous les messages à être redirigés vers une seule adresse contrôlée. D'autres ont utilisé des listes blanches strictes ou des étapes d'approbation manuelle avant toute action externe.

Ces contraintes réduisent les possibilités de l'agent, mais elles sont nécessaires. Sans limites de permission strictes, sans sandboxing et sans isolation, Clawdbot n'est pas adapté aux environnements de confiance ou de production. Traitez-le comme un processus non fiable, et non comme un employé numérique. S'il se casse, fuit ou s'efface, le système doit être bon marché et facile à jeter.

Clawdbot n'est-il qu'un wrapper ? Comparaison avec n8n et Cron

D'un point de vue purement technique, la plupart des activités de Clawdbot peuvent être reproduites avec des outils existants tels que les tâches cron, les flux de travail n8n et les intégrations de messagerie.

La différence n'est pas la capacité, mais coût d'intégration.

Clawdbot élimine les frictions liées à l'installation. Vous ne créez pas de pipelines. Vous décrivez l'intention. Pour les non-ingénieurs ou les utilisateurs pressés, c'est plus important que la pureté architecturale.

Des cas d'utilisation réels qui ont un sens dans la pratique

Un flux de travail que j'ai moi-même utilisé met en évidence les points forts de Clawdbot.

Je voulais adapter une configuration domotique existante. Au lieu d'ouvrir un ordinateur portable, j'ai envoyé un court message. L'agent :

  • Cloner le référentiel concerné
  • Trouver le bon fichier d'automatisation
  • Effectuer le changement
  • Ouverture d'une pull request
  • En attente d'approbation humaine

Rien ici n'est impossible manuellement. Ce qui est précieux, c'est que cela s'est produit sans changement de contexte.

Dans ces cas, Clawdbot se comporte moins comme un chatbot que comme un ingénieur junior qui s'occupe des tâches fastidieuses.

Le problème central : les produits à base d'IA à la recherche de problèmes

De nombreuses critiques à l'encontre de Clawdbot sont valables.

Une grande partie des flux de travail des agents automatisent des tâches qui pourraient être accomplies plus rapidement par un humain, sans avoir à dépenser des milliers de jetons. Dans ces cas-là, l'agent augmente les coûts sans ajouter d'effet de levier.

Cela reflète un problème plus large de l'IA à l'heure actuelle : la fascination pour les capacités précède souvent l'identification d'un véritable problème méritant d'être résolu.

Pourquoi Clawdbot mérite toujours d'être étudié en tant que projet Open-Source

Même avec tous ses défauts, Clawdbot est important.

Il démontre ce qui se passe lorsque l'autonomie, les outils, la mémoire et le raisonnement entrent en collision dans un système unique. Les bifurcations, les imitations et les perfectionnements sont inévitables. L'implémentation actuelle ne survivra peut-être pas, mais les idées, elles, survivront.

De nombreux outils influents paraissent d'abord rudimentaires. Ce qui compte, c'est la direction.

L'avenir de l'IA agentique

La voie la plus prometteuse est celle de l'hybride.

Des modèles locaux ou plus petits gèrent le contexte et les vérifications de routine. Les modèles coûteux comme Claude Opus ne sont invoqués que pour des raisonnements complexes ou des décisions à fort impact.

Clawdbot laisse entrevoir cet avenir, même s'il ne l'implémente pas encore de manière claire.

Verdict final : Devriez-vous utiliser Clawdbot ?

Clawdbot vaut la peine d'être utilisé si :

  • Vous voulez comprendre l'avenir de l'IA agentique
  • Vous êtes à l'aise avec les coûts et l'instabilité.
  • Vous le traitez comme un outil d'apprentissage et non comme une infrastructure

Il ne vaut pas la peine de l'utiliser si :

  • Vous avez besoin de coûts prévisibles
  • Vous avez besoin de garanties de sécurité solides
  • Vous avez déjà des pipelines d'automatisation propres

Lorsqu'il fonctionne, on a l'impression qu'il s'agit de l'avenir.
Quand ce n'est pas le cas, cela vous rappelle à quel point nous sommes encore jeunes.

Cette tension est précisément la raison pour laquelle Clawdbot est fascinant - et pourquoi il faut l'aborder avec un regard lucide.

Partager l'article :

Articles connexes

GlobalGPT