Risposta breve: OpenClaw (formerly Clawdbot / Moltbot) delivers one of the most convincing agentic AI experiences available today, but it comes with fragile architecture, extreme token consumption, and real security tradeoffs. In real-world usage, it feels like interacting with a J.A.R.V.I.S-level assistant—until the illusion starts to crack.
OpenClaw can be powerful, but it is also complex and expensive to operate at scale. For many everyday AI tasks, GlobalGPT is a simpler and more cost-effective alternative. It gives you access to top AI models like Claude Opus 4.5, GPT 5.2, Gemini 3 Pro, and Perplessità AI from a single platform.
È anche possibile generare immagini con Nano Banana Pro o creare video utilizzando Sora 2 Pro, il tutto da un'unica piattaforma unificata. È un modo semplice per esplorare strumenti avanzati di intelligenza artificiale senza doversi destreggiare tra più account o configurazioni.

Piattaforma AI all-in-one per la scrittura, la generazione di immagini e video con GPT-5, Nano Banana e molto altro.
Che cos'è Clawdbot (Moltbot) e quale problema sostiene di risolvere?
Clawdbot, recentemente ribattezzato Moltbot, è una CLI agenziale open-source per l'intelligenza artificiale, progettata per dare una vera autonomia ai modelli linguistici di grandi dimensioni. Invece di rispondere alle richieste, può configurare se stesso, gestire strumenti, eseguire cron job, interagire con i repository ed eseguire compiti in più fasi nel tempo.
L'obiettivo non è una chat migliore. L'obiettivo è un'intelligenza artificiale che atti.
Sulla base di test pratici, questa promessa non è un'illazione di marketing. Quando Clawdbot funziona, sembra davvero di interagire con un assistente AI persistente piuttosto che con un chatbot apolide.
Perché Clawdbot è fondamentalmente diverso dai chatbot

La maggior parte degli strumenti di intelligenza artificiale opera ancora in un ciclo richiesta-risposta. Clawdbot rompe questo modello.
Nel mio utilizzo, Clawdbot è stato in grado di:
- Chiedete solo i dati essenziali, come le chiavi API
- Configurare i propri agenti e strumenti
- Impostazione di attività in background senza orchestrazione manuale
- Persistere il contesto tra le sessioni
Questo passaggio da “rispondere” a “operare” è il motivo per cui molti utenti lo descrivono come la prima volta in cui un LLM si sente veramente agile.
Questa esperienza spiega da sola la maggior parte del clamore.
La magia ha un costo: Primi segni di fragilità architettonica

Anche senza ispezionare la base di codice, i problemi strutturali diventano evidenti con il normale utilizzo.
La configurazione e lo stato sono duplicati in più posizioni. Ad esempio, le definizioni dei modelli e i profili di autenticazione esistono in più di un file, creando più fonti di verità. Ciò comporta una deriva della configurazione e un comportamento imprevedibile nel tempo.
È il tipo di sistema in cui le cose funzionano non perché l'architettura è pulita, ma perché un modello molto potente compensa costantemente.
Problemi di configurazione del modello che si notano immediatamente nella pratica
Una delle bandiere rosse architettoniche più chiare è la scelta del modello.
Utilizzando il /modello ho inserito per sbaglio un ID di modello che non poteva esistere: uno spazio dei nomi Anthropic abbinato a un modello Moonshot Kimi. Il sistema lo ha accettato senza problemi, lo ha aggiunto all'elenco dei modelli disponibili e ha tentato di utilizzarlo.
Solo in un secondo momento sono emersi dei fallimenti.
Questo comportamento suggerisce:
- Nessuna convalida a livello di fornitore
- Nessuna applicazione dello schema per gli ID dei modelli
- L'ipotesi progettuale è che l'LLM si autocorregga.
Per un agente autonomo, questo è pericoloso. Una configurazione non valida dovrebbe fallire rapidamente. Invece, Clawdbot rinvia la correttezza al ragionamento, il che aumenta l'uso dei token e riduce l'affidabilità.
Perché Claude Opus “funziona” quando tutto il resto si guasta
Dopo un'ampia sperimentazione, appare evidente uno schema: Claude Opus è in grado di risolvere con la forza bruta quasi ogni problema.
Anche quando la configurazione è incoerente, la documentazione è incompleta o le istruzioni degli strumenti sono ambigue, Opus di solito recupera. Sonnet può gestire configurazioni più semplici, ma richiede vincoli più stretti. I modelli più piccoli falliscono molto più spesso.
Un utente esperto ha stimato che un agente a tempo pieno basato su Opus costa realisticamente da Da $500 a $5.000 al mese, a seconda dell'attività. Questo lo colloca perfettamente nel territorio del “lavoro umano”.
Il risultato è scomodo ma chiaro: l'attuale affidabilità di Clawdbot non è tanto legata a una buona architettura, quanto piuttosto al fatto di aver lanciato sul problema il modello più capace a disposizione.
Perché i modelli più piccoli e locali hanno difficoltà con Clawdbot

Il supporto locale per i modelli esiste, ma in pratica è fragile.
Diversi utenti che hanno tentato di eseguire Clawdbot su GPU locali hanno segnalato:
- Flussi di invocazione degli strumenti interrotti
- Istruzioni mancanti o mal comprese
- Agenti bloccati in loop
Anche i modelli 30B, relativamente robusti, funzionavano in modo affidabile solo dopo un'ampia pulizia manuale degli strumenti, delle istruzioni markdown e dell'output dell'interfaccia utente. Una volta semplificati, potevano gestire i flussi di lavoro di base, ma non le attività complesse e di lunga durata.
Il problema principale è che Clawdbot non è stato progettato “model-first”. Presuppone un ragionamento forte, lunghe finestre contestuali e il recupero degli errori. I modelli più piccoli non falliscono perché sono deboli, ma perché il sistema è cognitivamente impegnativo.
Il costo reale della gestione di un agente AI a tempo pieno

Il costo reale di un agente AI a tempo pieno diventa evidente solo quando si smette di “usarlo” e lo si lascia semplicemente funzionare.
In un lungo test, una singola istanza di Clawdbot ha bruciato oltre 8 milioni di gettoni su Claude Opus. Questo non è avvenuto grazie a una forte sollecitazione. La maggior parte dei gettoni è stata spesa in background, mentre l'agente pianificava, controllava i compiti e ragionava sul proprio stato.
Questa è la differenza fondamentale rispetto al normale utilizzo della chat. Un modello di chat costa solo quando ci si parla. Un agente costa sempre.
Dove vanno effettivamente i gettoni

Nell'uso reale, la spesa per i token si ripartisce all'incirca in questo modo:
| Attività | Cosa fa l'agente | Impatto dei costi |
|---|---|---|
| Ragionamento di fondo | Riflettere sugli obiettivi e sullo stato attuale | Alto |
| Controlli del battito cardiaco | Chiedersi “devo agire adesso?”.” | Da medio ad alto |
| Valutazione del lavoro Cron | Revisione delle attività pianificate | Medio |
| Pianificazione degli strumenti | Decidere quali strumenti utilizzare | Alto |
| Recupero degli errori | Riproduzione dopo i fallimenti | Molto alto |
| Richieste dell'utente | Istruzioni dirette da parte vostra | Basso |
In altre parole, la maggior parte dei costi proviene da pensiero, non facendo.
Gamme di costi mensili reali
Basati su configurazioni e rapporti reali, questi sono numeri realistici:
| Modello di utilizzo | Costo mensile tipico |
|---|---|
| Agente per lo più inattivo | ~$150 |
| Attività quotidiane leggere | $300-$500 |
| Automazione attiva | $800-$1.500 |
| Agente Opus pesante | $2,000–$5,000 |
Un utente ha misurato circa $5 al giorno solo per i loop di heartbeat e i controlli programmati. Questo, da solo, porta a più di $150 al mese, anche prima che venga svolto il lavoro vero e proprio.
Perché i costi crescono così velocemente
Ci sono tre ragioni principali per cui i costi aumentano rapidamente:
- Ragionamento sempre attivo
L'agente continua a pensare, anche quando non succede nulla. - Guardrail deboli
Quando uno strumento fallisce o la configurazione è sbagliata, il modello cerca di ragionare sulla sua via d'uscita invece di fermarsi. - Modelli costosi che effettuano controlli semplici
Claude Opus è bravissimo a ragionare, ma usarlo per chiedere ripetutamente “c'è qualcosa da fare?” è costoso.
Quando qualcosa si rompe, l'agente entra spesso in lunghi cicli di ripetizione. Ogni tentativo brucia altri gettoni, anche se non viene fatto alcun progresso.
Quando un agente ha senso dal punto di vista finanziario
A $500-$5.000 al mese, Un agente Opus a tempo pieno non è più un'automazione a basso costo. È in concorrenza diretta con il lavoro umano.
Ha senso solo quando:
- L'agente sostituisce il tempo di ingegneria reale
- I compiti vengono svolti frequentemente e senza supervisione
- Il cambio di contesto umano è costoso
Se l'agente si dedica prevalentemente all'esplorazione, alla sperimentazione o alla generazione di output riempitivi, il costo è difficile da giustificare.
Conclusione
Gestire un agente AI a tempo pieno non significa ottenere risposte a basso costo. Si tratta di pagare per un ragionamento continuo.
Al momento, questo tipo di intelligenza è impressionante, ma costosa. Senza limiti rigorosi alle fasi, agli strumenti e ai budget per i token, i costi non sono solo elevati, ma anche imprevedibili.
Per la maggior parte degli utenti, la vera sfida non è far funzionare gli agenti.
Li sta rendendo vale la pena di pagare.
Token nascosti bruciati da battiti cardiaci e lavori Cron
I task heartbeat e i controlli cron sono killer silenziosi del budget.
Un utente ha misurato circa $5 al giorno spesi esclusivamente per il ragionamento sul battito cardiaco e la valutazione dei compiti programmati. Nell'arco di un mese, questo dato si accumula rapidamente, anche prima che inizi il lavoro significativo.
Senza limiti rigidi:
- Fasi massime del ragionamento
- Conteggio delle invocazioni dello strumento
- Bilanci a gettone
l'agente continuerà tranquillamente ad andare in loop. Questo non è un bug. È il risultato naturale di dare autonomia a un modello senza vincoli economici rigidi.
Rischi per la sicurezza e perché gli ambienti monouso sono obbligatori
I problemi di sicurezza sono emersi ripetutamente durante i test e le discussioni.
Il sistema:
- Esegue i comandi della shell
- Modifica i repository
- Gestione delle credenziali
- Evolve il proprio codice
I problemi di sicurezza sono emersi quasi subito durante i test reali.
In un test controllato, ho dato a Clawdbot l'accesso a una casella di posta elettronica e gli ho chiesto di aiutarmi a “elaborare le e-mail”. Poi ho inviato una singola e-mail, formulata con cura, a quella casella di posta. Il messaggio confondeva il confine tra istruzioni e contenuti. In pochi secondi, l'agente ha letto diverse e-mail non correlate e le ha inoltrate a un indirizzo esterno incorporato nel messaggio. Non c'erano exploit coinvolti. Nessun malware. Solo un linguaggio semplice.
Questo ha chiarito una cosa: il sistema non è in grado di stabilire in modo affidabile chi sta dando istruzioni. Qualsiasi contenuto letto può diventare un'istruzione. Email, pagine web, messaggi di chat e documenti rientrano tutti in questa categoria. Una volta abilitata la comunicazione esterna, l'esfiltrazione dei dati diventa banale.
Il rischio aumenta rapidamente a causa di ciò che il sistema è autorizzato a fare. Nella mia configurazione, Clawdbot poteva eseguire comandi di shell, modificare repository, gestire credenziali e aggiornare il proprio codice. Un singolo prompt sbagliato o una fase di “pulizia” allucinata potrebbero cancellare file, far trapelare segreti o rompere l'ambiente. Tutto ciò non è teorico. Diversi utenti hanno riferito di aver disinstallato completamente lo strumento dopo essersi resi conto che agisce effettivamente come un sudo controllato dalla chat.
Ho anche testato diversi modelli di distribuzione. L'esecuzione su bare metal o su una macchina personale è risultata quasi subito insicura. Lo spostamento su una macchina virtuale dedicata o su un VPS a basso costo è stato d'aiuto, ma solo perché ha limitato il raggio d'azione. Non c'è nulla che impedisca veramente l'abuso. Ha solo reso il fallimento meno costoso.
Il modello più sicuro che ho trovato è stato quello di assumere il compromesso per impostazione predefinita. Ogni istanza dovrebbe essere usa e getta. Nessuna email personale. Nessuna credenziale reale. Nessun accesso a repository importanti. Alcune configurazioni si sono spinte oltre bloccando completamente le e-mail in uscita, obbligando tutti i messaggi a essere reindirizzati a un unico indirizzo controllato. Altri utilizzano whitelist rigorose o fasi di approvazione manuale prima di qualsiasi azione esterna.
Questi vincoli riducono le possibilità dell'agente, ma sono necessari. Senza limiti rigidi di autorizzazione, sandboxing e isolamento, Clawdbot non è adatto ad ambienti affidabili o di produzione. Trattatelo come un processo non attendibile, non come un dipendente digitale. Se si rompe, perde o si cancella, il sistema deve essere economico e facile da buttare.
Clawdbot è solo un wrapper? Confronto con n8n e Cron
Da un punto di vista puramente tecnico, la maggior parte di ciò che Clawdbot fa può essere replicato con strumenti esistenti come cron job, flussi di lavoro n8n e integrazioni di messaggistica.
La differenza non è la capacità, ma costo di integrazione.
Clawdbot elimina gli attriti di configurazione. Non si cablano le pipeline. Si descrive l'intento. Per i non ingegneri o per gli utenti con problemi di tempo, questo conta più della purezza architettonica.
Casi d'uso reali che hanno senso nella pratica
Un flusso di lavoro tratto dal mio utilizzo evidenzia i punti di forza di Clawdbot.
Volevo modificare una configurazione domotica esistente. Invece di aprire un portatile, ho inviato un breve messaggio. L'agente:
- Clonare il repository pertinente
- Individuare il file di automazione corretto
- Effettuato il cambiamento
- Aperta una richiesta di pull
- In attesa dell'approvazione umana
Non c'è nulla di impossibile da fare manualmente. L'importante è che ciò avvenga senza cambiare contesto.
In questi casi, Clawdbot si comporta meno come un chatbot e più come un ingegnere junior che si occupa delle parti più noiose.
Il problema centrale: prodotti AI-First alla ricerca di problemi
Molte critiche a Clawdbot sono valide.
Una parte significativa dei flussi di lavoro degli agenti automatizza attività che potrebbero essere completate più velocemente da un essere umano, senza bruciare migliaia di token. In questi casi, l'agente aggiunge costi senza aggiungere leva.
Questo riflette un problema più ampio dell'IA in questo momento: il fascino della capacità spesso precede l'identificazione di un problema reale che valga la pena di essere risolto.
Perché Clawdbot vale ancora la pena di essere studiato come progetto open source
Anche con tutti i suoi difetti, Clawdbot è importante.
Dimostra cosa succede quando autonomia, strumenti, memoria e ragionamento si scontrano in un unico sistema. Le forzature, le imitazioni e i perfezionamenti sono inevitabili. L'implementazione attuale potrebbe non sopravvivere, ma le idee sì.
Molti strumenti influenti hanno un aspetto approssimativo all'inizio. Ciò che conta è la direzione.
Dove sta andando l'IA agenziale
La strada più promettente è quella ibrida.
I modelli locali o più piccoli gestiscono la gestione del contesto e i controlli di routine. Modelli costosi come Claude Opus vengono invocati solo per ragionamenti complessi o per decisioni ad alto impatto.
Clawdbot accenna a questo futuro, anche se non lo implementa ancora in modo pulito.
Verdetto finale: dovreste usare Clawdbot?
Vale la pena di utilizzare Clawdbot se:
- Volete capire il futuro dell'intelligenza artificiale agenziale
- Siete a vostro agio nello sperimentare costi e instabilità.
- Lo trattate come uno strumento di apprendimento, non come un'infrastruttura.
Non vale la pena di usarlo se:
- Avete bisogno di costi prevedibili
- Avete bisogno di forti garanzie di sicurezza
- Disponete già di pipeline di automazione pulite
Quando funziona, sembra il futuro.
Quando non lo fa, ci ricorda quanto siamo ancora in anticipo.
Questa tensione è esattamente il motivo per cui Clawdbot è affascinante e per cui dovrebbe essere affrontato con occhi chiari.

