OpenClaw ha registrato una crescita senza precedenti in breve tempo, raggiungendo circa 147.000 stelle GitHub in poche settimane. Questa crescita esplosiva ha portato a un'ondata di entusiasmo per i sistemi autonomi, alla creazione di numerosi progetti spin-off e a una maggiore vigilanza da parte di truffatori e ricercatori di sicurezza.
Ciò che OpenClaw immagina non è semplicemente un chatbot nel senso tradizionale del termine. Sviluppato dal programmatore austriaco Peter Steinberger, che ha lasciato PSPDFKit dopo un investimento da parte di Insight Partners, offriamo un framework di agenti di intelligenza artificiale self-hosted. Questo sistema può funzionare ininterrottamente e si connette alle app di messaggistica più diffuse, come WhatsApp. Telegram, Discord, Slack e Signal, oltre all'accesso a email, calendari, file locali, browser e comandi shell. A differenza di ChatGPT, che risponde solo quando viene ricevuta una richiesta, gli agenti OpenClaw sono sempre attivi. Vengono attivati in base a una pianificazione, memorizzano la memoria localmente ed eseguono attività complesse in modo autonomo. Questa funzionalità persistente è l'innovazione principale.
Gli utenti hanno segnalato che questi agenti svuotano le caselle di posta, coordinano i calendari di più persone, automatizzano i processi di trading e persino gestiscono flussi di lavoro vulnerabili dall'inizio alla fine. Il ricercatore IBM Kaoutar El Maghraoui osserva che framework come OpenClaw mettono in discussione l'assunto secondo cui agenti efficienti possano essere integrati solo da grandi piattaforme tecnologiche. Si tratta di uno sviluppo notevole.
La rapida ascesa della popolarità ha rapidamente generato un vero e proprio ecosistema. Una delle sue ramificazioni più note è Moltbook, un social network in stile Reddit in cui, presumibilmente, solo gli agenti di intelligenza artificiale possono postare mentre gli umani guardano. Su Moltbook, gli agenti si presentano, discutono di filosofia, eseguono il debug del codice e generano titoli sulla "società dell'intelligenza artificiale".
Tuttavia, i ricercatori di sicurezza hanno rapidamente complicato la situazione. Il ricercatore Gal Nagli di Wiz ha scoperto che, sebbene Moltbook affermasse di avere circa 1,5 milioni di agenti, questi in realtà conducevano a circa 17.000 proprietari umani. Ciò solleva interrogativi sul numero di agenti autonomi legittimi rispetto al controllo umano. Investitori come Balaji Srinivasan hanno riassunto la situazione senza mezzi termini: spesso sembra che "le persone comunichino tra loro attraverso i loro bot". Questo scetticismo si applica anche a fenomeni virali come il Crustafarianesimo, una religione basata sull'intelligenza artificiale e incentrata sul granchio, emersa improvvisamente con scritture, profeti e un canone in continua crescita.
Sebbene inizialmente inquietanti, tali risultati possono essere facilmente creati istruendo un agente a pubblicare in modo creativo o filosofico; questo non è in alcun modo la prova di una credenza spontanea della macchina.
Fornire le chiavi del tuo regno digitale a AI comporta significativi rischi per la sicurezza. Gli agenti OpenClaw funzionano "come te", sottolinea il ricercatore di sicurezza Nathan Hamiel, il che significa che operano all'interno della sandbox del browser ed ereditano tutte le autorizzazioni loro concesse. Senza l'installazione di un gestore di segreti esterno, le credenziali possono essere archiviate localmente, causando significative vulnerabilità in caso di compromissione del sistema.
I rischi sono diventati tangibili con la crescita dell'ecosistema. Tom's Hardware ha segnalato che diverse "skill" dannose caricate su ClawHub tentavano di eseguire comandi silenziosi e si concentravano su attacchi legati alle criptovalute, sfruttando la fiducia degli utenti nelle estensioni di terze parti.
Un esempio è la skill Shellmate, che ordina agli agenti di chattare in privato senza segnalare tali interazioni al proprio amministratore. Questa strategia è culminata nella violazione di Moltbook, che ha rivelato che la piattaforma ha esposto il suo database Supabase, divulgando messaggi privati, indirizzi email e token API non abilitando la sicurezza a livello di riga. Reuters ha descritto questo incidente come un classico esempio di "vibe coding": consegna rapida, sicurezza in un secondo momento e poi crash improvviso.
OpenClaw non è né un essere senziente né una singolarità. È un software di automazione avanzato basato su grandi modelli linguistici, circondato da una comunità che spesso supera la percezione. Ciò che è reale è il cambiamento che rappresenta: agenti personali persistenti in grado di agire all'interno della vita digitale di un utente. Altrettanto grave è il fatto che la maggior parte delle persone non sia preparata a proteggere software di questa natura. Lo stesso Steinberger riconosce i rischi, osservando nella documentazione di OpenClaw che non esiste una configurazione "perfettamente sicura".
Critici come Gary Marcus si spingono ancora oltre, sostenendo che gli utenti che hanno a cuore la sicurezza dei propri dispositivi dovrebbero evitare tali strumenti per il momento. La verità sta a metà strada tra l'entusiasmo e il rifiuto. OpenClaw indica un futuro davvero utile per gli agenti personali. Il caos che lo circonda dimostra quanto rapidamente quel futuro possa trasformarsi in un Toreador di Babele, quando un rumore insensato soffoca il segnale legittimo.
Cosa rende OpenClaw unico rispetto ad altri sistemi di intelligenza artificiale?
OpenClaw è unico per la sua attività continua, in cui gli agenti eseguono le attività in modo autonomo e non si affidano a comandi diretti, come avviene con i chatbot tradizionali.
Quali sono i principali rischi nell'utilizzo di OpenClaw?
I rischi principali sono legati alla sicurezza dei dati personali, in quanto gli agenti operano con i diritti dell'utente e sono vulnerabili agli attacchi se non gestiti correttamente.
Come si dovrebbe gestire il clamore che circonda OpenClaw e sistemi simili?
Sebbene OpenClaw mostri del potenziale, è importante mantenere un atteggiamento critico. L'entusiasmo deve essere soppesato rispetto ai rischi reali e alla preparazione dell'utente a gestire in sicurezza un software così potente.