I limiti di utilizzo di Claude sono troppo stringenti? Ecco perché i token sembrano non bastare mai
di Alberto Falchi pubblicata il 01 Aprile 2026, alle 12:45 nel canale IA business
Dai vincoli nei piani Pro e Max ai possibili bug nella gestione della cache che moltiplicano i consumi, fino alla scarsa trasparenza sull’uso dei token e al peso dei costi di calcolo: il caso Claude riaccende il tema del modello di business dell’IA
Col tempo Claude è migliorato in maniera impressionante, tanto che l'IA di Antrhopic è oggi considerata una delle migliori sul mercato. Per la programmazione, soprattutto, dato che Claude Codex è probabilmente il punto di riferimento per la scrittura di codice. Ma anche sotto altri aspetti, in particolare le funzionalità di Claude Cowork, un assistente potentissimo che ora è entrato anche all'interno dell'ecosistema di Microsoft Copilot, affiancandosi ai modelli di OpenAI, che comunque rimangono quelli predefiniti nel mondo Microsoft.
C'è però un problema che lamentano numerosi utenti: i limiti di utilizzo. Sia nel piano Pro, sia in quello Max, il più costoso, che richiede un abbonamento da 90 euro mensili. L'azienda sta correndo ai ripari, ma sempre più utenti sono infastiditi.
Bug o scelta di business? Perché i token di Claude sembrano non bastare mai?

I limiti di utilizzo sono una costante nei sistemi di intelligenza artificiale. Nella maggior parte dei casi, ci vuole davvero poco ad arrivare ai limiti di utilizzo dei piani gratuiti, fatto che obbliga ad attendere alcune ore prima di poter porre nuove domande all'IA. Il problema è quanto questo accade anche agli utenti paganti, e sotto questo profilo Claude è l'IA che raggiunge più facilmente il numero di token previsti dal piano.
Un problema che riconosce Anthropic stessa. "Siamo consapevoli che molte persone stanno raggiungendo i limiti di utilizzo in Claude Code molto più rapidamente del previsto. Stiamo analizzando attivamente il problema e condivideremo ulteriori informazioni non appena avremo un aggiornamento", affermava il 31 marzo un portavoce dell'azienda su Reddit, aggiungendo poche ore dopo che "è la principale priorità per il team e sappiamo che questo sta bloccando molti di voi. Condivideremo maggiori informazioni non appena ne avremo".
Alcuni sviluppatori riportano di arrivare già al limite in poche ore, riporta The Register, riferendosi al piano Max, quello più costoso.
Il problema non è nato oggi e, almeno in alcuni casi, può essere causato da un bug che impedisce al sistema di accedere alla cache, consumando di conseguenza molti più token di quelli necessari, fino a 10 o 20 volte in più. Ma anche risolvendo questo bug, la situazione difficilmente cambierebbe in maniera drastica, dal momento che la sensazione è che l'azienda abbia scelto un approccio piuttosto conservativo per l'accesso da parte degli utenti alle risorse di calcolo.

Certo, si potrebbe passare alla modalità a consumo, tramite l'API, pagando quindi per i token usati ed evitando ogni limitazione sull'utilizzo, ma i costi in questo caso tendono a crescere rapidamente, come ben sanno gli appassionati che stanno sperimentando con OpenClaw e che in certi casi rischiano di vedere "bollette" carissime per l'IA.
Anthropic ha anche cercato di venire incontro ai suoi utenti, raddoppiando i numero di token disponibili al di fuori delle ore di picco (quelle lavorative), ma la situazione non è migliorata come si sperava.
Serve maggiore trasparenza sul consumo di token
Uno dei fattori critici è che Claude non indica esplicitamente quanti token sono a disposizione dei vari piani di abbonamento, rimanendo molto generica. Una maggiore trasparenza sicuramente potrebbe aiutare gli utenti a capire quali prompt e quali automazioni consumano maggiori risorse. Ma, a nostro avviso, potrebbe non essere sufficiente, e al massimo spingerebbe gli utenti a ridurre l'uso di questa IA, limitandola ai casi più utili ai fini della produttività. Che è l'opposto di quello che ci si aspetta da applicazioni come Claude Cowork, a tutti gli effetti un assistente che ci segue durante la realizzazione di documenti e processi complessi.

La soluzione più ovvia sarebbe quella di aumentare il numero di token a disposizione degli utenti, ma comprensibilmente le aziende devono anche trovare un equilibrio per ritagliarsi dei margini di guadagno. L'IA costa, tantissimo, e a oggi nessuna azienda ha trovato un modello di business efficace per guadagnare dagli LLM.
Anthropic, nello specifico, ha perso 6 miliardi di dollari nel 2024, 4 miliardi nel 2025 e non prevede di avere bilanci in attivo prima del 2028. OpenAI non è messa molto meglio, e prevede una perdita di 14 miliardi di dollari nel 2026.
Va sottolineato che la maggior parte degli incassi derivano dalle chiamate API, non dagli abbonamenti, e questo permette anche di capire come mai in certi casi sia piuttosto facile raggiungere i limiti di utilizzo dell'IA.
Cosa aspettarsi per il futuro?
L'IA è una tecnologia dirompente, che ha letteralmente stravolto il concetto di produttività personale. Lo sottolineano le statistiche che abbiamo più volte riportato su Edge9, che suggeriscano un'adozione enorme da parte dei singoli, anche in contesti aziendali. Dove ancora non riesce a esprimere il suo potenziale è nel trasformare i processi lavorativi. Al di là delle stime sull'incremento di produttività derivante dalla sua adozione, come abbiamo affermato più volte, solo poche aziende sono in grado di cogliere questi vantaggi, e la stragrande maggioranza (più dell'90%) ha investito in progetti pilota che poi non si sono mai trasformati in innovazioni da trasferire a tutta l'azienda.
I motivi sono tanti, a partire dai dati, spesso sparsi in silos informativi: per far funzionare bene l'IA è necessario alimentarla con i dati aziendali. Ma prima, bisogna capire dove sono, come sono organizzati, abbattere i silos. Solo poche aziende hanno questa maturità digitale, e sono le uniche a trarre i maggiori vantaggi dall'IA. Un secondo problema è relativo alla resistenza al cambiamento: non tutti sposano volentieri questa tecnologia. Ce lo ha confermato di recente Denis Cassinerio, Senior Director & General Manager South EMEA di Acronis, che durante un'intervista in occasione del Security Summit ha sottolineato che in certi casi è necessario "spingere" attivamente i dipendenti all'uso dell'IA. In particolare gli sviluppatori con più anni di esperienza che, forse per motivi anagrafici, sono quelli che mostrano maggiore resistenza al cambiamento.
E lo vediamo anche noi nel nostro piccolo. Chi scrive si occupa anche di formazione alle aziende proprio su temi legati al digitale e all'intelligenza artificiale, e il gap fra chi è entusiasta e accoglie con favore la tecnologia e chi, invece, é indifferente è enorme. Anzi: in certi casi, è evidente un certo scetticismo, anche dovuto a una certa narrazione da parte dei media (e anche da parte dei protagonisti del settore, fra cui Anthropic). Come si può spingere una persona a usare una tecnologia che, secondo i meno ottimisti, sostituirà la maggior parte delle funzioni lavorative da colletto bianco? Se già il change management è un problema di per sé, con l'IA la situazione risulta ancora più complessa, perché risulta difficile convincere le persone ad addestrare uno strumento che poi andrà a sostituirle.

Tornando al problema iniziale di Claude, se qualcuno è infastidito dai limiti di utilizzo ha sempre altre alternative fra cui scegliere. Magari tornando a OpenAI e tappandosi il naso per l'accordo dell'azienda di Altman con il Pentagono, che ha sollevato numerose critiche e anche spinto in tanti a passare proprio a Claude. Se però i colossi del settore non riescono a trovare rapidamente un modo per monetizzare i mostruosi investimenti in R&S, addestramento dell'IA, inferenza e costruzione di nuovi data center, gli scenari saranno due: limiti sempre più severi al numero di prompt o costi per token che crescono a dismisura, in particolare sui modelli più evoluti.











DJI Osmo Pocket 4: la gimbal camera tascabile cresce e ha nuovi controlli fisici
Sony INZONE H6 Air: il primo headset open-back di Sony per giocatori
Nutanix cambia pelle: dall’iperconvergenza alla piattaforma full stack per cloud ibrido e IA
La NASA ha confermato il supporto per il rover marziano ESA Rosalind Franklin fornendo componenti essenziali
Sierra Space ha completato il test acustico dello spazioplano Dream Chaser Tenacity
Ryzen 7 5800X3D pronto a tornare sul mercato? AMD potrebbe usarlo come arma vincente contro la crisi








10 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoIn questo caso, non c'entra nulla con il "caso della difesa USA".
E' da mesi che si sà che c'è questo problema, come anche in Antigravity è pieno zeppo di utenti (me compreso) che hanno problemi con Gemini e Cloude. Gemini manco risponde (il pro, sia low che high), Cloude sia Opus che Sonnet sono inutilizzabili in quanto hai pochi token e si "incasina" più spesso di gemini, con il problema che devi ricominciare spesso una nuova sessione e obbiettivamente Cloude oggi, non è il massimo per il coding. MOLTO meglio Gemini Pro (ripeto, oggi, fino a qualche settimana fa' era il contrario.)
E' da mesi che si sà che c'è questo problema, come anche in Antigravity è pieno zeppo di utenti (me compreso) che hanno problemi con Gemini e Cloude. Gemini manco risponde (il pro, sia low che high), Cloude sia Opus che Sonnet sono inutilizzabili in quanto hai pochi token e si "incasina" più spesso di gemini, con il problema che devi ricominciare spesso una nuova sessione e obbiettivamente Cloude oggi, non è il massimo per il coding. MOLTO meglio Gemini Pro (ripeto, oggi, fino a qualche settimana fa' era il contrario.)
Hai questi problemi con Claude?
Io lo uso spesso e proprio in questi ultimi giorni l'ho usato tutti i giorni e non ho mai avuto problemi.
Si una volta in una mattinata ho raggiunto il limite di sessione tempo fa ma poi basta.
Lo uso si come Code da estensione di VSC che la versione Code da app Claude.
Non ho mai avuto bisogno di ricominciare un sessione, ma in che senso ti si incasina?
Ho come l'impressione che gli investitori di tutte queste piattaforme AI stiano cercando di vincere una gara di resistenza...
E' ovvio a tutti che sono costi insostenibili, e che la bolla scoppiera' prima o poi, ma cercando tutti di dare comunque quanti piu' soldi possibili alle aziende su cui hanno puntato per cercare di farle arrivare, anche se con enormi perdite, in salute dal punto di vista delle funzionalita', in maniera tale che farle diventare fra le poche sopravvissute della crisi che ci sara' e con tutte le aziende che chiuderanno, per poi trovarsi in regime di oligopolio e fare quello che pare...
E a quel punto falliranno lo stesso perche' proporranno prezzi inarrivabili... Cioe', questi pensano di andare in attivo nel 2028, ma poi bisogna capire quanti soldi e tempo ci vorranno per rientrare negli investimenti, che sono centinaia e centinaia di milirdi, con i costi operativi che aumentano di anno in anno (devono ampliare i data center, comprare nuove schede per sostituire le vecchie e via dicendo)...
E' ovvio a tutti che sono costi insostenibili, e che la bolla scoppiera' prima o poi, ma cercando tutti di dare comunque quanti piu' soldi possibili alle aziende su cui hanno puntato per cercare di farle arrivare, anche se con enormi perdite, in salute dal punto di vista delle funzionalita', in maniera tale che farle diventare fra le poche sopravvissute della crisi che ci sara' e con tutte le aziende che chiuderanno, per poi trovarsi in regime di oligopolio e fare quello che pare...
E a quel punto falliranno lo stesso perche' proporranno prezzi inarrivabili... Cioe', questi pensano di andare in attivo nel 2028, ma poi bisogna capire quanti soldi e tempo ci vorranno per rientrare negli investimenti, che sono centinaia e centinaia di milirdi, con i costi operativi che aumentano di anno in anno (devono ampliare i data center, comprare nuove schede per sostituire le vecchie e via dicendo)...
Io credo sia un trend abbastanza comune per aziende in un mercato in rapida espansione.
Amazon ha iniziato a generare profitti dopo 7 anni, non perché nei primi anni andava male ma perché veniva tutto investito nella crescita.
Con l'AI è ancora peggio, più si investe più si cresce, più si cresce più migliora l'AI.
Certo non tutti ce la fanno e non tutti diventano il colosso che è oggi Amazon, molti falliscono per strada e anche per questo aspetto con l'AI probabilmente è peggio.
Una corsa alla crescita, all'offrire la miglior AI con la migliore infrastruttura... molti bruceranno nella corsa probabilmente.
Sicuramente non Google che ha le spalle larghe, Athropic è una delle AI messa meglio ma è più fragile come società, OpenAI forse è messa peggio ma ha pezzi grossi che ci hanno investito quindi al massimo la compra qualcuno.
Amazon ha iniziato a generare profitti dopo 7 anni, non perché nei primi anni andava male ma perché veniva tutto investito nella crescita.
Con l'AI è ancora peggio, più si investe più si cresce, più si cresce più migliora l'AI.
Certo non tutti ce la fanno e non tutti diventano il colosso che è oggi Amazon, molti falliscono per strada e anche per questo aspetto con l'AI probabilmente è peggio.
Una corsa alla crescita, all'offrire la miglior AI con la migliore infrastruttura... molti bruceranno nella corsa probabilmente.
Sicuramente non Google che ha le spalle larghe, Athropic è una delle AI messa meglio ma è più fragile come società, OpenAI forse è messa peggio ma ha pezzi grossi che ci hanno investito quindi al massimo la compra qualcuno.
E' vero ma con una grossa differenza. Amazon guadagnava un botto di soldi, e li reinvestiva nello sviluppo interno, non e' che dipendeva da capitali esterni. Qua invece se non ci fossero sempre foraggiamenti esterni non camperebbero manco un mese..
Il vero problema delle aziende non è se l AI ti rende veloce a programmare, ma come velocizzare tutto il resto (meetings, sapere su che lavorare, requisiti, politica interna) che rischia di fare da bottleneck e tagliare i benefici percepiti.
Il vero problema delle aziende non è se l AI ti rende veloce a programmare, ma come velocizzare tutto il resto (meetings, sapere su che lavorare, requisiti, politica interna) che rischia di fare da bottleneck e tagliare i benefici percepiti.
Alura, secondo il mio personale e quindi inutile parere, dipende molto da che linguaggio di programmazione utilizzi.. Io utilizzo Visual Studio con Copilot per programmare in C++, e con questo linguaggio di programmazione e' sicuramente un aiuto, ma non riesce assolutamente a fare grossi task al posto tuo. Se ci provi ti da codice errato, e che devi sempre rivedere a mano, cosa che bisogna sempre fare comunque. E' sempre meglio rivedere un codice che "quasi" funziona che rifarlo da zero. E comunque lo utilizzo per scopi di "bassa manovalanza", tipo "crea questo widget con questi campi" oppure "crea gli unit test per questa classe". Nel primo caso funziona quasi sempre al primo colpo, nel secondo gia' e' meno efficiente a scrivere codice che funziona al primo colpo, ma comunque perdo molto meno tempo ad aggiustare il codice che a scrivere il test da zero.
Se invece si tratta di creare codice piu' ad alto livello, tipo "crea una strategia per parallelizzare questi task tenendo conto del timing soft-real time etc" gia' vacilla di piu'. In questi casi mi viene meglio non modificare direttamente il codice, ma creare un esempio generico, ad esempio utilizzando copilot su browser, per poi studiare il risultato ed adattarlo ai miei progetti.
La mia sensazione e' che l'IA sia molto piu' adatta per i linguaggi piu' moderni, sia perche' c'e' piu' codebase da cui attingere per il training, sia perche' hanno un sistema di gestione del progetto (tipo cargo per rust) piu' semplice, per cui viene piu' facile per un motore ia eventualmente parsare il progetto, trovare interdipendenze etc.
Ma ripeto, e' la mia sensazione.
Io lo uso spesso e proprio in questi ultimi giorni l'ho usato tutti i giorni e non ho mai avuto problemi.
Si una volta in una mattinata ho raggiunto il limite di sessione tempo fa ma poi basta.
Lo uso si come Code da estensione di VSC che la versione Code da app Claude.
Non ho mai avuto bisogno di ricominciare un sessione, ma in che senso ti si incasina?
Sì esatto, io lo uso con antigravity o con Visual Studio (non code) con Copilot.
Ma giusto per darti un'idea:
Claude Free Tier Limits
Messages: ~40 short messages per day
Reset cycle: Daily (resets at midnight UTC)
Context window: 200k tokens
Claude Pro Limits ($20/month)
Messages: 45 messages every 5 hours (~216 short messages per day)
Reset cycle: Every 5 hours (fixed schedule)
Context window: 200k tokens
Gemini Free Tier Limits
Messages: Flexible daily quota (no strict public limit)
Reset cycle: Daily
Model access: Gemini 3.1 Pro (limited), then 3 Flash
Gemini Advanced Limits ($19.99/month)
Messages: Extensive usage allowed (no fixed cap published)
Reset cycle: Daily
Model access: Full Gemini 3.1 Pro access
https://aionx.co/ai-comparisons/ai-...imits-compared/
[CODE]Model Max Input Max Output
Gemini 3.1 Pro 1,000,000 tokens 64,000 tokens
Claude Opus 4.6 200,000 tokens ~32,000 tokens
GPT-5.2 ~200,000 tokens ~32,000 tokens[/CODE]
https://www.nxcode.io/resources/new...comparison-2026
[CODE]Model Max Input Max Output
Gemini 3.1 Pro 1,000,000 tokens 64,000 tokens
Claude Opus 4.6 200,000 tokens ~32,000 tokens
GPT-5.2 ~200,000 tokens ~32,000 tokens[/CODE]
https://www.nxcode.io/resources/new...comparison-2026
sonnet è ancora più tirchio? sto realizzando una applicazione "gestione studio tecnico" da zero e arrivato alla struttura di base + un paio di "schede plugin", il contesto generale è diventato ingestibile. sono una pippa nel coding e pure nella gestione risorse ia, ma fare una singola domanda e ritrovarsi con il messaggio di aver terminato i token e tornare dopo ore non è simpatico.
dopo aver saltato per una settimana da 5 diverse ia per capire come funziona mi sono arreso
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".