AWS entra nell'era degli agenti: il keynote di Matt Garman apre una nuova fase dell'IA nel cloud
di Vittorio Manti pubblicata il 02 Dicembre 2025, alle 21:01 nel canale IA business
Dal palco del re:Invent emerge una strategia che unisce nuova infrastruttura IA, modelli avanzati, agenti autonomi e strumenti per portare l’automazione intelligente su larga scala, con l’obiettivo di abilitare miliardi di agenti capaci di operare in autonomia nei sistemi aziendali
L’apertura del re:Invent è da sempre il momento in cui AWS ridefinisce le traiettorie dell’innovazione nel cloud. Nel keynote di quest’anno, Matt Garman – alla guida di AWS dal giugno 2024 e già protagonista sul palco dell’edizione precedente – ha scelto una direzione netta: l’era dei miliardi di agenti è iniziata, e AWS vuole essere la piattaforma che permette alle aziende di costruire e mettere in produzione sistemi autonomi di agenti su scala mai vista.
L’idea chiave è che ogni organizzazione, per quanto complessa, potrà orchestrare un numero sempre più alto di agenti autonomi, capaci di apprendere, collaborare, svolgere attività operative e migliorare nel tempo. Un approccio che AWS vede già all’opera internamente in molte business unit di Amazon e che ora diventa il perno degli annunci rivolti ai clienti: dall’infrastruttura IA ai modelli, fino agli agenti pronti all’uso per sviluppo, sicurezza e operations.
L’epoca degli agenti: l’evoluzione dell’architettura AWS verso i frontier agent
AWS ha ribadito la centralità della propria architettura per la costruzione di agenti, basata su Amazon Bedrock AgentCore. È il layer che fornisce i "building block" fondamentali – runtime, memory, gateway, identity – e che permette di standardizzare una serie di funzionalità ripetitive, lasciando ai team la possibilità di concentrarsi sul disegno degli use case.

A Las Vegas, questa base si estende con due nuovi elementi chiave: policy e evaluations. Le policy consentono di definire vincoli rigorosi tramite istruzioni in linguaggio naturale, che vengono tradotte automaticamente in regole di esecuzione. L’obiettivo è mantenere gli agenti non deterministici e capaci di “ragionare”, ma entro confini chiari: per esempio, impedire a un agente di customer service di autorizzare rimborsi oltre una certa soglia senza intervento umano. Le evaluations rappresentano invece un sistema integrato di monitoraggio qualitativo: valutano in modo continuo il comportamento dell’agente, misurano la qualità delle decisioni, rilevano deviazioni significative e generano alert quando la soddisfazione degli utenti o altri indicatori iniziano a calare.
Su questa base AWS introduce uno dei pilastri centrali del keynote: i frontier agent, una nuova classe di agenti progettati per operare come estensione diretta dei team di sviluppo e di sicurezza. I frontier agent sono definiti da tre caratteristiche strutturali: autonomia, scalabilità massiva e operatività prolungata per ore o giorni senza interventi umani. Non si limitano ad assistere i team su singoli task, ma puntano a completare progetti complessi in autonomia, con guadagni di produttività che AWS stima nell’ordine del 5–10x rispetto agli agenti tradizionali.
I primi tre frontier agent coprono tre momenti chiave del ciclo di vita del software:
- Kiro Autonomous Agent, una nuova forma di developer virtuale in grado di mantenere il contesto tra sessioni, gestire modifiche multi-repository, apprendere dal codice e dai feedback, lavorare su backlog e ticket e produrre pull request complete lasciando agli sviluppatori il controllo finale su cosa viene integrato
- AWS Security Agent, un ingegnere virtuale che rivede progeti e pull request, verifica l’aderenza agli standard di sicurezza dell’azienda, esegue penetration test on-demand e restituisce direttamente il codice corretto per risolvere le vulnerabilità individuate
- AWS DevOps Agent, un agente operativo sempre attivo che effettua triage degli incidenti, individua le root cause correlando segnali da osservabilità, codice e pipeline, propone piani completi di mitigazione e suggerisce miglioramenti continui su osservabilità, infrastruttura, deployment e resilienza. Nella fase di anteprima le azioni non vengono eseguite automaticamente: l’agente costruisce il piano e lo rimette nelle mani del team, con un approccio esplicitamente “human in the loop”
Per AWS, è questa la direzione che porterà dalle attuali sperimentazioni a un mondo in cui miliardi di agenti autonomi operano in parallelo nei sistemi delle imprese.
Nova 2: la nuova generazione di modelli proprietari per reasoning e multimodalità
La piattaforma agentica di AWS si fonda sui modelli di IA, e la nuova famiglia Nova 2 rappresenta il salto di generazione per il 2025. Garman ha presentato tre componenti principali: Nova 2 Lite, Nova 2 Pro e Nova 2 Sonic.

Nova 2 Lite è un modello accessibile, ottimizzato per compiti quotidiani come analisi documentale, automazione dei workflow, comprensione di contenuti multimodali di base e attività di customer service. Nel keynote è stato posizionato come modello per carichi di lavoro “everyday”, con benchmark interni che lo posizionano in linea con o sopra a modelli come GPT-5 Mini, Quad 4.5 Iku e Gemini Flash 2.5.
Nova 2 Pro è il modello dedicato al reasoning avanzato, pensato per compiti ad alta complessità come analisi multi-documento, reasoning su contenuti video, migrazioni applicative, generazione di codice e automazione di processi estesi. È qui che AWS rivendica il confronto diretto con i modelli più potenti disponibili sul mercato, citando nei confronti interni Anthropic, OpenAI e Google.
Nova 2 Sonic amplia la dimensione conversazionale: è un modello speech-to-speech capace di sostenere dialoghi naturali in tempo reale, con voci più espressive, supporto multilingua, maggiore accuratezza e la possibilità di passare in modo fluido da voce a testo. È progettato per scenari di customer service avanzato e si integra nativamente con Amazon Connect e con i principali framework conversazionali.
Accanto a questi modelli AWS ha annunciato il suo primo modello Omni, un modello multimodale unificato che accetta testo, immagini, video e voce come input e può generare testo e immagini come output. L’obiettivo è semplificare i workflow in cui servono molti asset diversi – campagne marketing, contenuti digitali, materiali per i social – riducendo la necessità di orchestrare più modelli specializzati.
Bedrock, modelli open-weight e NovaForge per i frontier model personalizzati
Alla crescita degli agenti e dei modelli proprietari si aggiunge l’espansione di Amazon Bedrock, che supera i 100.000 clienti attivi e introduce 18 nuovi modelli open-weight, tra cui Gemma 3, MiniMax M2, NVIDIA Nemotron e OpenAI GPT-OSS Safeguard. Bedrock consolida così il suo ruolo di piattaforma di riferimento per scegliere, testare e sostituire modelli senza modifiche al codice applicativo.

AWS introduce inoltre NovaForge, un nuovo servizio che consente alle aziende di creare un proprio frontier model personalizzato partendo dai checkpoint dei modelli Nova e unendo dataset proprietari con dataset curati da AWS. L’obiettivo è dare alle organizzazioni la possibilità di ottenere modelli che incorporano tassonomie, processi e linguaggi specifici dell’azienda senza dover intraprendere un addestramento da zero, troppo costoso e lungo per la maggior parte dei casi. I modelli così ottenuti possono essere distribuiti direttamente su Bedrock, con le stesse garanzie di sicurezza, controllo e governance dei modelli gestiti.
L’IA agentica entra nella modernizzazione applicativa
Oltre agli annunci sull’architettura agentica e sui modelli, il keynote ha toccato la modernizzazione applicativa. AWS Transform, già utilizzato da grandi organizzazioni per ridurre il debito tecnico e migrare sistemi Windows, .NET, VMware e mainframe su AWS, introduce nuove capacità agentiche che estendono l’approccio a praticamente qualsiasi linguaggio, framework o runtime, inclusi quelli proprietari. Maggiori dettagli sulle novità di AWS Transform potete trovarli qui.
AWS racconta un cambiamento di scala: dai percorsi pre-definiti per piattaforme specifiche a un modello in cui un agente è in grado di analizzare interi stack applicativi, proporre un piano di modernizzazione coordinato e trasformare codice, database, interfacce e layer di deployment con accelerazioni che arrivano fino a 5x rispetto agli approcci tradizionali. L’obiettivo dichiarato è spostare una quota significativa di risorse dal mantenimento del legacy all’innovazione in ambito IA.
Matt Garman ha voluto dare un messaggio chiaro: l’IA non è più un livello opzionale sopra il cloud, ma il nuovo motore del cloud stesso. L’obiettivo di AWS è permettere alle aziende di costruire sistemi basati su agenti autonomi, integrati con i dati, capaci di prendere decisioni e ottimizzare processi, sostenuti da una piattaforma che combina infrastruttura, modelli, sicurezza e strumenti di controllo.
Il re:Invent 2025 sancisce ufficialmente l’ingresso nel paradigma agentico. E AWS ha presentato una roadmap che mette lo stack completo – dall’hardware fino ai frontier agent – nelle mani delle imprese che vogliono costruire la prossima generazione di sistemi intelligenti.











Fondazione Chips-IT, l'Italia alla riscossa nei chip. Il piano e la partnership EssilorLuxottica
Nutanix: innovazione, semplicità e IA al centro della strategia hybrid multicloud
Lenovo LOQ 15i Gen 10 (15IRX10) alla prova: il notebook gaming 'budget' che non ti aspetti
La Geely EX5 ora può muoversi in qualsiasi direzione con sterzo a 90 gradi su tutte le ruote
Star Wars: Fate of the Old Republic, il ritorno alla Vecchia Repubblica, il nuovo GDR annunciato ai TGA 2025
Opera Neon disponibile a tutti: ecco il browser dove l'AI fa il lavoro al posto tuo








0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".