Google Cloud Next 2025: tutto ruota intorno all'IA. Le novità principali
di Riccardo Robecchi pubblicata il 09 Aprile 2025, alle 15:11 nel canale Innovazione
Google ha dato il via a Cloud Next 2025, la sua conferenza annuale in cui ha annunciato le ultime novità: al centro l'intelligenza artificiale, tanto per gli sviluppatori quanto per gli utenti
Google Cloud ha annunciato diverse novità a Next 2025, la sua conferenza annuale, a partire da quelle legate all'intelligenza artificiale, tema che gli hyperscaler stanno cavalcando. Google Cloud ha presentato novità nell'ambito degli agenti d'IA, dell'hardware impiegato per eseguirli e di Workspace, la sua suite di applicazioni per la produttività.
Google Ironwood: gli acceleratori per l'IA mettono il turbo
Per la settima generazione di TPU (tensor processing unit) prodotta da Google, l'azienda ha scelto di optare per un nome al posto della classica nomenclatura "TPU v7": il nuovo chip si chiama Ironwood ed è pensato specificamente per effettuare i calcoli necessari all'inferenza tramite IA. Si tratta dell'ultimo tassello dell'architettura Google Cloud AI Hpercomputer che l'azienda mette a disposizione dei propri clienti per sfruttare l'IA sulla sua infrastruttura.
I chip sono pensati per essere installati in gruppi che arrivano a contarne 256 o 9.216, per un totale di 42,5 exaFLOPS in questo secondo caso: si tratta di circa 24 volte la capacità di calcolo del più potente supercomputer al mondo, El Capitan, che arriva a 1,7 exaFLOPS. Ciò è reso possibile dal fatto che ciascun chip è in grado di offrire una potenza di calcolo di 4,614 TFLOPS, grazie anche all'uso di 192 GB di memoria HBM da 7,4 TB/s per ciascun chip e di una connessione ICI (Inter-Chip Interconnect) che arriva a 1,2 TB/s.
Per fare un paragone, TPU v5p arrivava a 459 TFLOPS per chip, mentre Trillium (TPU V6e) arrivava a 918 TFLOPS. Si tratta dunque di un incremento di circa cinque volte rispetto alla precedente generazione. A livello di efficienza energetica, i nuovi chip arrivano al doppio della generazione precedente (29,3 TFLOPS/W contro 14,6 TFLOPS/W) e a circa 30 volte la prima generazione lanciata nel 2018.
Google ha altresì annunciato la disponibilità di Pathways, un runtime per applicazioni di machine learning creato da Google DeepMind, che consente di distribuire efficientemente il carico di lavoro tra più TPU. Si tratta dello stesso framework impiegato internamente da Google per l'addestramento e l'inferenza dei suoi modelli.
A2A: il protocollo per gli agenti d'IA
A2A non è (solo) il nome di un operatore nel settore energetico, ma un acronimo che sta per "Agent to Agent", un nuovo protocollo aperto pensato per facilitare la comunicazione tra agenti disponibili su diversi servizi e piattaforme. Google, che l'ha sviluppato assieme a moltissimi partner, l'ha presentato a Next 2025 come fondazione su cui sarà possibile costruire interazioni complesse tra applicazioni e servizi in cloud, indipendentemente da dove siano ospitati.
Come conseguenza di ciò, gli sviluppatori potranno costruire agenti che operano su più piattaforme e potranno poi pubblicarli nel nuovo AI Agent Marketplace, dove i clienti potranno poi acquistarli e gestirli. Grazie alla collaborazione con aziende come NetApp, Oracle, SAP, Salesforce e ServiceNow, le aziende potranno sfruttare i propri dati per addestrare e personalizzare gli agenti.
Gemini oltre il cloud e le novità di Workspace
Se Maometto non va alla montagna, la montagna va a Maometto: similmente, le aziende che non possono sfruttare Gemini per via ad esempio di limitazioni normative possono ora impiegare i modelli Gemini su Google Distributed Cloud, ovvero gli ambienti Google Cloud installati direttamente nell'infrastruttura delle aziende clienti.
In tali situazioni, le aziende possono aggiungere il proprio contesto di business usando tecniche di RAG (retrieval-augmented generation), nonché sfruttare Gemini per compiti come il riassunto di documenti, la trascrizione di audio e video, e la descrizione d'immagini. Sarà inoltre possibile creare chatbot con cui clienti e dipendenti potranno interagire, così come creare agenti specializzati per i casi d'uso aziendali.
Rimanendo invece all'interno della "nuvola", Google ha annunciato la disponibilità di Gemini 2.5 Pro in anteprima su Vertex AI, per costruire applicazioni che sfruttino tale modello. Ma la novità forse più interessante è Gemini 2.5 Flash, che offre maggiore velocità, minore latenza e una migliore efficienza nei costi rispetto al modello Pro, mantenendo un elevato livello nelle risposte, che includono la possibilità di ragionamento.
Sul fronte di Workspace, Google ha presentato Workspace Flows, un set di agenti d'IA che possono essere realizzati usando Gemini per svolgere compiti specifici: ad esempio, l'azienda cita la possibilità di verificare che il materiale di marketing abbia il giusto tono. Per creare uno di questi agenti sarà sufficiente descrivere la funzionalità da implementare senza la necessità di scrivere alcun codice.
Grazie al modello Veo 2, sarà ora possibile realizzare video originali in Google Vids, una nuova applicazione che si aggiungerà alla suite. L'applicazione consentirà di generare video, musica e testi, con la possibilità di intervenire direttamente sui contenuti generati (ad esempio, per rimuovere elementi non desiderati da un video) e di montare il tutto in un unico video esportabile.
Da ultimo, Gemini potrà essere impiegato durante le riunioni con Meet per prendere note e fornire riassunti (ad esempio, nel caso in cui si arrivi in ritardo a una riunione) e chiarimenti.
Google Cloud WAN, la WAN secondo Google
Le grandi aziende spesso impiegano un'infrastruttura mista, in parte on premise e in parte nel cloud pubblico, che di frequente coinvolge più operatori. Google Cloud WAN offre una soluzione per entrambe queste situazioni: da un lato c'è Cloud Interconnect, che fornisce una connessione dedicata e privata a bassa latenza tra Google Cloud e i data center delle aziende; dall'altro c'è Cross-Cloud Interconnect, che consente di collegare Google Cloud e altri hyperscaler come AWS, Azure e OCI. Il primo sarà disponibile in 159 località nel mondo, mentre il secondo è attualmente previsto per sole 21.
La connessione offre uno SLA del 99,95% e una banda da 10 o 100 gigabit al secondo, grazie al fatto che sfrutta l'infrastruttura di rete di proprietà di Google.
Secondo Google, usare Cloud WAN abbatte i costi del 40% rispetto a una soluzione WAN gestita dai clienti e riduce significativamente i costi iniziali di messa in opera.
0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".