L'intelligenza artificiale per ridurre i consumi energetici nei data center: il progetto di Aruba e Università di Pisa

L'intelligenza artificiale per ridurre i consumi energetici nei data center: il progetto di Aruba e Università di Pisa

Una collaborazione tra Aruba e Università di Pisa punta a sviluppare modelli di intelligenza artificiale per predire l'uso dei server e poter così ridurre i consumi di energia: ne abbiamo parlato con Daniele Migliorini di Aruba

di pubblicata il , alle 14:31 nel canale Innovazione
Arubaintelligenza artificialeSostenibilità
 

Le potenzialità dell'intelligenza artificiale sono enormi, in particolare perché questo strumento può essere impiegato negli ambiti più vari. Una collaborazione tra l'Università di Pisa e Aruba punta a esplorare la possibilità di usare l'IA per gestire al meglio i consumi energetici nei data center, effettuando predizioni sul carico per ridurre al minimo il numero di server attivi e abbattere così la richiesta di energia. Ne abbiamo parlato con Daniele Migliorini, Head of Engineering in Aruba.

L'IA per risparmiare energia: il progetto di Aruba e Università di Pisa

Come ci spiega Migliorini, Aruba ha avviato con l'Università di Pisa "una collaborazione di due anni per varie attività di ricerca: questo è il primo progetto che abbiamo deciso di portare avanti su specifiche nostre e sulle competenze che l'Università poteva mettere sul campo per supportarci." L'intento è quello di sviluppare un progetto per predire l'utilizzo delle risorse, intese come uso dell'hardware, messe a disposizione da Aruba tramite i suoi servizi di cloud computing, con il fine di minimizzare i consumi energetici.

"Il progetto parte da un presupposto: siamo un cloud service provider e l'andamento delle necessità di risorse è variegato; se si fa una foto dell'utilizzo di queste risorse, vediamo degli andamenti, delle oscillazioni costanti e continui che possono essere legati all'esigenza specifica del cliente o all'orario. Per fare un esempio, la notte è normale che l'utilizzo delle risorse sia inferiore, dato che molti clienti sono italiani. Ma si può anche vedere che quello specifico cliente ha un utilizzo abbastanza costante e simile negli stessi orari e giorni, quindi si potrebbe ottimizzare non solo il servizio che il cliente riceve a livello di prestazioni, ma anche i consumi."

Le macchine virtuali non sono sempre accese, né i container e gli altri servizi cloud native sono usati costantemente. Ciò fa sì che si creino dei "buchi" in cui l'hardware non viene usato completamente, ma consuma comunque energia. È dunque possibile migrare macchine virtuali e altri servizi da un server all'altro, così da poter spegnere quelli che non sono più necessari e abbattere i consumi energetici.

È ovviamente possibile lasciare tutti i server sempre accesi e a disposizione dei clienti, ma ciò ha un costo, in particolare negli ultimi anni con i rincari significativi dell'energia cui abbiamo tutti dovuto far fronte - imprese energivore come Aruba incluse. "È facile mettere tante risorse sul piatto anche quando non vengono usate: il cliente è contento perché le ha sempre a disposizione. Però tali risorse consumano corrente, che ha un costo che poi in qualche modo va fatto pagare al cliente", ci dice Migliorini. "Questo crea quindi un punto di partenza: perché non cercare un modo per far sì che il cliente abbia sempre prestazioni elevate, ma dall'altro lato si possa ottimizzare quanto più possibile il consumo di energia?"

Da quest'idea è partito il progetto con l'Università di Pisa. L'intento era quello di costruire un modello di intelligenza artificiale che facesse due cose: "un modello che mi permetta di 'predire il futuro', di dire 'quel cliente fra due ore ti chiederà determinate risorse perché la storia, la correlazione tra i vari eventi che stanno succedendo dice questo'", e che "vada a incastrare e gestire le risorse di tutti i clienti per far sì che, quando chiedono le risorse, queste ci siano considerando i vari vincoli di esecuzione." In altri termini, "se io so che per le prossime tre ore il server non mi serve, perché l'algoritmo di predizione dice così, perché tenerlo acceso? Lo spengo, risparmio corrente e so che dopo tre ore mi arriverà un altro carico, quindi lo riaccendo e lo rendo di nuovo disponibile."

Oltre ai "semplici" parametri come CPU, RAM e disco, ci sono da tenere in conto anche altre variabili come le licenze, nonché il fatto che lo spostamento delle macchine virtuali tra i vari nodi ha un costo non indifferente in termini di consumo di risorse e di tempo, motivo per cui il lavoro che questo algoritmo deve eseguire è più complesso di quanto possa apparire a un primo sguardo. Ciò significa che l'algoritmo "avrà una serie di pesi con cui viene alterato, per evitare di turbare il sistema con continui spostamenti tra i vari cluster e porti danni anziché vantaggi."

Un delicato equilibrio, nella ricerca come nei data center

Ma quanto è importante, in un progetto come questo, la collaborazione con le università come quella di Pisa? "Per società come Aruba è importantissima", ci dice Migliorini. "Perché permette di sfruttare importanti competenze verticali che ovviamente l'università ha, e per società come Aruba non ha senso investire su una competenza verticale così specifica che viene usata magari una o due volte. Il vantaggio dunque è che le università possono mettere in gioco competenze specifiche nel mondo della ricerca: il beneficio è che i risultati vengono pubblicati (per quanto i dettagli specifici rimangano dell'azienda) ed è possibile far crescere il gruppo di ricerca in termini di qualità e di risonanza nel mondo della ricerca. Oltre all'Università di Pisa, abbiamo collaborazioni anche con il Politecnico di Torino per il riconoscimento del volto del cliente per quei casi in cui serve un'autenticazione forte (ad esempio lo SPID)."

"Da ultimo, abbiamo chiesto a Migliorini quanto conti avere hardware di ultima generazione per Aruba. "Il mio team si occupa proprio di fare queste valutazioni, tra le altre cose: per quello che vediamo, tra una generazione e l'altra la differenza sui consumi è veramente limitata. Quando acquistiamo hardware, lo acquistiamo di ultima generazione perché il prezzo rimane simile, ma si ottengono più core, più frequenza e più RAM; bisogna però trovare il miglior bilanciamento perché i processori più potenti hanno un costo per ciascun core più elevato, e quel costo poi si riflette sul cliente."

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^