HPE avvia il progetto AI Ops per migliorare efficienza e sostenibilità dei data center
di Pasquale Fusco pubblicata il 21 Dicembre 2019, alle 09:01 nel canale InnovazioneHPE inaugura una collaborazione pluriennale con il National Renewable Energy Laboratory del Dipartimento statunitense di Energia con l’obiettivo di ottimizzare alimentazione, raffreddamento e operazioni IT all’interno di data center più intelligenti, quelli dell’era exascale.
Hewlett Packard Enterprise (HPE) annuncia la sua partecipazione a un progetto di ricerca e sviluppo basato su AI Ops, al fianco del National Renewable Energy Laboratory (NREL) del Dipartimento di Energia statunitense, leader mondiale nell’ambito delle tecnologie per l’efficienza energetica e le energie rinnovabili.
L’obiettivo dell’iniziativa coincide con lo sviluppo di tecnologie di Intelligenza Artificiale e Machine Learning destinate all’automazione e al perfezionamento dell’efficienza operativa nei data center per l’era dell’exascale. Il progetto rientra nella mission di NREL, finalizzata alla creazione e implementazione di nuovi e innovativi approcci alla riduzione dei consumi di energia e all’abbattimento dei costi operativi.
HPE e NREL, insieme per il progetto AI Ops
Negli Stati Uniti, i consumi di acqua ed energia all’interno dei data center raggiungeranno rispettivamente i 73 miliardi di kWh e 660 miliardi di litri d’acqua entro il 2020. Come monitorare i consumi energetici al fine di ottimizzare l’efficienza e la sostenibilità? Con l’impiego dell’analytics predittiva, una soluzione promettente, come dimostrano i primi risultati ottenuti dai test effettuati nei data center NREL.
In oltre cinque anni, HPE e NREL hanno raccolto più di 16 terabyte di dati dai sensori integrati nei supercomputer Peregrine ed Eagle - che comprendono 1,6 miliardi di datapoint - per istruire i modelli di rilevamento delle anomalie al fine di prevedere, e prevenire, i problemi prima che si verifichino.
Il progetto AI Ops nasce dal lavoro di ricerca e sviluppo di HPE nell’ambito di PathForward, programma sostenuto dal Dipartimento statunitense dell’Energia per accelerare la roadmap tecnologica nazionale e guidarla verso il prossimo grande balzo nel campo dei supercomputer: l’exascale computing. Le capacità di automazione e l’AI si sono rivelate fondamentali per poter gestire e ottimizzare gli ambienti data center exascale: le operazioni basate sull’Intelligenza Artificiale, applicate a un supercomputer exascale, risulteranno più efficienti dal punto di vista energetico e saranno in grado di migliorare le caratteristiche di resilienza e affidabilità.
“Abbiamo la passione di sviluppare nuove tecnologie che impatteranno sulla prossima era dell'innovazione con l'exascale computing e le relative esigenze operative”, dichiara Mike Vildibill, vice president dell'Advanced Technologies Group di HPE. “Siamo convinti che il nostro percorso verso lo sviluppo e i test AI Ops con NREL, uno dei nostri partner storici più innovativi, permetterà al settore di creare e mantenere data center per supercomputing più efficienti e smart continuando a scalare potenza e prestazioni”.
È intervenuto anche Kristin Munch, manager del Data Analysis and Visualization Group del National Renewable Energy Laboratory (NREL): “La nostra collaborazione tocca la ricerca nelle aree della gestione dei dati, della data analytics e dell'ottimizzazione AI/ML per gli interventi sia manuali sia autonomi nelle operazioni dei data center. Siamo entusiasti di collaborare con HPE in questa iniziativa pluriennale e contiamo di poter creare le condizioni per un data center smart e avanzato dopo averne dimostrato le tecniche nel nostro data center attuale”.
AI Ops: le aree di interesse del progetto di HPE e NREL
Il progetto di R&D su AI Ops si avvarrà di software e librerie open source per sviluppare algoritmi di machine learning: tra le soluzioni adottate troviamo TensorFlow, NumPy e Sci-kit. L’iniziativa sarà focalizzata su quattro aree principali, ovvero monitoraggio, analytics, controllo e operazioni di data center. Nel dettaglio:
- Monitoraggio: saranno raccolti, elaborati e analizzati enormi quantità di dati IT e facility da diverse fonti, prima che gli algoritmi vengano applicati ai dati in tempo reale.
- Analytics: attraverso tecniche di big data analytics e machine learning, i dati verranno analizzati da diversi tool e device all’interno del data center.
- Controllo: saranno applicati algoritmi per consentire alle macchine di risolvere i problemi autonomamente. Verranno inoltre automatizzate attività ripetitive ed effettuate delle manutenzioni predittive sia sull’IT che nella struttura stessa del data center.
- Operazioni di data center: il progetto AI Ops si evolverà per dare vita a un tool di convalida destinato alle attività CI (Continuous Integration) e CD (Continuous Deployment), legate alle funzioni IT base dei data center moderni.
Secondo i piani di HPE, l’ampliamento del sistema HPE High Performance Cluster Management (HPCM) consentirà di effettuare tutte le procedure di provisioning, gestione e monitoraggio di cluster scalabili fino a 100,000 nodi a velocità superiori. Tra gli altri test previsti troviamo la possibile integrazione di HPE InfoSight, un tool di gestione AI-driven basato su cloud che monitora e analizza i dati dell’infrastrutura IT.
0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".