IntelIntelligenza Artificiale
Intel all’AI Festival 2025: dati, etica e il futuro dell’inferenza AI
di Redazione pubblicata il 04 Marzo 2025, alle 09:31 nel canale Innovazione
Walter Riviera di Intel, all’AI Festival 2025, mette al centro dati, inferenza all’edge e uso responsabile dell’IA, tracciando la via per un futuro più consapevole
L’AI Festival 2025, ospitato all’Università Bocconi di Milano, ha offerto uno sguardo approfondito sull’evoluzione dell’intelligenza artificiale e sulle sue implicazioni per il futuro. Tra gli interventi più apprezzati, quello di Walter Riviera, AI Tech Lead EMEA di Intel, che ha affrontato con il suo stile diretto e provocatorio le grandi domande del momento: dove sta andando l’intelligenza artificiale e qual è il vero valore che ne possiamo trarre?
L’illusione dell’AGI e il valore dei dati
Riviera ha aperto il suo intervento con un’analogia efficace, paragonando l’attuale dibattito sull’Intelligenza Artificiale Generale (AGI) a un gioco di prestigio, che ci può affascinare ma non deve farci distogliere l’attenzione da ciò che è più importante. "L’AGI è stata la parola d’ordine del 2024, ma nessuno ha mai davvero chiarito tecnicamente cosa significhi", ha affermato, sottolineando anche come l’attenzione mediatica si concentri spesso sulla potenza dei modelli di AI, mentre il vero fulcro della competizione globale rimangono i dati.
"I dati stanno facendo girare il mondo" ha detto Riviera, evidenziando come le grandi aziende tech si stiano contendendo la supremazia nell’AI non tanto sui modelli, ma sull’accesso ai dati. "Se non hai abbastanza dati, non puoi competere nell’addestramento di modelli di AI su larga scala." I dati sono la materia prima dell’AI, ed è importante che siano acquisiti e trattati con sicurezza, nel rispetto delle regolamentazioni – che devono essere al passo del ritmo del progresso tecnologico – e nella tutela delle persone.
Dall’AI PC all’inferenza distribuita
Nell’intervista successiva al suo intervento, Riviera ha approfondito un altro grande trend tecnologico: lo spostamento dell’inferenza AI verso l’edge. Se il training dei modelli avviene ancora nei grandi data center, l’inferenza – ovvero l’applicazione pratica dell’AI – si sta progressivamente decentralizzando, avvicinandosi ai dispositivi degli utenti.
"L’inferenza sta diventando pervasiva", ha spiegato. "Oggi abbiamo PC con NPU (Neural Processing Unit) integrate, che permettono di elaborare localmente funzioni AI senza gravare su CPU e GPU, migliorando efficienza e consumi." Sebbene la GPU resti il motore di elaborazione principalmente sfruttato dalle applicazioni di AI, la NPU è sempre più utile all’interno dei dispositivi per usare l’AI in maniera energeticamente efficiente.
Un esempio concreto è l’elaborazione di sfondi virtuali nelle videoconferenze, che può essere gestita dalla NPU; ci sono anche gli assistenti intelligenti, o l'upscaling delle immagini o il poter creare un chatbot sul proprio AI PC, mentre ci avviciniamo alla stagione degli AI agent, e tanto altro. Siamo solo all’inizio.
Anche per il mondo enterprise, l’edge computing offre vantaggi significativi, soprattutto in termini di sicurezza e compliance. "Se l’AI deve verificare che un’email non contenga dati sensibili, è meglio che lo faccia localmente piuttosto che trasmettere informazioni riservate a un server remoto", ha sottolineato Riviera, richiamando il contesto del GDPR e della crescente attenzione alla protezione dei dati in Europa. Difatti, sono già stati annunciati i primi AI PC con Intel vPro, per la gestione di flotte di PC aziendali anche in contesti di lavoro ibrido e da remoto e dotati di funzionalità di sicurezza più avanzate.
Per quanto riguarda gli AI datacenter, "il 70% dell’inferenza nei data center gira su processori Intel" – rivela Rivera. E sono spesso già presenti nella dotazione delle aziende, sono già familiari, e bastano per la maggior parte delle necessità. Le stesse soluzioni Nvidia DGX H100 e H200 utilizzano CPU Intel Xeon. Per un’ulteriore accelerazione dell’inferenza e per i clienti più esigenti, sul mercato ci sono soluzioni come Intel Gaudi 3, che sebbene non abbia dato al momento i risultati sperati in termini di penetrazione del mercato, Intel si dice ottimista considerando le nuove esigenze del settore AI in rapida evoluzione, dopo la prima stagione fatta di crescita esplosiva e di training di grandi modelli.
Etica e uso responsabile dell’AI
Un altro tema centrale del dibattito è stato il rapporto tra AI ed etica. Riviera ha precisato che più che parlare di "etica dell’intelligenza artificiale", preferisce concentrarsi sull’uso responsabile delle tecnologie AI. Intel, ad esempio, è attivamente impegnata nello sviluppo di strumenti per garantire un uso trasparente e sicuro dell’AI, come DeepFake Detector sviluppato con McAfee e già integrato in alcuni PC, per identificare video deepfake, e la partecipazione al consorzio C2PA, che si impegna per certificare l’origine dei contenuti digitali.
"Dobbiamo distinguere un’immagine realmente scattata da un fotografo da una generata artificialmente", ha spiegato Riviera. Una sfida sempre più attuale nell’era della disinformazione e della manipolazione digitale.
Un futuro di integrazione e consapevolezza
Nel concludere il suo intervento, Riviera ha lasciato cinque consigli chiave per chi vuole navigare con consapevolezza l’era dell’AI:
- Dati, dati, dati: vanno trattati come un asset strategico
- Investire in competenze: capire il funzionamento dell’AI oltre il semplice utilizzo
- Consapevolezza critica: distinguere tra hype e realtà tecnologica
- Formazione aziendale: non aspettarsi soluzioni miracolose, ma costruire use case su misura
- Qualità oltre la velocità: nell’AI, meglio fare le cose bene che rincorrere le novità
L’AI non è più una promessa lontana, ma una tecnologia in piena integrazione nel quotidiano. La sfida ora è farlo in modo sicuro, responsabile e con una chiara comprensione del suo impatto. Come ha detto Riviera: "Un piede per terra aiuta ad andare molto più veloce della testa per aria."