IBMComputer QuantisticoIntelligenza Artificiale

Dove si inventa il domani: tra IA e computer quantistici nel centro di ricerca di IBM

di pubblicato il nel canale Innovazione Dove si inventa il domani: tra IA e computer quantistici nel centro di ricerca di IBM

Abbiamo visitato il centro di ricerca europeo di IBM, situato nei pressi di Zurigo, dove l'azienda sperimenta con le tecnologie più all'avanguardia. Abbiamo incontrato i ricercatori che ci lavorano, incluso il direttore Alessandro Curioni, e abbiamo parlato di come l'intelligenza artificiale e i computer quantistici stanno cambiando e cambieranno il panorama della tecnologia e della ricerca scientifica

 

È una fredda e buia sera quando arriviamo a Rüschlikon, a poca distanza da Zurigo, in quello che appare dall'esterno come un edificio insolito, ma comunque relativamente anonimo, come molti altri della metà del secolo scorso. È bianco e basso, e si estende su un'area piuttosto grande diviso in varie ali, inframmezzate da giardini ben curati. Quest'aspetto ordinario nasconde invece il centro di ricerca di IBM in Europa, fondato nel 1956 e tutt'oggi attivo nell'effettuare ricerche nei campi più avanzati della scienza e della tecnologia. È qui che incontriamo Alessandro Curioni, Vice President Europe and Africa e Director IBM Research Zurich, e altri ricercatori (molti dei quali italiani) che ci parlano del loro lavoro e di cosa ci aspetta in futuro.

Un centro fuori dalla norma

L'edificio in cui sorge il centro di ricerca di IBM è, sì, anonimo, ma solo se lo si guarda da una prospettiva generale: se si pensa che è la sede di un'azienda diventa subito inusuale. Camminare nei corridoi del centro ricorda molto un'università: ci sono piccoli uffici personali, inframmezzati da laboratori pieni di strumentazione, con caselle postali personali e bacheche con annunci di conferenze e raduni. Non sembra affatto di essere all'interno di uno spazio di un'azienda e men che meno in un ufficio. E forse è proprio qui che sta il segreto del successo di questa struttura: l'aver saputo tenere un giusto equilibrio tra la ricerca di base e quella di prodotto, con un approccio che ricorda (per l'appunto) quasi più un'università che una tipica azienda così da poter raccogliere e stimolare le menti più brillanti.

"Questo è il primo centro di ricerca di IBM fuori dagli Stati Uniti. Siamo qui da 70 anni e se uno pensa all'information technology settant'anni fa, la maggior parte delle aziende che oggi fanno la differenza non esisteva neanche. Noi c'eravamo già e facevamo già ricerca. La ricerca corporate di IBM è sempre stato un po' il fiore l'occhiello della nostra compagnia perché è quella che ci ha permesso nel bene, nel male, nei momenti più positivi, nei momenti più negativi di cercare di ricreare noi stessi", ci dice Curioni. "Noi ci siamo da più di 110 anni e siamo riusciti a ritrasformarci dal vendere prima delle bilance e poi dei calcolatori meccanici, poi dei calcolatori digitali fatti con le valvole, poi transistor, i PC e tutto quello che è successo; cambiando modello di business, vendendo prima hardware, poi software, servizi, soluzioni, abbandonando le soluzioni, ritornando alla tecnologia core... Uno dei motivi per cui penso che sia stato possibile è perché c'è stato dietro questo modello di ricerca che non è lì per cercare di fare le cose meglio di quello che rende oggi, ma cercare di inventare il domani."

Curioni (in foto qui sopra) ci spiega che l'intento del centro di ricerca "non è arrivare a una pubblicazione e non è migliorare un pochino il prodotto, ma venire fuori con delle idee che poi muovono tutta l'azienda. Ci sono quattro premi Nobel che hanno lavorato qui e vinto il premio per la ricerca fatta. Il mondo cambia e così anche la ricerca; oggi ci concentriamo su IA e hybrid cloud per il business, quindi anche il focus del laboratorio è intorno a questi temi."

Il problema dell'IA e della gestione dei dati

Uno dei grandi problemi a cui dobbiamo fare fronte oggigiorno è quello dei dati impiegati per addestrare i modelli di intelligenza artificiale. I modelli linguistici di grandi dimensioni, come quello alla base di ChatGPT, e i cosiddetti "modelli fondamentali" (modelli "generici" che possono poi essere personalizzati con i dati della singola azienda) sono infatti stati addestrati con dati presi da tutta Internet, ma senza un reale controllo né dell'effettiva possibilità di poter usare tali dati da un punto di vista legale (tali dati erano liberi da copyright? Gli autori hanno espresso il proprio consenso all'uso? È lecito usare dati da qualunque fonte?), né della qualità di tali dati, ovvero se questi non siano tali da creare all'interno dei modelli dei bias, che potremmo rendere in italiano come "preconcetti" o "inclinazioni".

C'è anche il problema di dover gestire i casi in cui il diritto a utilizzare certi dati viene revocato: per come sono fatti oggigiorno i modelli, non è semplicemente possibile far "dimenticare" loro le informazioni senza un ri-addestramento da zero dell'intero modello (un punto che avevamo già toccato parlando con gli esperti di Appian, ad esempio).

Curioni (nella foto qui sopra) cita dunque la necessità di strumenti per governare l'IA e le informazioni da essa utilizzate, così da potersi adattare a un panorama che muta costantemente e da poter tutelare le aziende e le persone. "Questi modelli sono stati creati e provati con dati così detti 'pubblici' che pubblici non erano, integrando tutto il possibile immaginabile e quindi con un sacco di spazzatura, con alcune cose buone e con alcune cose gravemente biased", dice Curioni. "Anche questo è il motivo per cui adesso il valore, specialmente di business, di tutto ciò è limitato e pericoloso: perché c'è un bias che non conosco, così rischio di creare un modello che contiene proprietà intellettuali di altri. Se questi riescono a dimostrare che [la PI] veniva solo da lì, ci sono dei grossi problemi."

Guardando più in generale allo scenario, ci sarà in futuro un cambiamento dettato proprio dal valore di alcuni dati, che potranno essere più "incisivi" nel creare le giuste connessioni all'interno dei modelli. Il valore non sarà infatti tanto nell'avere modelli fondamentali addestrati su dati generali, ma nell'avere quei dati che consentono ai modelli di fare quel "passo in più" che va oltre la conoscenza generale del singolo ambito. Ci saranno dunque set di dati magari molto piccoli, ma infinitamente più di valore rispetto a grandi set di dati "generici" proprio perché in grado di creare nei modelli fondamentali quelle connessioni che consentono poi loro di arrivare a risultati migliori.

Per questo IBM sta lavorando su strumenti che consentano alle aziende di limitare l'impatto di queste problematiche. Ad esempio, l'azienda sta sviluppando dei modelli di IA con dei connettori che aggiungono proprio tali dati "importanti" a un modello addestrato con dati realmente pubblici e, per quanto possibile, affidabili e liberi da bias. Le aziende possono dunque introdurre dei "pesi" che vanno a cambiare il modo in cui l'IA si comporta mantenendo però il pieno controllo di tali pesi e dei dati sottostanti, e assicurando che eventuali problemi di bias possano essere risolti più facilmente cambiando i dati su cui si basano i pesi.

L'aspetto però forse più interessante dell'intelligenza artificiale è la sua possibile applicazione alle scoperte scientifiche. Abbiamo già avuto modo di vedere un primo caso con RoboRXN, piattaforma che consente di ricostruire la catena di reazioni (e, di conseguenza, di reagenti) necessaria per arrivare a una data molecola. Si tratta di un capovolgimento completo delle modalità con cui si fa ricerca nella chimica, ma è per molti versi solo la punta dell'iceberg.

Ci sono infatti forti indizi sul fatto che i computer quantistici saranno migliori nel trovare strutture nascoste all'interno di set di dati, similmente a quanto fa l'IA; ciò consentirà di effettuare l'addestramento dei modelli di IA con maggiore efficienza: dunque con meno dati o, guardandola dall'altro lato, potranno offrire una maggiore precisione con gli stessi dati. Ciò aprirà le porte a modelli di intelligenza artificiale migliori, in grado di aiutarci a esplorare la fisica, la chimica e altri campi della scienza, magari anche proprio con l'aiuto delle simulazioni quantistiche che tali computer ci consentiranno di effettuare.

Curioni propone un'idea per molti versi rivoluzionaria: "la scoperta dei farmaci fino adesso è sempre stata fatta nell'unico modo possibile per gli strumenti che le persone che fanno ricerca sui farmaci avevano. Parti da una sequenza genetica, la sequenza genetica crea una proteina, la proteina ha una struttura tridimensionale, quindi la misuro e vado a vedere qual è il sito attivo; una volta che ce l'ho vado a disegnare un farmaco che va nel sito attivo e me lo blocca, così blocco la malattia. Poi faccio tutti i test in vitro, in vivo, sulle persone e così via. Questo è stato finora il modo di lavorare, ma se uno ci pensa bene, perché?"

"Nel codice genetico ci sono tutte le informazioni che poi la fisica tramuta in una struttura, in una funzione. Quindi se io avessi un sistema di machine learning che è in grado di imparare tantissimo su una quantità di dati più piccola, potrei partire dalla struttura genetica, più quelle che vengono chiamate real world evidences [ovvero "prove che arrivano dal mondo reale", NdR] sulla malattia. Quello che succede è che posso utilizzare queste due cose per tirare fuori direttamente un farmaco alla fine. Perché devo andare attraverso tutta la fisica e la chimica se nel nostro DNA c'è già tutto? Quindi potrebbe anche darsi che il quantum riesca a dare un approccio trasformativo al drug design senza neanche simulare una singola molecola."

I computer quantistici, un futuro sempre più presente

"Il quantum computing è una tecnologia che sta diventando matura. Non è una cosa da laboratori di ricerca: sì, ci si può fare ancora ricerca, ma si incominciano a creare sistemi che portano un'utilità." Questo, in breve, il punto della situazione fatto da Curioni: una visione che può forse apparire ottimistica, in questo momento, ma che racchiude in realtà in poche parole ciò che sta già succedendo.

Ovvero il fatto che i computer quantistici si stanno avvicinando al momento in cui potranno essere usati per applicazioni reali, con un impatto diretto su ciò che aziende, università, istituti di ricerca e altre organizzazioni potranno fare.

Ciò sta avvenendo per via della crescita del numero di qubit: solo poco più di due anni fa IBM lanciava il processore Eagle, dotato di 127 qubit; lo scorso dicembre l'azienda ha lanciato Condor, che ha invece ben 1.121 qubit - quasi dieci volte tanto. Proprio questo incremento nel numero di qubit fa sì che sia possibile eseguire calcoli più complessi.

Come ci spiega Ivano Tavernelli, ricercatore specializzato proprio sui computer quantistici, in questa fase in cui le CPU quantistiche soffrono però ancora di tassi di errore molto elevati, la vera forza di un processore come Condor non è tanto la possibilità di usare tutti i qubit simultaneamente, quanto più di ripartire il processore in diverse sezioni che eseguono ciascuna lo stesso compito. Contrariamente ai computer classici, infatti, i computer quantistici offrono risultati che sono in realtà frutto di un processo statistico; ciò fa sì che il processore quantistico debba eseguire gli stessi calcoli più volte così da potersi avvicinare quanto più possibile al dato reale escludendo invece i cosiddetti outlier (ovvero valori che si allontanano dalle altre osservazioni). Se si divide, ad esempio, il chip da 1.121 qubit in 11 diverse unità da 100 qubit, è possibile eseguire in parallelo i calcoli e ridurre significativamente i tempi rispetto a un processore da 100 qubit.

Questo è lo stesso approccio che ha portato allo sviluppo di Heron, presentato insieme a Condor e dotato di 133 qubit: rispetto a Eagle offre un tasso di errore significativamente inferiore e ciò va ad aggiungersi al fatto che il processore è in realtà pensato per essere modulare, ovvero per connettersi ad altre CPU. Tale connessione avviene grazie alla conversione dell'informazione da quantistica a classica. Tale conversione ha, però, un costo significativo in termini di potenza di calcolo necessaria, motivo per cui i futuri processori integreranno invece una connessione quantistica.

C'è anche un altro aspetto, che è quello della velocità con cui bisogna eseguire i calcoli per via della decoerenza, ovvero della perdita delle proprietà quantistiche: "l'esecuzione del circuito [ovvero della singola funzione all'interno del programma, NdR] deve avvenire in un tempo che è più breve dei dieci venti, microsecondi che è il tempo di decoerenza della macchina. Le operazioni richiedono circa 100 nanosecondi, che bisogna ripetere per il numero di gate richieste [i qubit possono essere programmati per eseguire diverse porte logiche, che non sono dunque fisse come nei computer tradizionali, NdR] e non si riesce ad alzare la velocità di clock per via degli errori; questo è ancora un fattore molto limitante. L'obiettivo", continua Tavernelli, "è aumentare questo tempo di coerenza, di modo che se io riduco il rumore, la probabilità che avvenga questa de-eccitazione spontanea diventa più piccola. Un altro è migliorare anche il tempo delle gate [ovvero di ciascuna operazione logica, NdR], perché più le faccio corte e più ne posso mettere una in fila all'altra in questo spazio di tempo che è la mia finestra operazionale. Nel computer quantistico con la correzione degli errori questi problemi non ci sono, perché se avviene uno di questi errori io riesco a rilevarlo e quindi poi a correggerlo."

A questo proposito, uno dei motivi per cui IBM ha scelto di creare un processore da oltre 1.000 qubit nonostante questi non siano utilizzabili allo stesso tempo è proprio per via della volontà di sperimentare con i primi qubit logici, che consentirebbero di avere la correzione degli errori: "sappiamo che ci vogliono circa cinquanta, cento, duecento qubit fisici per creare per avere un singolo qubit logico. Avendo la possibilità di usare chip con mille qubit, possiamo cominciare a creare i primi due, tre qubit logici così da cominciare a lavorare con questi e vedere come nei prossimi cinque-dieci anni, i tempi della nostra roadmap, arrivare ad avere un computer quantistico per passare dalla mitigazione alla correzione dell'errore."

Guardando più ampiamente allo sviluppo dei computer quantistici, il fatto che siano i grandi colossi americani come, appunto, IBM a farla da padroni in questo campo (con la postilla che lo sviluppo di questi dispositivi in Cina è ancora un'incognita) è dovuto non solo al fatto che il governo statunitense sta investendo fortemente in questa tecnologia, ma anche alle competenze specifiche che le aziende d'Oltreoceano hanno accumulato nella fabbricazione dei chip. L'Europa è ancora indietro su questo fronte e ci vorrà del tempo perché recuperi questo divario, se mai ciò sarà possibile. Investire fortemente nella ricerca e nello sviluppo può aiutare, ma bisogna anche superare i tradizionali limiti europei per cui i vari Stati si contendono fra di loro le risorse con il risultato che, alla fine, per non scontentare nessuno arrivano a tutti briciole che non sono poi utili a granché.

I prossimi anni saranno estremamente intensi dal punto di vista dello sviluppo dei computer quantistici, con roadmap che vedono già fra cinque anni l'arrivo di dispositivi con possibili applicazioni commerciali con un impatto tangibile sul modo di fare ricerca e innovazione. Senza lasciarsi andare a facili sensazionalismi, questo è forse l'ambito più dirompente attualmente in sviluppo nel campo della tecnologia: l'intelligenza artificiale ha portato una vera e propria rivoluzione che sta cambiando gli equilibri in pressoché ogni settore; già questo cambiamento appare gigantesco, ma la promessa dei computer quantistici è di portare un cambiamento che si prospetta ancora più fondamentale (nel senso etimologico, ovvero "in grado di cambiare dalle fondamenta") e, forse, ancora più vasto. L'intelligenza artificiale ha saputo dimostrare già in questa fase iniziale il suo potenziale; sarà interessante vedere se riusciranno a mantenere questa promessa anche i computer quantistici.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
amd-novello01 Marzo 2024, 14:54 #1
ovviamente pieno di italiani
fukka7501 Marzo 2024, 17:06 #2
È qui che incontriamo Alessandro Curioni, Vice President Europe and Africa e Director IBM Research Zurich, e altri ricercatori (molti dei quali italiani) che ci parlano del loro lavoro e di cosa ci aspetta in futuro.
Sì, molti sono italiani, e quindi?
Opteranium01 Marzo 2024, 23:02 #3
Originariamente inviato da: fukka75
Sì, molti sono italiani, e quindi?

e quindi meglio italiani che neozelandesi, ma che domande sono
Slater9104 Marzo 2024, 10:36 #4
Originariamente inviato da: fukka75
Sì, molti sono italiani, e quindi?


E quindi mi sembrava interessante far notare che in un centro di eccellenza a livello mondiale, in cui sono presenti persone da decine di Paesi diversi, ci fossero molti italiani. Non per nazionalismo, che non mi appartiene, ma semplicemente come dato interessante, in particolare visto che questi temi sono scarsamente presenti (quantomeno in maniera seria) nel dibattito pubblico italiano.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^