WorkdayIntelligenza Artificiale

L'innovazione richiede fiducia: Workday si propone come guida nell'era dell'IA

di pubblicato il nel canale Innovazione L'innovazione richiede fiducia: Workday si propone come guida nell'era dell'IA

Una pubblicità molto nota su degli pneumatici di qualche anno fa diceva che "la potenza è nulla senza controllo". Poche parole che ben riassumono i concetti dietro molte delle conversazioni che abbiamo avuto visitando il quartier generale europeo di Workday a Dublino: c'è bisogno di regolamentare l'IA perché si crei quell'ambiente di fiducia che permetterà al settore di prosperare

 

Per la prima volta Workday apre la sua sede ultra-moderna a Dublino alla stampa, per mostrare alcuni "dietro le quinte" e consentire ai giornalisti di incontrare diversi membri della sua dirigenza. Molti i temi importanti toccati, ma due spiccano più degli altri: l'uso dell'intelligenza artificiale da un lato e la necessità di avere una regolamentazione del settore per poter cominciare a costruire quella fiducia senza la quale non è possibile procedere. Ne abbiamo parlato con Jim Stratton, CTO dell'azienda, e con Chandler Morse, Vice President of Public Policy.

Workday a Dublino: la porta per l'Europa

Fotografia della sede di Workday a Dublino

Workday ha, per la prima volta in assoluto, aperto le sue porte alla stampa europea: Edge9 era l'unica testata italiana presente, e una delle dieci testate provenienti dal resto d'Europa. La sede dell'azienda è uno spazio decisamente moderno, pieno di piante e di spazi dedicati al benessere dei dipendenti, in pieno stile Silicon Valley. Sono circa 2.000 i dipendenti che gravitano attorno alla sede di Dublino, l'80% dei quali dedicato alla ricerca e allo sviluppo; il restante 20% è composto da tecnici delle reti, specialisti del cloud e della virtualizzazione e da circa 100 esperti di cybersicurezza.

Sono circa 65 milioni gli utenti nel mondoche fanno uso ogni giorno della piattaforma di Workday, che è specializzata nella gestione del personale e delle finanze aziendali.

L'azienda ha uno spazio dedicato alla ricerca sulle interfacce e sull'esperienza utente (rispettivamente UI e UX). Ci sono uno studio dedicato, in cui gli esperti possono riunirsi per sperimentare e discutere, e una sala per le interviste che ricorda i film americani, perché dotata di uno specchio bidirezionale che consente di studiare meglio i partecipanti agli studi. Questi vengono selezionati sia tra il pubblico, sia tra i clienti di Workday.

La scelta di Dublino come quartier generale europeo è dovuta alle già note motivazioni che hanno spinto la maggior parte delle aziende tecnologiche americane a stabilirsi lì: l'uso della lingua inglese, il basso livello di tassazione, l'ampia disponibilità di forza lavoro qualificata e la facilità di viaggiare da e per Dublino, non solo dal resto d'Europa, ma anche dagli Stati Uniti. La presenza di università ben disposte a collaborare con l'azienda (e, a questo punto, con una storia piuttosto ricca in merito) è la classica ciliegina sulla torta.

L'intelligenza artificiale per assistere, non sostituire, le persone

Potremmo riassumere la posizione di Workday riguardo l'intelligenza artificiale, tema caldissimo in questo momento, con le parole di Clare Hickie, CTO per l'area EMEA di Workday: "per poter sbloccare il potenziale dell'IA dobbiamo sbloccare il potenziale umano, e ciò richiede fiducia."

Chandler Morse cita uno studio commissionato dall'azienda in cui emerge che il 64% dei leader aziendali crede che ci sia potenziale nell'IA e la stessa percentuale crede che sia possibile sfruttarla eticamente; tuttavia, i lavoratori sembrano meno convinti, visto che solo il 51% crede in tale potenziale (ma il 55% crede che sia possibile usare l'IA eticamente: curiosamente il dato è superiore al precedente). Un dato estremamente interessante è che il 70% dei leader crede che le persone debbano essere parte integrante dei processi, e non sembra dunque esserci la volontà (almeno per il momento, è il caso di dire!) di sostituire integralmente i lavoratori con l'IA.

Questo è un tema che ritorna ciclicamente nei due giorni che abbiamo passato nella sede di Workday: il fatto che l'azienda voglia costruire strumenti specificamente con l'intenzione di facilitare il lavoro delle persone, ma non per sostituirle. L'impressione è che chi lavora per Workday creda veramente in questa visione in cui le persone rimangono al centro del lavoro.

"Ci focalizziamo sulla cooperazione tra uomo e macchina", ci dice Jim Stratton. "Mettiamo informazioni migliori nelle mani degli utenti, automatizzando maggiormente alcuni dei compiti tediosi e mettendo in risalto quelli più ad alto rischio, come la revisione delle anomalie nelle richieste di rimborso spese. Essenzialmente riduciamo i rischi operativi delle aziende, ma mettendo insieme uomo e macchina. Crediamo che questo sia il giusto approccio sia per le aziende, sia per gli individui [che vi lavorano]."

Stratton ci dice che internamente usano l'IA per lo sviluppo, ad esempio, così da aiutare gli ingegneri del software a svolgere i propri compiti meglio e più celermente.

È interessante l'approccio dell'azienda ai modelli linguistici di grandi dimensioni: "non stiamo cercando di costruire un modello generalista che possa risolvere qualunque problema nel mondo; abbiamo funzioni in uno specifico dominio che i nostri clienti devono eseguire e quindi possiamo costruire modelli specifici intorno a tali funzioni. Sono più piccoli e più sicuri, e ci consentono di aggiungere velocemente valore al nostro prodotto. Ci aiutano a dare una risposta a quei problemi che i nostri clienti devono risolvere oggi." E questo ci porta a un'altra affermazione interessante di Stratton: cioè che Workday non punta a offrire una risposta a tutti i problemi delle aziende (come fanno alcuni concorrenti, aggiungiamo noi), ma a rispondere a esigenze specifiche e a lavorare di concerto con altri prodotti e piattaforme, così che le aziende possano scegliere quelle migliori per le proprie esigenze.

L'azienda collabora con i propri clienti per addestrare i propri modelli di machine learning e lascia loro la scelta su quali dati possano essere usati per addestrarli; "nessuno" è una delle possibilità. Stratton ribadisce quanto detto da Hickie, ovvero che è fondamentale mantenere quei livelli di privacy e protezione dei dati che consentono di costruire un rapporto di fiducia con i clienti.

Guardando al come tutto ciò sia possibile, Stratton ci dice che attualmente l'azienda sfrutta un misto di data center propri e cloud pubblico, ma che sempre più si affida ai grandi hyperscaler come AWS e Google Cloud per soddisfare la domanda di nuova infrastruttura, in particolare visto che sempre più Paesi richiedono che i dati non vengano trasferiti al di fuori dei confini nazionali (o, nel caso dell'Unione Europea, all'esterno della stessa).

La regolamentazione del settore come base per costruire il futuro

La percezione che spesso si ha è che le aziende non vedano di buon occhio quando vengono introdotte leggi che introducono limitazioni su ciò che possono fare. Il GDPR è stato un esempio lampante: moltissime aziende si sono lamentate dei nuovi limiti e hanno visto questo regolamento come un'intrusione. La prospettiva che ci dà Chandler Morse non potrebbe essere più differente, il che lascia stupiti (in senso positivo).

Chandler Morse di Workday

Secondo Morse, regolamentare un settore crea i presupposti affinché quel settore possa prosperare, perché mette dei paletti che contribuiscono a creare fiducia. In particolare quando si tratta di intelligenza artificiale, tanto che Workday è stata tra le aziende che hanno dato un contributo alla nuova legge europea sull'IA (che in inglese prende il nome di "AI Act", in realtà generico perché significa semplicemente "legge sull'IA"). "Crediamo che affinché si possa costruire la fiducia, abbiamo bisogno di misure di sicurezza intelligenti sull'IA. Per questo abbiamo accolto l'attenzione europea su questo specifico campo e abbiamo pensato che ci fosse una buona possibilità di creare delle leggi efficaci", ci dice Morse.

"Non è stata una sorpresa, ma siamo comunque molto contenti che in molti sensi abbiamo in realtà sfondato una porta aperta nella nostra interazione con i legislatori presso la Commissione e il Parlamento [Europei]. Penso che capiscano quest'area complicata e che è importante fare le cose per bene. Ci siamo presentati con proposte concrete, poiché il nostro obiettivo è vedere delle leggi nero su bianco; quindi siamo passati dai principi ai framework a proposte in linguaggio legale e questo approccio costruttivo è stato accolto molto bene a Bruxelles", continua Morse. "L'area su cui ci siamo focalizzati è quella di un approccio basato sul rischio. Nel 2019, quando abbiamo cominciato questo processo, abbiamo detto che c'era bisogno di questo approccio perché non si può trattare allo stesso modo l'IA di Netflix che mi consiglia di guardare Downton Abbey, e non importa poi granché se quell'algoritmo si sbaglia, e un'IA che controlla le radiografie toraciche. Sono due profili differenti. Sapevamo poi che l'Europa avrebbe guardato in avanti nella regolamentazione dell'IA e questa è la proposta di regolamento più completa che esista."

In effetti, Morse ci dice che l'Europa per molti versi è diventata (e perdonateci l'inglese) trendsetter nell'ambito tecnologico: ovvero è quella che non solo fa da apripista, ma mette in qualche modo le basi su cui poi tutti gli altri si poggiano. Ecco dunque che con il GDPR nel 2018 l'Europa è stata la prima a lanciare una regolamentazione forte dell'uso dei dati personali, e gli altri hanno poi seguito a ruota. Negli Stati Uniti è la California a seguire l'Europa, e si trascina poi dietro il Congresso, che risulta però molto più lento e indeciso (tanto che, a oggi, non c'è una legge federale che tuteli la privacy degli individui e il trattamento dei loro dati, che vengono venduti e rivenduti senza la necessità di alcun consenso).

L'AI Act è più un framework, ovvero un quadro normativo che stabilisce dei principi e delle linee guida; secondo Morse ci vorranno circa 60 altre leggi per specificare i dettagli nei vari ambiti toccati dall'AI Act. E per quanto Morse dica che "ci sono molte cose da apprezzare dell'UE", c'è comunque la consapevolezza (o, meglio, il desiderio) che "avrebbero potuto probabilmente spingersi più in là quando si parla dei requisiti di trasparenza."

A questo proposito, abbiamo chiesto a Morse come ottenere un buon equilibrio tra vantaggi e rischi nell'usare modelli linguistici, in particolare quando addestrati sui dati presi da tutta Internet, come avvenuto ad esempio per ChatGPT, con il possibile risultato disastroso di usare dati che non potevano essere usati. "Siamo arrivati alla conclusione che è molto difficile, a causa dei problemi relativi all'origine dei dati, chi li possedeva, su quali dati è stato effettivamente fatto l'addestramento, quale affinamento è stato fatto e così via", ci risponde. "Quindi stiamo guardando più agli altri ambiti di applicazione dei modelli linguistici di grandi dimensioni: quelli per le aziende, costruiti su set di dati prefissati, e quelli che possiamo costruire noi. E abbiamo opinioni tanto forti su quest'ambito che abbiamo collaborato con l'UE e fatto proposte legislative. E [Commissione e Parlamento] hanno adottato alcuni dei requisiti di trasparenza che prevengono i problemi che citavate: in pratica hanno detto 'se usi questi modelli in un'area che può avere delle implicazioni per la vita delle persone, dovresti sapere da dove arrivano i dati su cui sono stati addestrati'."

Morse conclude con un concetto che ben rappresenta, in qualche modo, tutte le conversazioni che abbiamo avuto durante i nostri due giorni di permanenza a Dublino. "Penso che la gente non usi una tecnologia di cui non si fida. Quindi noi vediamo il valore dell'IA nella gestione delle risorse umane, vediamo il valore di connettere davvero persone con lavori differenti che altrimenti non avrebbero conosciuto. Ma ci è molto chiaro che se la gente non si fida della tecnologia sottostante, non se ne avvarrà per ottenere quei benefici. E quindi riteniamo che siamo al punto per cui se non si introduce una regolamentazione, non ci può essere innovazione. Voglio dire, puoi sviluppare tutti i prodotti che vuoi, ma se nessuno li usa, non vanno da nessuna parte. Quindi per noi non c'è una tensione con i legislatori: c'è una simbiosi. Dunque vedremo più innovazione perché ci sarà una fiducia maggiore in queste tecnologie. E il nostro messaggio al mondo è: se volete davvero vedere i benefici dell'IA, allora dobbiamo avere delle misure di sicurezza intelligenti che facciano sì che la gente si senta a suo agio nell'usare queste tecnologie."

Un approccio che non possiamo che condividere appieno e che speriamo venga sposato da quante più aziende possibile. Per molti versi è una vera ventata d'aria fresca, in particolare visti i problemi che da molto tempo sono presenti nella gestione dei dati personali, anche e soprattutto da parte delle grandi aziende americane. Morse ha ragione: senza fiducia non ci può essere innovazione. Speriamo che il suo messaggio arrivi a sempre più persone.

1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
giovanni6927 Marzo 2024, 14:29 #1
" E il nostro messaggio al mondo è: se volete davvero vedere i benefici dell'IA, allora dobbiamo avere delle misure di sicurezza intelligenti che facciano sì che la gente si senta a suo agio nell'usare queste tecnologie"

Che inizino loro (gli sviluppatori di software) ad essere esaustivi e trasparenti con i Governi e le P.A. riguardo i dati sensibili dei cittadini senza giri di parole sui metadati e quant'altro poi serve sia per foraggiare le loro AI e sia per profilare la popolazione.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^