MicrosoftIntelligenza Artificiale

AI per l'accessibilità: i vincitori dell'hackathon promosso da Microsoft

di pubblicata il , alle 15:21 nel canale data AI per l'accessibilità: i vincitori dell'hackathon  promosso da Microsoft

Microsoft Italia ha annunciato i vincitori di “AI for Inclusion”, hackathon per lo sviluppo di progettualità basate su soluzioni di AI generativa per valorizzare la diversità e promuovere una maggiore accessibilità nel mondo delle aziende e nella società

 

A novembre 2023 è stato dato il via all'hackathon AI for Inclusion, iniziativa di Microsoft Italia mirata ad accelerare lo sviluppo di soluzioni di AI generativa per promuovere una maggiore accessibilità e stimolare l'inclusione. Il 30 maggio è terminato l'hackathon e sono stati premiati i migliori progetti durante un incontro che si è tenuto al Politecnico di Milano, al quale hanno partecipato Daniele Lodini di EY, Matteo Salandri, di Ferrovie dello Stato, Roberta Capellini di Unicredit, Daniele Rovera di Intesa SanPaolo, oltre ad Alessandra Locatelli, Ministro per la disabilità.

L'AI generativa a supporto dell'accessibilità

MI Hackathon

Attraverso l’Hackathon AI for Inclusion abbiamo voluto promuovere lo sviluppo di idee e progetti in grado di trasformare radicalmente il modo in cui le persone con disabilità o neurodivergenze possono far leva sulla tecnologia perché siamo convinti che l’innovazione digitale possa essere un motore di cambiamento sociale positivo", afferma Sara Anselmi, Direttrice della Divisione Global Partner Solutions e responsabile del team Diversity & Inclusion di Microsoft Italia. "L’AI, in questo processo, può essere un potente abilitatore di inclusione sociale, perché migliora l’integrazione sia nella vita sociale sia lavorativa. L’obiettivo è creare un mondo in cui ogni individuo possa sfruttare appieno il proprio potenziale attraverso la tecnologia". 

Un dato che è emerso durante le tavole rotonde organizzate prima delle premiazioni è che il 70% delle imprese ha già avviato attività per migliorare l'inclusività di genere, mentre ancora si fa poco per chi è affetto da disabilità fisiche, per esempio la cecità: solamente il 17% delle aziende si è attivato sotto questo profilo.

In futuro, in ogni caso, dobbiamo aspettarci una maggiore attenzione da parte di chi sviluppa servizi e prodotti: nel 2025, infatti, entrerà in vigore l'UE Disability Act, un set di regole alle quali dovranno adeguarsi tutte le realtà operanti nell'area UE. E queste imprese dovrebbero pensare già da subito a come adeguarsi: una ricerca di Forrester, infatti, evidenzia come realizzare un prodotto tenendo in mente criteri di accessibilità costi circa fra il 5% e il 10% in più. Se però si decide di adeguare un prodotto a questi criteri, la spesa cresce sino al 20%. 

I vincitori dell'hackathon

I progetti presentati erano divisi per temi: Mobilità, vista, udito, disabilità o neurodivergenze invisibili (apprendimento e salute mentale), disabilità trasversali. Per ciascuna di queste è stato selezionato un vincitore. 

VoxME

Per la categoria mobilità il premio è stato aggiudicato a VOXme di Digitec, strumento di comunicazione verbale e para-verbale concepito per persone con difficoltà di espressione come individui con paralisi alle corde vocali, sopravvissuti a ictus, autistici, pazienti con sclerosi multipla o amiotrofica laterale e persone affette da sindrome di Rett: si tratta di una soluzione innovativa progettata per dare (o ri-dare) loro una voce.

Il cuore di VOXme è costituito da tecnologie avanzate capaci di raccogliere l’input attraverso eye-tracking, per consentire la scrittura tramite il movimento degli occhi, e il text-to-speech, per trasformare il testo scritto in output sonoro, integrando funzionalità quali text prediction, text generation e retrieval-augmented generation.

Fra le caratteristiche della soluzione:

  • Input accelerato del testo tramite tracciamento oculare: attraverso l'eye-tracking assistito, facilita la trasmissione dei pensieri, ottimizzando l'immissione e fluidificando la comunicazione.

  • Assistenza alla comunicazione e alla conversazione: è arricchita dalle esperienze personali dell'utente che consentono di suggerire frasi pertinenti al contesto e gli interlocutori ed inoltre di simulare conversazioni con un assistente virtuale.

  • Personalizzazione della voce: è in grado di creare una voce sintetica che rispecchia il timbro, il tono e l'accento dell'utente, offrendo un'esperienza di comunicazione autentica.

ConWeb

Nella categoria vista è stata premiata ConWeb, architettura software sviluppata dal Politecnico di Milano che sfrutta le ultime tecnologie AI per permettere agli utenti di esplorare una pagina web tramite conversazione. ConWeb riesce a trasformare il contenuto statico di una pagina web in una conversazione, e lo fa seguendo dei pattern conversazionali che sono stati disegnati proprio grazie a studi con utenti non vedenti ed ipovedenti. L’utente non deve fare altro che attivare l’estensione ConWeb e “parlare” con la pagina, esplorando le varie sezioni, salvando contenuti per accedervi successivamente e cercando le informazioni di cui necessita.

4ALLAVATAR

Sempre dal PoliMI arriva 4AllAvatar, che è stata selezionata nella categoria disabilità invisibili. Parliamo di un'estensione del browser sviluppata per migliorare l'accessibilità ai siti web per quegli individui con difficoltà di attenzione come l'ADHD, rendendoli di più immediata comprensione attraverso la creazione di un video esplicativo raccontato da un avatar. Sviluppato da un gruppo di studenti del Politecnico di Milano, questa soluzione integra vari componenti tecnologici per ottimizzare l'esperienza di lettura online.

ai4Sign

ai4Sign di CLOUDIA RESEARCH, invece, è stata premiata nella categoria udito. ai4Sign è un servizio che permette agli utilizzatori di lingua dei segni di comunicare in modo più agile ed efficace perché traduce il linguaggio dei segni in parole scritte e voce in tempo reale, abbattendo le barriere della comunicazione e rendendo possibile un'interazione fluida e inclusiva tra persone che utilizzano linguaggi diversi. Basta inquadrare la persona che sta usando il linguaggio dei segni con la fotocamera dello smartphone, tablet o laptop. L'intelligenza artificiale di ai4Sign si occuperà del resto, traducendo i gesti in parole scritte e voce in modo rapido e preciso.

Il servizio utilizza modelli d'intelligenza artificiale sia nell'interpretare i segni, sia per rielaborare il risultato della traduzione per ottenere un testo sintatticamente corretto, poiché la lingua dei segni può avere una sintassi differente dalla lingua italiana. Per agevolare gli studi sulla lingua dei segni ai4Sign mette a disposizione tutti i dati generati, linguistici o geografici, dall’app per scopi accademici.

ALMAVIVA_ALMAWAVE

Infine, per la categoria disabilità trasversali il vincitore è stato un prodotto realizzato da INAIL in collaborazione con Almaviva e Almawave. Si tratta di una piattaforma video che mira a trasformare l'interazione con i contenuti digitali, rendendola più inclusiva e accessibile. 

Attraverso l'uso di tecnologie avanzate di AI e soluzioni di interfaccia utente personalizzate, la piattaforma si propone di abbattere le barriere e permettere a tutti gli individui, inclusi quelli con disabilità o neurodivergenze, di sfruttare appieno il potenziale dei media digitali. 

La piattaforma è dotata di funzionalità intuitive che facilitano l'interazione per utenti con diverse esigenze, promuovendo un'esperienza utente senza precedenti nel campo dell'accessibilità digitale, tra cui:

  • Un hub unico per contenuti video, facilitando l'accesso e la scoperta di materiali diversificati da parte degli utenti, indipendentemente dalle loro abilità fisiche o neurologiche.

  • La trascrizione automatica per tutti i video dell’hub, al fine di rendere il contenuto accessibile e ricercabile.​

  • Un processo di Pubblicazione Integrato ovvero l’implementazione di un sistema che permetta agli utenti redattori di gestire il flusso di pubblicazione non solo internamente ma anche su piattaforme esterne come Vimeo e YouTube, promuovendo una distribuzione accessibile e inclusiva.

  • Ricerca avanzata utilizzando il linguaggio naturale, per consentire agli utenti di trovare facilmente i contenuti desiderati.

Obiettivo futuro dell’iniziativa è quello di sviluppare un umano digitale capace di trascrivere i contenuti video in LIS (linguaggio dei segni) in sincrono rispetto allo streaming del video.

^