Addio NVIDIA: Amazon ha realizzato internamente il processore per l'IA di Alexa (e non solo)

Addio NVIDIA: Amazon ha realizzato internamente il processore per l'IA di Alexa (e non solo)

Il team di Amazon Alexa ha spostato i carichi di lavoro su nuove macchine basata sui processori AWS Inferentia: latenze ridotte del 20% e un costo inferiore del 30% rispetto ai calcoli eseguiti su GPU

di pubblicata il , alle 08:31 nel canale Innovazione
AWS
 

AWS ha annunciato una novità relativa ad Alexa: l'azienda sta infatti migrando i calcoli relativi ai sevizi di text-to-speech dai server basati su GPU ad altri che invece si appoggiano al chip AWS Inferentia realizzati internamente. Il motivo? Poter contare su latenze più base e abbassare i costi

AWS Inferentia, i chip sviluppati da Amazon per potenziare Alexa

I chip AWS Inferentia sono stati sviluppati da zero da AWS con l'obiettivo di ridurre drasticamente i costi senza scendere a compromessi con le prestazioni. A quanto dichiara AWS, sono in grado di incrementare la banda passante del 30% e ridurre i costi per inferenza del 45% rispetto alle GPU G4 usate in precedenza. La latenza dei nuovi chip, invece, è stata ridotta del 25%. 

Un risultato notevole, che migliorerà l'esperienza di Alexa per tutti gli utenti, che ormai sono centinaia di milioni e che usano quotidianamente l'assistente vocale di Amazon per controllare la loro smart home, ottenere informazioni, ascoltare musica.

Non solo Alexa

Nonostante il chip AWS Inferentia sia stato concepito per accelerare i calcoli tipici dell'IA di Alexa, questo non è l'unico campo di applicazione. Un altro servizio che si appoggia su questi nuovi processori è Amazon Rekognition, che sfrutta il deep learning per semplificare l'identificazione di oggetti, persone, testi, così come per eseguire calcoli per il riconoscimento facciale. In questo specifico scenario di utilizzo, si ha un banda passante doppia rispetto a quella ottenibile con le GPU e una latenza di ben 8 volte inferiore. AWS non è l'unica a sfruttare i nuovi chip, che non sono disponibili sul commercio ma possono essere "affittati" come istanze Inf1 di Amazon EC2. Fra queste Snap Inc (che la integra per alcune funzioni di SnapChat) e Conde Nast, che la applica al suo motore di raccomandazioni, e che ha visto un costo per le inferenze inferiore del 72% rispetto alle istanze basate su GPU. 

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
lucusta17 Novembre 2020, 09:44 #1
comunque "G4" è l'istanza EC2 (HW virtuale configurabile secondo varie scelte prestazionali); la scheda HW è comunque una T4.
Stefano Landau17 Novembre 2020, 10:02 #2

Echo show è qualche mese che "Sente meglio" prima era quasi inutilizzabile

Oltre ad un echo, ho anche un echo show da 5 " che avendo meno microfoni del solo altoparlante per la musica era abbastanza sordo.... direi quasi inutilizzabile.
E' da qualche mese che ci sente stranamente bene....... e sicuramente i microfoni non sono aumentati....... potrebbe a questo punte essere grazie ad un miglioramento della piattaforma sottostante......
Echo invece ci ha sempre sentito abbastanza bene avendo tanti microfoni direzionali......, per cui li non ho notato differenze....

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^