NetflixIntel

SVT-AV1, il nuovo codec video realizzato da Intel e Netflix

di pubblicata il , alle 11:21 nel canale Cloud SVT-AV1, il nuovo codec video realizzato da Intel e Netflix

Dal palco del NAB Intel e Netflix annunciano il nuovo codec software SVT-AV1 destinato alle applicazioni di Live Streaming e Video on Demand. È più veloce ed efficiente di quelli attuali e supporta stream 4K@60FPS, anche in HDR.

 
32 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
coschizza09 Aprile 2019, 12:48 #11
Originariamente inviato da: LukeIlBello
ad oggi, ma non domani
a meno che te per decodare i filmati in h264 te usi la cpu
non dico che non si possa fare, ma consumi molta piu corrente e non usi un componente DEDICATO per gestire i flussi video, con ben 10k cores e oltre


ovvio che uso la cpu per decodare i filmati da la migliore qualita di qulsiasi gpu esistente, la gpu si usa per fare filmati in tempo reale con qualita inferiore pero . E io codifico video quasi h24 per lavoro quindi ne so abbastanza.
la gpu la usi nel mercato consumer perché ti serve fare l'operazione velocemente ma è una cosa ben diversa.
Bradiper09 Aprile 2019, 13:00 #12
Credo che parli di encoding di una fonte 4k in tempo reale... Tipo trasmettere una partita in 4k in diretta... La fonte 4k va compressa in tempo reale in questo formato (forse per questo serve uno xeon) e trasmessa in streaming.. Senza perdere qualità ma utizzando poca banda
.
Poi vabbè posso sbagliarmi,ma spero che net tra un po' di tempo ci possa dare il 4k con la stessa fluidità di oggi.
LukeIlBello09 Aprile 2019, 13:50 #13
Originariamente inviato da: coschizza
ovvio che uso la cpu per decodare i filmati da la migliore qualita di qulsiasi gpu esistente, la gpu si usa per fare filmati in tempo reale con qualita inferiore pero . E io codifico video quasi h24 per lavoro quindi ne so abbastanza.
la gpu la usi nel mercato consumer perché ti serve fare l'operazione velocemente ma è una cosa ben diversa.


si ma consumi molta più energia.. la qualità è migliore ma a che prezzo?
demon7709 Aprile 2019, 14:14 #14
Chiedo delucidazioni:

Punto uno: è "pensato per gli xeon".. ma per la codifica dei filmati non è mille volte più efficiente e prestante usare una GPU??

Punto due: per quale ragione serve uno xeon così incazzato? I filmati vengono codificati in real time??
Non vengono codificati e salvati già pronti sui server di netflix?? Io davo per scontato fosse così.
demon7709 Aprile 2019, 14:18 #15
Originariamente inviato da: coschizza
ovvio che uso la cpu per decodare i filmati da la migliore qualita di qulsiasi gpu esistente, la gpu si usa per fare filmati in tempo reale con qualita inferiore pero .


Ecco.. e io mi chiedo il perchè di sta cosa.

Dico, passi la storia del realtime, ma per CODIFICARE e anche decodificare un filmato per quale arcana ragione la CPU lo fa bene e la GPU invece lo fa con qualità peggiore?
Bradiper09 Aprile 2019, 14:32 #16
Ti è mai capitato magari anni fa di riappare un dvd e poi fare l encode in dvix? Era lento... E non potevi vederlo perché la codifica era più lenta della riproduzione... Ora immagina un filmato in 4k e di vederlo mentre lo codifica nesso stesso momento, ecco perché ci vuole uno xeon incazzato.
LukeIlBello09 Aprile 2019, 14:36 #17
Originariamente inviato da: demon77
Ecco.. e io mi chiedo il perchè di sta cosa.

Dico, passi la storia del realtime, ma per CODIFICARE e anche decodificare un filmato per quale arcana ragione la CPU lo fa bene e la GPU invece lo fa con qualità peggiore?


domanda giusta in effetti, perchè è verissimo che il decoding dei flussi tramite CPU sia qualitativamente superiore a CUDA, però è anche vero che se su CUDA uso nv_enc (x265) con profilo "low" (quindi qualità max), la differenza di qualità col rendering CPU è davvero piccola
ma se considero l'efficienza di una GPU non c'è storia
LukeIlBello09 Aprile 2019, 14:37 #18
Originariamente inviato da: Bradiper
Ti è mai capitato magari anni fa di riappare un dvd e poi fare l encode in dvix? Era lento... E non potevi vederlo perché la codifica era più lenta della riproduzione... Ora immagina un filmato in 4k e di vederlo mentre lo codifica nesso stesso momento, ecco perché ci vuole uno xeon incazzato.


pure tu decodi con la CPU?
ma che è una moda dell'estate
coschizza09 Aprile 2019, 14:42 #19
Originariamente inviato da: demon77
Ecco.. e io mi chiedo il perchè di sta cosa.

Dico, passi la storia del realtime, ma per CODIFICARE e anche decodificare un filmato per quale arcana ragione la CPU lo fa bene e la GPU invece lo fa con qualità peggiore?


perche le gpu usano unita create a posta ma di natura fisse mentre i software si evolvono in continuazione e quindi si evolve anche il flusso creato. Tutti i programmi di codifica professionali usano solo e soltanto la cpu infatti e parlo roba che costa come un automobile non dei software che puoi scaricare a casa per farti un filmato o ripparti un dvd.
Da sempre i software sono migliori come qualità e versatilità rispetto alle gpu, lo troverai scritto in qualsiasi report o comparativa professionale in rete.
coschizza09 Aprile 2019, 14:43 #20
Originariamente inviato da: LukeIlBello
pure tu decodi con la CPU?
ma che è una moda dell'estate


si fa da sempre io non conosco nessuno che usi la gpu sei la prima persona che me lo fa notare.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^