NetflixIntel
SVT-AV1, il nuovo codec video realizzato da Intel e Netflix
di Alberto Falchi pubblicata il 09 Aprile 2019, alle 11:21 nel canale CloudDal palco del NAB Intel e Netflix annunciano il nuovo codec software SVT-AV1 destinato alle applicazioni di Live Streaming e Video on Demand. È più veloce ed efficiente di quelli attuali e supporta stream 4K@60FPS, anche in HDR.
32 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoa meno che te per decodare i filmati in h264 te usi la cpu
non dico che non si possa fare, ma consumi molta piu corrente e non usi un componente DEDICATO per gestire i flussi video, con ben 10k cores e oltre
ovvio che uso la cpu per decodare i filmati da la migliore qualita di qulsiasi gpu esistente, la gpu si usa per fare filmati in tempo reale con qualita inferiore pero . E io codifico video quasi h24 per lavoro quindi ne so abbastanza.
la gpu la usi nel mercato consumer perché ti serve fare l'operazione velocemente ma è una cosa ben diversa.
.
Poi vabbè posso sbagliarmi,ma spero che net tra un po' di tempo ci possa dare il 4k con la stessa fluidità di oggi.
la gpu la usi nel mercato consumer perché ti serve fare l'operazione velocemente ma è una cosa ben diversa.
si ma consumi molta più energia.. la qualità è migliore ma a che prezzo?
Punto uno: è "pensato per gli xeon".. ma per la codifica dei filmati non è mille volte più efficiente e prestante usare una GPU??
Punto due: per quale ragione serve uno xeon così incazzato? I filmati vengono codificati in real time??
Non vengono codificati e salvati già pronti sui server di netflix?? Io davo per scontato fosse così.
Ecco.. e io mi chiedo il perchè di sta cosa.
Dico, passi la storia del realtime, ma per CODIFICARE e anche decodificare un filmato per quale arcana ragione la CPU lo fa bene e la GPU invece lo fa con qualità peggiore?
Dico, passi la storia del realtime, ma per CODIFICARE e anche decodificare un filmato per quale arcana ragione la CPU lo fa bene e la GPU invece lo fa con qualità peggiore?
domanda giusta in effetti, perchè è verissimo che il decoding dei flussi tramite CPU sia qualitativamente superiore a CUDA, però è anche vero che se su CUDA uso nv_enc (x265) con profilo "low" (quindi qualità max), la differenza di qualità col rendering CPU è davvero piccola
ma se considero l'efficienza di una GPU non c'è storia
pure tu decodi con la CPU?
ma che è una moda dell'estate
Dico, passi la storia del realtime, ma per CODIFICARE e anche decodificare un filmato per quale arcana ragione la CPU lo fa bene e la GPU invece lo fa con qualità peggiore?
perche le gpu usano unita create a posta ma di natura fisse mentre i software si evolvono in continuazione e quindi si evolve anche il flusso creato. Tutti i programmi di codifica professionali usano solo e soltanto la cpu infatti e parlo roba che costa come un automobile non dei software che puoi scaricare a casa per farti un filmato o ripparti un dvd.
Da sempre i software sono migliori come qualità e versatilità rispetto alle gpu, lo troverai scritto in qualsiasi report o comparativa professionale in rete.
ma che è una moda dell'estate
si fa da sempre io non conosco nessuno che usi la gpu sei la prima persona che me lo fa notare.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".