Nuovi formati: S2X, HEVC, UHDTV. Cos’è HEVC e perché è necessario? Decodifica hardware h 265

Nuovi formati: S2X, HEVC, UHDTV. Cos’è HEVC e perché è necessario? Decodifica hardware h 265

| Utilizzo di h.265 (HEVC) in Premiere.

Utilizzo di h.265 (HEVC) in Premiere.

aggiornato al 01.2019

Formato H.265/HEVC e sua applicazione

H.265, chiamato anche High Efficiency Video Coding (HEVC), è uno standard di compressione video progettato per comprimere video ad alta definizione in modo più efficiente. L'obiettivo finale è trasmettere contenuti 4K di alta qualità sui canali di comunicazione esistenti. Netflix nell'agosto 2016 ha pubblicato i risultati del confronto tra i codec x264, VP9 e x265* basati su videoclip di 500 film e programmi TV, secondo i quali i codec VP9 e x265 forniscono una compressione 1080p migliore del 40-50% rispetto a x264 (che ovvero, la dimensione del file può essere la metà di h.264). Gli algoritmi utilizzati sono più complessi e richiedono grandi risorse di calcolo: la decodifica richiede circa 2 volte più potenza di h.264 e la codifica ne richiede molte volte di più. Il formato è pensato per l'alta risoluzione, alle basse risoluzioni la superiorità rispetto all'h.264 non è così significativa.

Sulle videocamere, h.265 ha guadagnato popolarità nel 2018, grazie al nuovo IPhone, GoPro Hero, DJI Phantom 4k. Spesso utilizzato anche nelle telecamere CCTV IP. H.265 è un formato per la riproduzione sui dispositivi degli utenti: H.265 è stato scelto come standard televisivo di fatto per 4K, serie di modelli I televisori dal 2015 hanno il supporto hevc, i moderni set-top box sono dotati del suo supporto. Puoi caricare h.265 su Facebook e Youtube. Il contenitore per h.265 è costituito da file mp4 e mov. Il supporto hardware per la codifica e decodifica h.265 è disponibile sulle schede video NVidia a partire dalla serie Maxwell 9x0, sulle nuove schede AMD e sui processori Intel a partire da Skylake.

Lo standard non è diffuso come h264, gli ostacoli sono algoritmi di compressione troppo complessi e un sistema di licenze troppo costoso e complesso (7 volte più costoso dell'MPEG). Attualmente, Netflix e Youtube operano in VP9. Si avvicina il prossimo standard aperto AOMedia Video 1 (AV1), che a parità di qualità avrà un bitrate inferiore del 25% e, soprattutto, è gratuito, motivo per cui Youtube intende passare ad esso. La possibilità standard di importare AV1 è apparsa in Adobe Premiere 2018.1. Lo standard HEVC continua ad evolversi, pertanto non è garantito che i dispositivi e i programmi che riproducono le prime versioni di video hevc siano in grado di riprodurre tutti i video hevc. Nel 2019, le fotocamere Sony verranno rilasciate con il codec XEVC, basato su H.265 (HEVC) versione 2. Nel 2020, gli sviluppatori hevc adotteranno nuova norma vvc(h.266) è il 30% più efficiente di h.265.

Cinegy Daniel2

Innanzitutto si tratta di un codec commerciale posizionato come alternativa ai codec di editing DNxHD/ProRes. Una caratteristica unica è che funziona su una GPU (CUDA), per questo è molto veloce, necessaria per modificare materiale 4K, 8K, 16K. Il codec è universale: in assenza di GPU funziona sul processore ed è anche veloce. Il codec può essere interessante in quanto dispone di un plug-in di input/output per Premiere e, oltre allo stesso codec Daniel2, consente l'esportazione in h.264 e hevc tramite il blocco nvenc delle schede video NVidia. Leggermente caro requisiti di sistema: Windows 10 a 64 bit e NVidia Pascal.

Altri plugin di esportazione

Pacchetto professionale Sorenson Squeeze nelle versioni 10 e 11 supporta la codifica software h.265 e VP9. Il progetto è stato chiuso nel 2018.
Codificatore commerciale Cinemartino CINEC ha un plugin per Premiere, a giudicare dalle caratteristiche e dalle funzionalità, basato sul ffmpeg gratuito, ma ad un prezzo inappropriatamente alto. Il sito non è stato aggiornato dal 2014.
Pacchetti Drastico MediaReactor Le versioni Workstation e Lite per Adobe dispongono di un plug-in di importazione h.265.

Convertitori

Esistono numerosi convertitori per tutti i gusti. La nostra scelta è Handbrake, IFME.

Esporta da Premiere tramite Frame Server

Per esportare direttamente da Premier tramite convertitori esterni, puoi utilizzare il plugin Advanced Frame Server.
1. Installa Advanced Frame Server, ricorda il percorso in cui l'hai installato e copia dfscPremiereOut.prm da lì in C:\Program Files\Adobe\Common\Plug-ins\7.0\MediaCore
2. Installa ultima versione MediaCoder, scarica e installa gli aggiornamenti.
3. Esporta nel solito modo (ad esempio, File > Esporta > Filmato) e seleziona Advanced Frame Server come formato di output.
4. Immettere il nome del file intermedio per l'esportazione, ad esempio "segnaletica", Spazio colore - YUY2.
5. Fare clic su "Esporta" per avviare FrameServing.
6. Avvia Mediacoder e carica "signpost", nella scheda Video seleziona Formato: H.265, se la scheda video è NVidia GTX 950 o successiva, puoi abilitare la codifica hardware - seleziona Encoder: NVENC.

7. Fare clic su "Avvia".
8. Dopo aver terminato la codifica in MediaCoder, non resta che annullare l'esportazione in Premiere. Purtroppo, a causa di questa peculiarità di funzionamento, la codifica batch tramite Adobe Media Encoder avviene manualmente.

Non hai nemmeno bisogno di utilizzare MediaCoder, StaxRip e front-end simili. Frameserver ti consente di lavorare con gli encoder dalla riga di comando, utilizzare direttamente TSmuxer, FFMPEG e X265. Quando si esporta con questo metodo, è anche possibile utilizzare la codifica hardware h.265 se si dispone di una scheda video NVidia della serie 9x0 o di un processore Intel della serie SkyLake.
Tra gli svantaggi: potrebbe esserci un problema con gli spazi colore bt.601 vs bt.709.

iPhone 8 e iPhone X e Premiere

Nei nuovi iPhone, la registrazione video viene eseguita in formato hevc in file con un contenitore mov. A seconda della versione di Premiere e di Windows si presentano diverse situazioni:
* Se hai installato Windows 10 e Premier versione 2018.1 e successive, tali file vengono importati senza problemi (è necessaria una nuova build di win10 con le estensioni video HEVC o le estensioni video HEVC del produttore del dispositivo).
* Se hai Premier 2018 e versioni successive, ma Windows 7, i file non vengono importati, il problema è che in questa versione Premier apre hevc utilizzando il decoder di sistema MFC, che non è presente in Win7. In alternativa, puoi provare a rinominare mov in mp4.
* Se hai un vecchio Premier (2017.x - 2015.1) e Win 10, il modo più semplice è installare l'ultima versione di Premier, oppure puoi provare a rinominarlo in mp4 (i file mov con hevc all'interno si apriranno tramite Quicktime, ma QT non può funzionare con hevc, quindi proviamo ad aprirli tramite ImporterMPEG).
* Se hai un vecchio Premier (2017.x - 2015.1) e Win 7, puoi provare a rinominarlo in mp4 (proviamo ad aprirlo tramite ImporterMPEG).
* Se hai un Premier molto vecchio (2015.0 e precedenti) e qualsiasi versione di Windows, dovrai ricodificare.

** Se hai installato la nuova Premiere, ma nella versione di prova, i file hevc in qualsiasi contenitore non si apriranno. È facile richiedere una prova versione completa hevc avrebbe dovuto essere disponibile per l'esportazione.
** Se rinominare i file non aiuta, è necessario ricodificarli. Puoi farlo subito sul tuo iPhone utilizzando l'applicazione "HEVC & H.264 Video Compressor"; sul tuo computer puoi ricodificarlo utilizzando HandBrake.

Potrebbe anche esserci un problema con l'audio e il video non sincronizzati sulla timeline. Ciò è dovuto al fatto che durante la registrazione alcuni fotogrammi potrebbero essere saltati (i cosiddetti vfr) e Premier 2015.0, 2017.x, 2018.0 non possono elaborarli correttamente. Pertanto, durante la transcodifica di tali file, utilizzare convertitori che consentano di correggere la frequenza fotogrammi (solitamente chiamata frequenza fotogrammi costante).

link utili

https://helpx.adobe.com/premiere-pro/using/whats-new.html
https://helpx.adobe.com/premiere-pro/kb/fixed-issues.html
https://blogs.gnome.org/rbultje/2016/12/13/overview-of-the-vp9-video-codec/

- Dentro! - frusciò il vecchio. - Dentro
guarda dove sono il suo analizzatore e pensatore...

A. e B. Strugatsky “La storia della troika”

La televisione, che è ormai saldamente radicata in ogni casa, sta cambiando rapidamente. Se i primi televisori, infatti, erano normali ricevitori supereterodina, i moderni centri multimediali non possono essere chiamati televisori. Si sono evoluti in sofisticati dispositivi computerizzati che forniscono allo spettatore la massima qualità di immagini e suoni e una serie di servizi aggiuntivi. Lo standard sovietico della televisione monocromatica e poi a colori prevedeva una risoluzione dell'immagine di 800 x 600 per la trasmissione analogica e una larghezza di banda di un canale di 6,5 MHz. La diagonale dei cinescopi a vuoto non superava i 67 cm (26 pollici).

I progressi nella creazione di pannelli al plasma e a cristalli liquidi con grandi diagonali (70 pollici non sono rari) hanno portato al fatto che la risoluzione delle immagini televisive doveva essere aumentata. È così che è nata la televisione ad alta definizione, il cui standard di fatto è diventato la risoluzione 1080p. Era impossibile trasmettere un'immagine con una tale risoluzione in formato analogico, poiché un canale occuperebbe una banda di circa 250 MHz e la televisione sarebbe diventata digitale. Per ottenere valori di bitrate accettabili per un segnale TV, questo viene compresso utilizzando software e hardware chiamati codec. Per l'HDTV, il codec standard è H.264/MPEG-4 AVC (Advanced Video Coding), tuttavia, a causa della comparsa sul mercato di dispositivi di visualizzazione con risoluzione 4K, e in futuro 5K e persino 8K, è diventato necessario per sviluppare un nuovo codec, chiamato H.265 o HEVC (High Efficiency Video Coding).

La differenza principale tra il nuovo codec e quello vecchio è che, a parità di qualità dell'immagine, un flusso video H.265 ha la metà del bitrate di uno stream compresso con il codec H.264. Ad esempio, se il bitrate per la trasmissione di un flusso video 1080p compresso con il codec H.264 con un frame rate di 30 Hz è di circa 4 Mb/s, per un'immagine compressa con il nuovo codec il bitrate scenderà a 2 Mb/s. S. Il codec supporta video con risoluzioni fino a 7680 x 4320 pixel, ovvero 8 MILA.

Le prestazioni più elevate di H.265 rispetto ai suoi predecessori sono dovute a tre innovazioni: una modifica nella dimensione massima del blocco, l'introduzione della decodifica parallela e l'implementazione dell'accesso casuale alle immagini all'interno del flusso video.

La dimensione massima del blocco nello standard H.264 è 256 pixel (16 x 16) e nello standard H.265 può essere 16 volte più grande (4096 = 64 x 64) e la dimensione del blocco viene selezionata dall'algoritmo stesso durante il processo di codifica, a seconda del contenuto dell'immagine codificata.

La capacità di decodifica parallela consente di elaborare parti diverse dello stesso fotogramma separatamente e simultaneamente. Ciò ti consente di sfruttare meglio le opportunità processori multi-core.

L'accesso casuale alle immagini (Clean Random Access) significa che la decodifica di un fotogramma selezionato casualmente di un flusso video viene eseguita senza la necessità di decodificare le immagini che lo precedono nel flusso. Per il multimediale questo non è particolarmente importante, ma per i sistemi di videosorveglianza è vitale.

Il profilo principale 10 del codec H.265 fornisce una migliore riproduzione del colore perché fornisce la codifica del colore a 10 bit, mentre tutti gli standard esistenti assegnano l'attributo di colore del pixel a 8 bit.

Il nuovo codec è progettato per funzionare con la scansione progressiva del segnale, sebbene sia supportato anche quello interlacciato.

Sfortunatamente, H.265 non implementava l'opzione di codifica scalabile, che era stata pianificata per essere introdotta in H.264. La presenza del ridimensionamento consentirebbe di trasferire immagini ai client utilizzando connessioni di rete relativamente lente senza sprecare ulteriore potenza di calcolo in elaborazioni aggiuntive.

I produttori di apparecchiature 4K spesso pubblicizzano il codec H.265 come mezzo per migliorare la qualità dell'immagine rispetto a H.264 e MPEG-4. Ciò non è del tutto vero, poiché in tutti questi codec il livello di compressione, e quindi la qualità dell'immagine, può essere impostato arbitrariamente. L'unica limitazione è la larghezza di banda dei canali di trasmissione, quindi se è sufficiente trasmettere immagini compresse secondo lo standard H.264, il passaggio alla compressione H.265 non porterà ad un aumento della qualità dell'immagine, ma allevierà solo la fatica. rete.

Riso. 1. Codificatore codec H.265
(Clicca sulla foto per ingrandirla)

Come la maggior parte dei codec video moderni, H.265 è più efficace nella compressione di scene statiche, come programmi di notizie, talk show, ecc., e funziona molto peggio con immagini che cambiano rapidamente, ad esempio durante la trasmissione di giochi sportivi.

Alcuni dubbi sulla giustificazione del passaggio ad un nuovo codec nascono dal fatto che oggi non vengono utilizzate tutte le capacità tecniche del codec precedente. La maggior parte dei produttori di apparecchiature e sistemi, in particolare, non sono passati a versioni più avanzate dei profili H.264.

È chiaro che la transizione verso un nuovo codec è una realtà che la comunità high-tech deve affrontare, ma i costi della transizione saranno molto significativi, poiché richiederanno l'acquisto di apparecchiature nuove e molto costose.

20.11.2013

Negli ultimi quattro anni, H.264 è diventato il codec video dominante nel settore della sicurezza, ma Ultimamente un certo numero di produttori ed esperti hanno iniziato a "spingere" H.265 in modo molto intenso. In relazione all'arrivo di un nuovo codec sorgono numerose domande. Innanzitutto al pubblico interessano due cose: quando l’HEVC diventerà di uso comune e quanto durerà. Tuttavia, gli editori sono interessati a cose un po’ più nascoste: ad esempio, chi trarrà i principali vantaggi dal passaggio a un nuovo standard di codifica e se si tratta di un altro trucco di marketing per spostare l’equilibrio del mercato verso determinati attori. Senza dubbio, con lato tecnico il nuovo formato differisce dai suoi predecessori. Vorrei solo assicurarmi che tutte le riserve del “vecchio” H.264 siano già esaurite. Dopotutto, cambiare formato è, in sostanza, una rivoluzione. Per il suo successo, come diceva nonno Lenin, è necessario che “le classi inferiori non vogliano, ma le classi superiori non possono”.

Le principali differenze di marketing dichiarate - o, in termini semplici, il "trucco" del codec, chiamato sia HEVC che H.265, sono che con la stessa qualità dell'immagine, il flusso video H.265 ha la metà del bitrate rispetto al flusso compresso dal codec H .264. Ad esempio, se il bitrate per la trasmissione di un flusso video 1080p compresso con il codec H.264 a una frequenza fotogrammi di 30 fotogrammi al secondo è di circa 4 megabit al secondo, per un'immagine di qualità equivalente compressa con il nuovo codec H.265 , il bitrate scenderà a 2 megabit al secondo. Sembra interessante, tuttavia, come sempre, sorge la domanda sul prezzo di questa transizione.

Sfortunatamente non spetta a me e te decidere se il gioco valga la candela. La posizione dei redattori di Security News è nota. Sosteniamo la creazione di un codec specializzato che tenga conto di tutte le caratteristiche e i requisiti specifici imposti alla trasmissione di dati video nei sistemi di sicurezza. Sorprendentemente, nonostante l'origine “multimediale” del codec H.265, alcune delle “nostre” esigenze sono state prese in considerazione qui (leggi di seguito). L'ultima parola, come di consueto nelle industrie serie, è sempre di competenza dei grandi produttori di apparecchiature e sistemi. E le "balene" dell'industria della sicurezza non hanno fretta di aggiungerne una al nome del codec: da un lato, la manovrabilità degli impianti di produzione non è così elevata e, dall'altro, ci sono troppe risorse in l'anno scorsoè stato investito nella promozione di H.264. Non lasciare che la bontà vada sprecata...

Differenze tecniche di H.265

Le prestazioni migliorate del nuovo codec rispetto ai suoi predecessori sono dovute a numerosi miglioramenti strutturali significativi. Tre di questi sono decisivi: modificare la dimensione massima del blocco, introdurre la decodifica parallela e implementare l'accesso casuale alle immagini all'interno del flusso video.

Dimensione massima del blocco nello standard H.264 è 256 pixel (16 x16), e nello standard H.265 può essere 16 volte più grande (4096 = 64 x 64). È interessante notare che nello standard H.265 la dimensione del blocco viene selezionata dall'algoritmo stesso durante il processo di codifica, a seconda del contenuto dell'immagine codificata. Secondo i sostenitori del nuovo standard, la dimensione variabile dei blocchi e l'aumento del limite massimo di tale dimensione consentiranno un'elaborazione più efficiente delle immagini ad alta risoluzione. A proposito, il nuovo standard supporta risoluzioni pixel fino a 8192 x 4320 (35 megapixel), il più alto degli standard televisivi moderni, chiamato anche 8K.

Opportunità decodifica parallela, fornito nei decoder H.265, consente di elaborare separatamente e simultaneamente diverse parti dello stesso frame. Questa elaborazione può accelerare notevolmente la riproduzione e offre l'opportunità di sfruttare i processori multi-core, che oggi hanno guadagnato grande popolarità nei mercati orientati all'IT. Il codec H.264 non forniva tali funzionalità.

La nuova norma prevede accesso casuale alle immagini(Accesso casuale pulito). Ciò significa che un fotogramma selezionato casualmente di una sequenza video viene decodificato senza la necessità di decodificare le immagini che lo precedono nello streaming. Per i contenuti multimediali, l'accesso casuale non è fondamentale, ma per la videosorveglianza, in particolare il monitoraggio in tempo reale, questa caratteristica è altamente auspicabile: passando a un flusso video specifico per ragioni di necessità operativa, l'operatore dovrebbe ricevere immediatamente un'immagine sul suo schermo: nelle applicazioni di sicurezza uno o due secondi possono essere decisivi. Tralasciando i complessi dettagli tecnici su come questo viene implementato nel nuovo codec, vale la pena ricordare che non richiede l'inserimento obbligatorio di fotogrammi di riferimento intermedi (I-frame) nel flusso video, grazie ai quali il bitrate aumenta significativamente.

Dal punto di vista caratteristiche tecniche del segnale video da codificare, il suo profilo "superiore" Main 10 fornisce una qualità del colore più elevata poiché fornisce una codifica del colore a 10 bit, mentre tutti gli standard esistenti, incluso il profilo Main 8 "inferiore" dello stesso H.265, allocano solo un pixel attributo colore 8 bit.

Lo standard fornisce mezzi per determinare automaticamente il tipo di scansione, tuttavia, a differenza dei suoi predecessori, il codec si concentra inizialmente sull'elaborazione delle immagini video ottenute mediante scansione progressiva. Ma ciò non significa che H.265 non sia in grado di funzionare con la scansione interlacciata: gli sviluppatori hanno tenuto conto del fatto che un numero sufficientemente elevato di sistemi in funzione genera frame da due campi.

Ma ecco ciò che manca significativamente al codec H.265: codifica scalabile. Si prevedeva che fosse implementato in H.264, ma per qualche motivo non è stato possibile farlo in nessuno di questi standard. La presenza del ridimensionamento consentirebbe di trasferire immagini ai client utilizzando connessioni di rete relativamente lente senza sprecare ulteriore potenza di calcolo in elaborazioni aggiuntive. In una certa misura, il ridimensionamento contribuisce anche a un uso più razionale dell'archiviazione dei dati video nei sistemi. Attualmente, la codifica scalabile rientra tra le estensioni previste dello standard. Secondo gli esperti, l’esigenza di scalabilità è dettata in gran parte dal boom emergente delle tecnologie cloud per la memorizzazione e l’elaborazione dei dati.

Comprensione dello standard HEVC (H.265).

Lo standard HEVC (High Efficiency Video Coding) definisce un formato di compressione video destinato a sostituire lo standard H.264/MPEG-4 AVC (Advanced Video Coding) precedentemente adottato, sviluppato congiuntamente dal gruppo di esperti dell'industria video. ) immagini video Organizzazione internazionale sulla standardizzazione ISO e il Gruppo di esperti di codifica video (VCEG) dell'Unione internazionale delle telecomunicazioni. Il primo gruppo di sviluppatori ha dato allo standard il nome interno ISO/IEC 23008-2 MPEG-H, parte 2, mentre il secondo H.265.

Si sostiene che lo standard HEVC consenta di raddoppiare il rapporto di compressione dei dati video digitali rispetto al suo predecessore o di migliorare significativamente la qualità dell'immagine mantenendo la densità di bit dei dati. Il nuovo algoritmo di compressione supporta lo standard ad altissima definizione 8K e risoluzioni di pixel dell'immagine fino a 8192 x 4320.

Gli ambiti di applicazione dello standard sono la televisione broadcast, la multimedialità, la televisione industriale e la videosorveglianza. La data di pubblicazione ufficiale della prima versione dello standard è il 13 aprile 2013. Numerosi punti previsti per l'implementazione nello standard sono rimasti non realizzati al momento della sua pubblicazione, e attualmente un team congiunto di esperti sta lavorando su ulteriori estensioni dello standard, le più importanti delle quali sono la codifica scalabile e il video 3D.

Ciò che aiuta a migliorare la qualità dell'immagine

Un gran numero di produttori di prodotti IT stanno promuovendo il formato di compressione H.265 come mezzo per migliorare la qualità delle immagini. Va notato che questo è in una certa misura falso. In realtà, le immagini compresse con un codificatore H.265 non hanno una qualità superiore a quelle elaborate con l'algoritmo H.264, che a sua volta non è migliore in termini di qualità di MPEG-4. Poiché tutti i codec menzionati offrono la possibilità di impostare arbitrariamente il livello di compressione, la qualità dell'immagine compressa dipende solo dalle preferenze dell'utente. Un'altra cosa è adattare l'immagine video alla realtà dell'ambiente tecnico. Innanzitutto, ciò riguarda le risorse di larghezza di banda della rete.

Se la tua rete dispone di larghezza di banda sufficiente per supportare immagini compresse H.264, il passaggio alla compressione H.265 non fornirà alcun miglioramento nella qualità dell'immagine. Una tale transizione può solo ridurre il bitrate, ovvero alleviare in qualche modo la tua rete. L'unico caso in cui il passaggio a un nuovo codec aiuterà a migliorare la qualità dell'immagine è se, per motivi di risparmio del bitrate, le immagini sono state ovviamente eccessivamente compresse dal codec H.264 e gli artefatti di compressione hanno interferito con la lettura efficiente dei dettagli da parte degli operatori e degli analisti video .

Dubbi e limiti

Come la maggior parte dei codec video moderni, H.265 è più efficace (cioè è in grado di confermare le aspettative del marketing) in scene di sorveglianza relativamente semplici, dove non ci sono bruschi cambiamenti di contrasto e non c'è movimento intenso di oggetti e sfondi. Il risparmio promesso del 50% in termini di bitrate/volume di archiviazione riguarda principalmente queste scene. Cioè, in condizioni reali - in un incrocio trafficato o nell'area di vendita di un supermercato - le cifre di risparmio saranno significativamente inferiori.

Inoltre oggi tutti i vantaggi “economici” del codec precedente non sono più richiesti. La maggior parte dei produttori di apparecchiature e sistemi, in particolare, non sono passati a versioni più avanzate dei profili H.264. Nella videosorveglianza vengono spesso utilizzati tre profili di questo standard. Il profilo di base rappresenta il risparmio minimo di larghezza di banda e il carico minimo sulle risorse di elaborazione. Negli ultimi anni ha guadagnato la massima popolarità tra i venditori. Il profilo principale (Main) prevede, secondo i risultati di test indipendenti, un miglioramento delle prestazioni del 10-30% rispetto a quello base. Negli ultimi mesi i produttori hanno mostrato un crescente interesse per questo particolare profilo. Il profilo Alto offre vantaggi ancora più significativi, ma oggi il numero di fornitori che hanno fornito compatibilità con questo profilo si può letteralmente contare sulle dita di una mano.

In altre parole, i produttori hanno spazio per svilupparsi anche senza un nuovo codec, senza correre rischi inutili e muovendosi lungo un percorso relativamente consolidato. Poiché il settore, con il passaggio al video IP, sta diventando sempre più “IT”, qui iniziano a funzionare le considerazioni tipiche degli amministratori di sistema: ciò che funziona normalmente è meglio non cambiarlo o toccarlo affatto.

UHDTV è uno standard televisivo digitale ad altissima definizione (Ultra Alta definizione televisione, UHDTV). Altri nomi sono Ultra HD e Video ad altissima definizione (UHDV).

In termini semplici, UHDTV è un tipo di risoluzione dell'immagine, ad es. il numero di punti colorati (pixel) di cui è composto.
Per fare un confronto, la risoluzione massima del formato SD standard è di 400mila pixel (720×576), HDTV è di 2 milioni di pixel (1920×1080) e per UHDTV questa cifra può raggiungere 7680×4320 (33,2 megapixel).

UHDTV è disponibile in due standard: 4K Ultra HD con una risoluzione di 3840x2160 e 8K Ultra HD o 4320p con una risoluzione di 7680x4320. Il formato più recente (8K) è molto raro.

Applicazione dell'UHDTV nella pratica

Come probabilmente hai già capito, il formato UHDTV può essere supportato solo dai televisori con una matrice adatta a questa risoluzione. La differenza sarà particolarmente evidente per i possessori di televisori a grande schermo: i “cubi” (gli stessi pixel) saranno così piccoli che diventeranno completamente invisibili.

Tuttavia, nonostante tutti i vantaggi dell’UHDTV, i contenuti in questo formato sono pochissimi. Ad esempio, la TV satellitare MTS ha un solo canale con risoluzione 4K, tutto il resto è in formato SD o HD. La situazione è più o meno la stessa con gli altri fornitori russi di televisione via cavo e via satellite. Ciò è dovuto al fatto che le trasmissioni di così alta qualità occupano molto "spazio" nel flusso del segnale; in parole povere, invece di un canale in UHDTV, è possibile trasmettere più canali in SD o HD. Pertanto, i possessori di televisori UHDTV possono godere appieno di immagini di alta qualità principalmente durante la visione di dischi Blu-ray.

Dovresti preoccuparti se la tua TV non supporta UHDTV? No, i possessori di televisori che supportano il formato HD potranno guardare le trasmissioni UHDTV in qualità HD.

È importante capire che, sebbene questo formato non sia così diffuso oggi, rappresenta il futuro. Dopotutto, una volta la risoluzione HD era una novità e ora quasi tutti i modelli TV ne sono dotati. Pertanto, non è necessario preoccuparsi se la TV non supporta UHDTV, ma questo momento non perderai molto.
Ma il nuovo formato non può essere cancellato: dopo la massiccia introduzione di nuovi codec e tecnologie più economiche per la produzione di televisori che lo supportano, l'UHDTV diventerà diffuso quanto il familiare HD.

Più di sei anni fa, il 13 settembre 2010, al forum IDF, Intel ha presentato la microarchitettura dei processori Sandy Bridge, la seconda generazione di processori Intel Core. Il processore e il core grafico sono stati combinati su un unico chip e il core grafico stesso è stato notevolmente aggiornato e ha aumentato la frequenza di clock. Fu a Sandy Bridge che apparve una "arma segreta": la tecnologia Intel Quick Sync Video (QSV) per l'accelerazione hardware della codifica e decodifica video. Una piccola sezione del SoC è stata appositamente allocata per ospitare i circuiti integrati specializzati che se ne occupano soltanto video. Era un vero transcodificatore hardware.


Scheda grafica HD 530 di nona generazione integrata sul processore Intel Core i7 6700K con 24 unità di esecuzione (EU) organizzate in tre blocchi da 8 unità.

Sorprendentemente, Intel è riuscita a battere sia AMD che Nvidia nell'implementazione dell'accelerazione hardware della codifica video: tecnologie simili AMD Video Codec Engine e Nvidia NVENC in Schede video AMD e Nvidia è apparsa con un ritardo significativo (gli algoritmi di compressione richiedono un serio adattamento ai processori della scheda video). Ecco perché l'idea e lo sviluppo di QSV sono stati tenuti segreti per cinque anni.

Dire che QSV era richiesto è non dire nulla. La riproduzione (decodifica) di video con supporto hardware ora richiede molte meno risorse da altre attività nel sistema operativo, riscalda meno la CPU e consuma meno energia.

Inoltre, negli ultimi anni, la codifica video è diventata una delle attività che richiedono più risorse su un PC. La popolarità di YouTube ha trasformato milioni di persone in cameramen e registi. E poi c’è l’ubiquità degli smartphone, che richiedono la transcodifica da DVD a AVC MP4/H.264 compresso. Di conseguenza, quasi tutti i PC sono diventati uno studio video. L’IPTV e lo streaming video su Internet si sono diffusi in modo massiccio. Il computer ha iniziato a fungere da TV. Il video è diventato onnipresente ed è diventato uno dei tipi di contenuto più popolari su PC. Viene codificato e transcodificato costantemente e ovunque: a bitrate diversi, a seconda del tipo di dispositivo, delle dimensioni dello schermo e della velocità di Internet. In una situazione del genere, si è suggerita la possibilità di una codifica e decodifica video rapida nei processori. Pertanto, nella GPU Intel è stato integrato un codificatore/decodificatore hardware.

Un codec moderno elabora ogni fotogramma individualmente, ma analizza anche la sequenza di fotogrammi per le ripetizioni nel tempo (tra fotogrammi) e nello spazio (all'interno di un singolo fotogramma). Questo è un problema computazionale complesso. Di seguito è riportato un fotogramma di esempio di un video codificato con il codec HEVC più recente. Per un'area specifica vicino all'orecchio della lepre, mostra esattamente come sono state codificate le diverse parti dell'inquadratura. Vengono inoltre mostrati la posizione e il tipo di frame nella struttura complessiva del flusso video. Senza entrare nei dettagli degli algoritmi di compressione video, questo dà un'idea generale di quante informazioni devono essere analizzate per codificare e decodificare efficacemente i video.


Screenshot di un video aperto nel programma Elecard StreamEye, 1920×1040

Il supporto hardware per la codifica e la decodifica significa che i circuiti integrati specializzati per compiti di codifica e decodifica specifici sono implementati direttamente nel processore. Ad esempio, la trasformata coseno discreta (DCT) viene eseguita durante la codifica e la trasformata coseno discreta inversa viene eseguita durante la decodifica.

Negli ultimi cinque anni, la tecnologia Intel QSV ha fatto notevoli progressi. Aggiunto supporto per codec video gratuiti VP8 e VP9, ​​driver aggiornati per Linux, ecc.

La tecnologia è migliorata con ogni nuova generazione di Intel Core, fino all'attuale Skylake di sesta generazione.

Microarchitettura GPU di nona generazione

L'ultima versione di QSV 5.0 è stata rilasciata insieme alla microarchitettura del kernel Skylake di sesta generazione. Questa versione La GPU nella documentazione ufficiale di Intel è classificata come Gen9, ovvero grafica di nona generazione.


Processore Intel Desktop Core i7 6700K è dotato di 4 core CPU e scheda grafica HD 530 di nona generazione integrata

Con ogni nuova microarchitettura, il numero di unità di esecuzione delle istruzioni (EU) nella GPU aumentava. È aumentato da 6 in Sandy Bridge a 72 nella grafica Iris Pro Graphics 580 di fascia alta su cristalli Skylake. Per questo motivo, le prestazioni della GPU sono aumentate di dieci volte senza aumentare la frequenza di clock. In tutta la grafica ultima generazione Iris e Iris Pro dispongono di cache di livello 4 integrata da 64 o 128 MB.

▍Microarchitettura delle unità di esecuzione delle istruzioni (UE)

L'elemento fondamentale della microarchitettura Gen9 è l'unità di esecuzione delle istruzioni (EU). Ogni UE combina il multi-threading simultaneo (SMT) e il multi-threading interleaved (IMT) attentamente configurato. È qui che operano le unità logiche aritmetiche a istruzione singola e flusso di dati multipli (SIMD ALU). Sono costruiti lungo pipeline di numerosi thread per operazioni in virgola mobile e interi ad alta velocità.

L'essenza del multithreading interleaved nell'UE è garantire un flusso continuo di istruzioni pronte per essere eseguite, mettendo allo stesso tempo in coda operazioni più complesse, come l'allocazione di memoria di vettori, richieste di campionamento o altre comunicazioni di sistema, con una latenza minima.


Unità di esecuzione (UE)

Ogni thread nel blocco di esecuzione delle istruzioni Gen9 contiene 128 registri di uso generale. Ciascun registro contiene 32 byte di memoria, disponibili come vettore SIMD a 8 elementi o elementi dati a 32 bit. Pertanto, sono presenti 4 KB di file di registro per uso generale (GRF) per thread. Ci sono solo 7 thread per UE con un totale di 28 KB di GRF per UE. Il sistema di indirizzamento flessibile consente di indirizzare più registri insieme. Lo stato del thread è attualmente archiviato in un file di architettura del registro separato (ARF).

A seconda del carico, i thread hardware nell'UE possono eseguire un codice in parallelo da un core di calcolo o possono eseguire codice da core di calcolo completamente diversi. Lo stato di esecuzione di ciascun thread, inclusi i relativi puntatori alle istruzioni, è archiviato nel suo ARF indipendente. Ad ogni ciclo, l’UE può emettere fino a quattro istruzioni diverse, che devono provenire da quattro thread diversi. Uno speciale arbitro del thread invia queste istruzioni a uno dei quattro blocchi funzione per l'esecuzione. Tipicamente, l'arbitro può scegliere tra istruzioni eterogenee per caricare simultaneamente tutti i blocchi funzione e ottenere così il parallelismo a livello di istruzione.

La coppia di FPU nel diagramma esegue effettivamente sia operazioni in virgola mobile che operazioni su numeri interi. Nella Gen9, questi moduli possono elaborare non solo fino a quattro operazioni con numeri a 32 bit, ma anche fino a otto operazioni con numeri a 16 bit per ciclo. Le operazioni di addizione e moltiplicazione vengono eseguite simultaneamente, ovvero l'unità UE è in grado di eseguire un massimo di 16 operazioni con numeri a 32 bit in un ciclo: 2 FPU di 4 operazioni × 2 (addizione + moltiplicazione).

La generazione del codice SPMD per il caricamento multi-thread di EU viene eseguita dai compilatori corrispondenti, come RenderScript, OpenCL, Microsoft DirectX Compute Shader, OpenGL Compute e C++AMP. Il compilatore stesso seleziona euristicamente la modalità di caricamento del thread (larghezza SIMD): SIMD-8, SIMD-16 o SIMD-32. Pertanto, nel caso del SIMD-16, è possibile eseguire simultaneamente 112 (16×7) thread su un EU.

Lo scambio di dati all'interno di un'istruzione all'interno di un blocco EU può essere, ad esempio, 96 byte in lettura e 32 byte in scrittura. Quando si scala l'intera GPU, tenendo conto di diversi livelli di gerarchia di memoria, risulta che il limite teorico massimo per lo scambio di dati tra FPU e GRF raggiunge diversi terabyte al secondo.

▍Scalabilità

La microarchitettura della GPU è scalabile a tutti i livelli. La scalabilità a livello di thread si traduce in scalabilità a livello di blocchi di esecuzione dei comandi. A loro volta, questi blocchi di esecuzione dei comandi verranno combinati in gruppi di otto (8 EU = 1 sottosezione).

Ad ogni livello di scala ci sono moduli locali che funzionano solo qui. Ad esempio, ogni gruppo di 8 blocchi UE ha il proprio thread manager locale, porta dati e campionatore di texture.


Gruppo di 8 blocchi UE (sottosezione)

A loro volta, gruppi di 8 EU vengono combinati in gruppi di 24 EU (3 sottolicenze = 1 fetta). Queste 24 sezioni di blocchi sono a loro volta anche scalabili: la grafica Gen9 esistente contiene 24, 48 o 72 EU.

La grafica Gen9 aumenta la dimensione della cache L3 a 768 KB per gruppo di 24 EU. Tutti i campionatori e le porte dati dispongono della propria interfaccia di accesso L3, che consente la lettura e la scrittura di 64 byte per ciclo. Pertanto, ci sono tre porte dati per gruppo di 24 EU con una larghezza di banda di trasferimento dati alla cache L3 di 192 byte per ciclo. Se su richiesta non sono presenti dati nella cache, i dati vengono richiesti o inviati per la scrittura nella memoria di sistema, sempre a 64 byte per ciclo.


Microarchitettura Gen9 di due gruppi di 24 (3x8) EU

Questa scalabilità consente di ridurre efficacemente il consumo energetico spegnendo i moduli che non sono attualmente in uso.

Cosa può fare QSV in Skylake

Gen9 ha introdotto il supporto completo per l'accelerazione hardware durante la codifica e decodifica H.265/HEVC, supporto parziale per la codifica e decodifica hardware con il codec VP9 gratuito. Sono stati apportati miglioramenti significativi alla tecnologia QSV. Migliorano la qualità e l'efficienza della codifica e della decodifica, nonché le prestazioni del filtro nei programmi di transcodifica e editing video che utilizzano l'accelerazione hardware.

La grafica Skylake integrata supporta gli standard DirectX 12 Feature Level 12_1, OpenGL 4.4 e OpenCL 2.0. Si è deciso di abbandonare completamente i monitor VGA, ma le GPU Skylake supportano fino a tre monitor con interfacce HDMI 1.4, DisplayPort 1.2 o Embedded DisplayPort (eDP) 1.3.

L'accelerazione hardware della decodifica video è disponibile per il driver grafico tramite Direct3D Video API (DXVA2), Direct3d11 Video API o Intel Media SDK, nonché tramite filtri MFT (Media Foundation Transform).

La grafica Gen9 supporta la decodifica con accelerazione hardware di AVC, VC1, MPEG2, HEVC (8 bit), VP8, VP9 e JPEG.

▍Decodifica video accelerata tramite hardware

Codec
Profilo
Livello
Risoluzione massima
MPEG2
Principale
Principale
Alto
1080p
VC1/WMV9
Avanzate
Principale
Semplice
L3
Alto
Semplice
3840×3840
AVC/H264
Alto
Principale
MVC e stereo
L5.1
2160p(4K)
VP8
0
Livello unificato
1080p
JPEG/MJPEG
Linea di base
Livello unificato
16k×16k
HEVC/H265
Principale
L5.1
2160(4K)
VP9
0 (4:2:0 Crominanza a 8 bit)
Livello unificato
ULT, 4K 24 fps a 15 Mbps
ULX, 1080p 30 fps a 10 Mbps

 

 

Questo è interessante: