Startseite Fernseher Dolby Vision HDR – was bringt mir das? Und wie unterscheiden sich HDR10, HDR10+ und Dolby Vision?

HDR – was bringt mir das? Und wie unterscheiden sich HDR10, HDR10+ und Dolby Vision?

HDR ist neben Ultra-HD-4K die wohl wichtigste Technologie, die in den letzten Jahren in Fernseher integriert wurde. Wir erklären dir, was die Unterschiede zwischen den HDR-Standards sind, und worauf du achten solltest.
2
HDR - was bringt das? Unterschied Dolby Vision und HDR10+ Bild: Dolby

HDR, HDR10, HDR10+, HLG, Dolby Vision – aktuell geistern viele Begriffe durch die TV-Welt. Sie alle beschreiben verschiedene HDR-Technologien. Doch was steckt hinter den Begriffen – und was bringt dir HDR eigentlich? Unser Ratgeber hilft dir auf die Sprünge.

High Dynamic Range: Mehr Helligkeit, mehr Farben

Fast jeder neue Fernseher unterstützt heutzutage die Wiedergabe von 4K-Ultra-HD-Inhalten, und HDR gehört aktuell zu den am meisten beworbenen Features der neuen TVs. Die Abkürzung steht für High Dynamic Range (also hohen Dynamik-Umfang) und ist neben der 4K-Auflösung aktuell das Upgrade für Videoinhalte schlechthin. Der Gegenbegriff zu HDR ist SDR, was für Standard Dynamic Range, den herkömmlichen Dynamikumfang, steht.

Die High Dynamic Range erhöht die Helligkeitsspanne der Bilder und hebt die Farbtiefe von acht auf zehn (und mitunter sogar zwölf) Bit an. Das heißt, dass bei HDR-Content helle Bildbereiche noch heller und dunkle Bildbereiche noch dunkler dargestellt werden. Mit der höheren Farbtiefe lassen sich viel mehr Farbnuancen darstellen. Außerdem werden auf diese Weise genauere Abstufungen innerhalb der Helligkeitsbereiche erreicht, was eine realitätsgetreue, tiefere Bilddarstellung erwirktIn Zahlen ausgedrückt: 8 Bit Farbtiefe bringen es auf 16,77 Millionen mögliche Farben, mit 10 Bit kommt man auf über 1 Milliarde Farbtöne. Damit kommt HDR dem, was das menschliche Auge wahrnimmt schon deutlich näher als SDR das vermochte.

Im Vergleich zu SDR bietet die Darstellung in HDR deutlich stärkere Farben und Kontrastwerte. | Bild: LG

Der höhere Spielraum an Helligkeitswerten wird dabei nicht allein dazu genutzt, das gesamte Bild aufzuhellen. HDR  stellt durch kleinere Abstufungen nuanciert beispielsweise dunkle Schatten, feingezeichnete helle Wolken oder strahlend helle Scheinwerfer besser dar.

HD, HDR, SD und SDR

Manche Abkürzungen sehen sich zum Verwechseln ähnlich und bezeichnen dabei völlig Verschiedenes. HD und SD stehen für hohe Auflösung (HD, High Definition) und Standard-Auflösung (SD, Standard Definition). UHD kommt als Abkürzung für Ultra High Definition hinzu, was üblicherweise „4K“ genannt wird.

HDR und SDR beziehen sich auf den Dynamikumfang des Videomaterials. Dazu zählen der Kontrast zwischen Hell und Dunkel sowie die darstellbaren Farben. HDR (High Dynamic Range) umfasst viel mehr Helligkeits- und Farbwerte als SDR. In der Praxis wird Ultra-HD meistens mit HDR gekoppelt. Grundsätzlich können Filme oder Videos auch in HD-Auflösung mit HDR übertragen werden. Das kommt in der Praxis aber kaum vor.

HDR vs. SDR – wozu ein neuer Standard?

Aber wo ist das Problem, einfach einen Fernseher mit mehr Helligkeit auszustatten oder mehr Farben darstellen zu lassen – wozu braucht es hier sowas wie einen HDR Standard? Das liegt daran, dass man auf der einen Seite Inhalte braucht, die die neuen Möglichkeiten des Fernsehers auch ausreizen, aber gleichzeitig die alte Technik weiterhin funktionieren muss. Wenn du eine alte Blu-ray ohne HDR auf einem HDR-fähigen Fernseher anschaust, kann das Gerät sich die zusätzlichen Farben die er theoretisch darstellen kann ja nicht „ausdenken“, wenn die nicht auf der Disk gespeichert sind. Würdest du anders herum eine Blu-ray mit zusätzlichen HDR Farb- und Helligkeits-Informationen auf dem Fernseher darstellen wollen, wird er damit nicht umgehen können, weil das in den verfügbaren Standards nicht vorgesehen ist.

In alten TV-Standards wurde z.B. die maximale Helligkeit in der Videotechnik so festgeschrieben, wie es damals durch die Bildröhre technisch begrenzt war.

Röhrenfernseher
Die ersten Röhrenfernseher kamen 1934 auf den Markt, die ersten Farbgeräte 1954. TV-Standards sind sehr langlebig, weil diese sowohl bei der Film- und Serien-Produktion berücksichtigt werden müssen, bei der Produktion und Übertragung von TV-Programm und auch bei den TV-Geräten. Daher ändert man die nicht „mal eben“. | Bild: George Coletrain / Unsplash

Damals hat das Sinn gemacht, heute ist die Technik deutlich weiter und kann ein vielfaches der damaligen Helligkeit darstellen. Aber um das in der Praxis ermöglichen benötigt es einen neuen Standard der sowohl bei der Produktion als auch bei der Übertragung sowie beim Abspielen berücksichtigt wird. Und genau das ist die Idee von HDR-Standards.

So viel zur Grundfunktion. Bei der Umsetzung von HDR und Aufbesserung des TV-Bildes bedienen sich die verschiedenen Hersteller allerdings unterschiedlicher Herangehensweisen. Hier kommen die verschiedenen HDR-Standards ins Spiel.

HDR10: Basis-Standard mit Limits

Die am häufigsten eingesetzte Technologie ist aktuell HDR10. Das steht für HDR mit 10 Bit Farbtiefe. Metadaten zur Farbdarstellung werden bei diesem Verfahren jeweils für den ganzen Film oder die ganze Folge an den Fernseher übertragen. Die Technik ist offen nutzbar und wird von fast allen Herstellern sowie Content-Anbietern und Medien (Netflix, Amazon Prime Video, Blu-ray und so weiter) unterstützt.

Hier ein HDR10 Demo-Video auf YouTube. Aber Achtung: Ob du hier wirklich HDR siehst, hängt von deinem Browser und deinem Bildschirm ab. So bekommst du raus ob du HDR siehst oder nicht: Wenn du auf das Video rechtsklickst und „Statistik für Interessierte“ auswählst steht im Falle von HDR Wiederhabe unter „Color“ bt2020, sonst bt709. In dem Fall siehst du eine von YouTube auf SDR umkodierte Version. 

Mit HDR10 erhält man – zumindest in der Theorie – ein besseres Bild, als bei SDR-4K-TV-Inhalten. Allerdings sind diese Metadaten statisch, was dazu führt, dass einzelne Bilder nicht individuell angepasst werden können. Dies kann problematisch sein. Folgen in einem Film etwa sehr häufig dunkle auf helle Szenen und anders herum, arbeiten diese stets mit den selben Einstellungen. Andere HDR-Standards ermöglichen daher unterschiedliche Zusatzinformationen für die individuellen Einzelbilder.

Dolby Vision: Die Lizenz für Premium-HDR

Das US-Unternehmen Dolby ist insbesondere für seine Entwicklungen im Audio-Sektor bekannt. Mit der HDR-Technik Dolby Vision wollte die Firma mit Sitz in San Francisco ursprünglich nur HDR-Bilder in Dolby Atmos-Kinosäle bringen. Inzwischen kann man das Premium-HDR aber auch im heimischen Wohnzimmer empfangen. 

Der große Vorteil gegenüber HDR10 ist, dass die Metadaten bei Dolby Vision für jede Szene oder gar jeden Frame hinterlegt werden können, was eine deutlich individuellere Bildoptimierung ermöglicht. Für die Nutzung seines Standards verlangt Dolby allerdings eine Gebühr von Herstellern und Anbietern. 

Netflix ist einer der Dienste, die bei ihren Eigenproduktionen Dolby Vision unterstützen. Auch Amazon bietet einige Titel mit dem Standard an, ebenso verschiedene UHD-Blu-rays. Jedoch ist HDR10 im Disc-Bereich aktuell noch deutlich verbreiteter, was sicherlich auch mit der Gebührenfreiheit zusammenhängt. 

Anders als bei HDR10, kann Dolby Vision nicht nur den gesamten Film mit Metadaten optimieren, sondern jedes einzelne Bild. | Bild: LG

Beide Standards können sowohl bei Content-Diensten als auch bei TV-Geräten problemlos nebeneinander existieren. Das ist etwa bei Netflix und Amazon der Fall – und TV-Geräte mit Dolby Vision unterstützen im Normalfall auch HDR10. Fast alle TV-Hersteller haben Modelle im Sortiment oder angekündigt, die Dolby Vision-Support mitbringen. Nur ein TV-Riese scheint diesen Weg nicht mitgehen zu wollen.

HDR10+: Samsungs eigener Standard

Anstatt sich des Dolby-Standards zu bedienen, hat TV-Hersteller Samsung seine HDR-Technologie mit dynamischen Metadaten herausgebracht. Es handelt sich um „HDR 10+“. Gravierende Qualitätsunterschiede zwischen HDR10+ und Dolby Vision lassen sich dabei aktuell nicht erkennen. Im Gegensatz zu Dolby Vision fallen für die TV-Hersteller bei Samsungs HDR-Verfahren keine zusätzlichen Lizenzkosten an. HDR10+ konnte sich so neben Dolby Vision etablieren und wird unter anderen von Amazon Prime unterstützt. Streaming-Pionier Netflix setzt hingegen auf Dolby Vision.

Um seinen eigenen HDR-Standard HDR10+ zu pushen, hat Samsung Verträge mit verschiedenen Filmstudios und Herstellern abgeschlossen. | Bild: Samsung

Aktuell gibt es zwar eher begrenzten HDR 10+ Content, Verträge mit großen Filmstudios wie 20th Century Fox und Warner Bros. sollen dem Standard allerdings zur Massentauglichkeit verhelfen. Neben ersten Blu-rays lassen sich entsprechende Inhalte auch über Amazon empfangen.

Dabei bieten nicht nur Samsung-Fernseher die passende Hardware für HDR10+. Auch Philips, Panasonic, HiSense und TCL haben entsprechende Modelle im Sortiment. Anders als Samsung unterstützen diese zum Teil aber auch Dolby Vision. 

HLG: Das HDR fürs TV-Programm

Mit den bisher behandelten Standards ist es nicht möglich, lineares TV-Programm mit HDR auszustrahlen. Hier kommt Hybrid Log Gamma, kurz HLG, ins Spiel. HLG ermöglicht die Darstellung von TV-Sendungen oder Live-Übertragungen von Sport-Ereignissen in besserer Bildqualität. 

Anstelle der Nutzung hinterlegter Metadaten wird bei HLG die vom Videomaterial gelieferte Gammakurve durch eine logarithmische Kurve um zusätzlichen Kontrast erweitert. Dies soll der Bildqualität von HDR10 sehr nahe kommen. Und es hat den Vorteil, mit TV-Geräten ohne HDR-Unterstützung kompatibel zu sein.

Der Großteil aller UHD-TVs ist HLG-ready, jedoch kommen die Inhalte nur allmählich. Der von den Sendern BBC (Großbritannien) und NHK (Japan) entwickelte Standard ist bislang der einzige für HDR-Fernsehen. Über Satellit gibt es die ersten UHD-Sendungen mit HDR zu sehen. Ein Anbieter ist HD+, das HD-Angebot von den großen Privatsendern wie RTL, SAT.1 und Co., das über ASTRA 19.2° Ost abgestrahlt wird.

Worauf solltest du beim TV-Kauf achten?

Ob sich einer oder zwei HDR-Standards letzten Endes durchsetzen, ist noch unklar. Auch eine andauernde Koexistenz der verschiedenen Standards ist durchaus denkbar. Solange die meisten TV-Hersteller sich nicht auf einen Dienst fokussieren, ist dies auch für die Kunden nicht weiter von Nachteil. 

HDR-Studiomonitore wie der „Pulsar“ von Dolby können mit bis zu 4000 Nits (Einheit der Leuchtdichte) um ein vielfaches heller sein als herkömmliche TV-Modelle (maximal etwa 600 Nits). Sehr gute HDR-TVs mit LCD-Displays schaffen Spitzenhelligkeiten von über 1000 Nits, manche QLED-Modelle sogar über 2.000 (kurzzeitig).

OLED-Fernseher bleiben in der Spitzenhelligkeit zwar darunter, erreichen aber über ihren idealen Schwarzwert mit selbstleuchtenden Pixeln  ebenfalls erstklassige HDR-Eigenschaften. So erfüllen sowohl OLED-TVs als auch die besten LED- bzw. QLED-Fernseher die hohen HDR-Anforderungen von „Ultra-HD-Premium“.

Die allgemeine Angabe „HDR“ bei TV-Geräten sagt zunächst nur aus, dass HDR-Bildsignale störungsfrei wiedergegeben werden. Die preiswertesten HDR-fähigen Fernseher sind nur wenig heller oder kontraststärker als herkömmliche Fernseher ohne HDR. Die besten HDR-Bilder bringen derzeit OLED-TVs und QLED-TVs. Mehr zu den Unterschieden von QLED und OLED sowie Vor- und Nachteilen erfährst du in unserem Ratgeber.

Beim TV-Kauf sollte man aktuell darauf achten, dass HDR10 und entweder Dolby Vision oder HDR10+ unterstützt werden, um zukunftsfest in die HDR-Epoche einzusteigen. Etwa mit den OLED-TVs OLED805 und von Philips und den Ultra-HD-Fernsehern von Panasonic wie dem HZW1004 gibt es aber auch Fernseher, die sowohl HDR10+ als auch Dolby Vision unterstützen. Wer viel klassisches Fernsehen schaut oder Sport-Fan ist, sollte zudem nach dem HLG in der Ausstattungsliste Ausschau halten.

HDR-Referenzvideo im Netz

Wenn Du dir selber ein Bild davon machen möchtest, wie dasselbe Videomaterial in HDR10, HDR10+ und Dolby Vision aussieht, solltest du mal die Internetseite von Le Labo de Jay besuchen. Dort findest du HDR-Referenzvideos, an deren Erstellung auch der Bildexperte Florian Friedrich mitgewirkt hat. Die Unterschiede zwischen den HDR-Verfahren stecken allerdings tatsächlich in Feinheiten, die unter Umständen von den Eigenschaften deines TV-Geräts überdeckt werden.

Was sagst du zum Thema HDR? Hast du bereits gute Erfahrungen mit einem der aufgeführten Standards sammeln können? Teile deine Meinung mit uns in den Kommentaren!

zur Startseite Kommentare lesen (2)
Für Links auf dieser Seite erhält HIFI.DE ggf. eine Provision vom Händler, z.B. für mit * oder gekennzeichnete. Mehr Infos.

2 Kommentare

Diskutiere mit »
  1. AvatarDocBrown.

    Wie zukunftssicher ist HDR10+ denn?

    Ich möchte mir einen 4K Fernseher zulegen und habe zurzeit den Samsung Q95T in der engeren Auswahl. Dieser bietet leider kein Dolby Vision. Ein OLED kommt für mich nicht in Frage. Da nur QLED an die Bildqualität von OLED herankommt, gibt es nur Samsung zur Auswahl, welche allerdings auf ihren eigenen Standard setzen. Ist man mit HDR10+ für die nächsten 5 bis 10 Jahre gesichert oder sollte doch eher auf Dolby Vision gesetzt werden?

    1. AvatarHerbert Bisges

      Wir gehen davon aus, dass HDR10+ nicht vom Markt verschwinden wird, doch es gibt mehr Inhalte mit Dolby Vision. QLED TVs von Samsung geben Dolby Vision als HDR10 sauber wieder. Wir haben aktuell einen Q95T im Test, und überprüfen auch, wie Dolby-Vision-Inhalte auf dem lichtstarken QLED (als HDR10) herauskommen.

Kommentieren
Damit du kommentieren kannst, logge dich ein mit deinen Hifi-Forum-Zugangsdaten oder registriere dich hier kostenlos.