Umfrage: Schaut ihr HDR Videos auf YouTube?

    ACHTUNG: Mit der neuen EU Drohnenverordnung muß sich jeder Drohnen-Betreiber beim Luftfahrtbundesamt registrieren und seine Drohne mit der e-ID kennzeichnen! Ein passendes Kennzeichen bekommst Du hier im Shop. Außerdem benötigst Du eine Drohnen-Versicherung. Hier geht es zu unserem Drohnen-Versicherungsvergleich. Informationen zum neuen EU Drohnenführerschein gibt es hier.

    • Umfrage: Schaut ihr HDR Videos auf YouTube?

      Wer schaut HDR über YouTube an, oder hat es vielleicht zukünftig geplant? (3 Antworten möglich) 15

      Das Ergebnis ist nur für Teilnehmer sichtbar.

      Ich überlege, ob ich bei zukünftigen, oder auch Rückwirkend bei älteren Videos, noch zusätzlich HDR Versionen erstelle.
      Technisch gehen ist das nicht besonders schwer. Die größte Hürde ist mehr der Zeitfaktor/Arbeitsaufwand für das neue HDR Color Grading. SDR und HDR unterscheiden sich hier stark. Das Grading muss auf jeden Fall neu überarbeitet werden. Es gibt zwar auch Möglichkeiten, um nur mit einem Master zu arbeiten, qualitativ würde das aber meinen Anspruch nicht genügen. Daher kommt für mich nur ein getrenntes individuelles Color Grading für HDR und SDR separat in Frage.
      Mich persönlich ärgert das technische Limit von SDR schon an die 20 Jahre.

      Mir ist bewusst, dass das Ergebnis in einem technisch affinen Forum etwas verfälscht. Aber mal schauen... bin sehr gespannt auf die Ergebnisse!
    • Edit. Mir ist gerade eingefallen dass ich sogar einen HDR Monitor besitze. - Habe das mal für 15min ausprobiert, ließ sich im HDR Modus mit meinem alten Spyder Express aber nicht kalibrieren, seitdem ist der Modus aus. Ohne den Spyder bekomme ich meine drei Monitore farblich nicht auf einen Nenner, und das ist mir wichtiger als dass einer davon HDR kann.

      Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von gsezz ()

    • @gsezz Danke für deine Rückmeldung.


      @All Noch ein Hinweis. Richtige HDR Bildschirme haben 1000 nits und mehr. Gibt hierfür ver. Standards und Definitionen die erst weit in der Zukunft für die breite Maße je möglich sein wird.
      Sagen wir aber mal, wir orientieren uns bei 1000 nits, ist echt schon wirklich ordentlich, aber das können schon gar nicht mehr so viele Anzeigegeräte.
      Es gibt leider super super super viel Pseudo HDR :(

      Ein typischer 2000€ LG HDR TV hat ca. 800 nits (ist echt nicht schlecht und macht sehr viel Spaß, aber trotzdem noch nicht ganz bei HDR. Kann man aber nicht meckern!)
      Sehr viele Gaming HDR oder sonstige Monitore in normaleren Preisklasse kommen nicht mal auf 300nits.
      Auch ein Eizo HDR Monitor bei 5000€ kann nur 350nits rum in der Helligkeit darstellen. Wird aber auch als HDR beworben :(
      Erst der teurere 23.000€ Eizo Monitor kommt auf 1000 nits

      Ordentliches HDR können gar nicht so viele Endgeräte und sind recht teuer.
      Vieles ist leider Marketing und schlicht gelogen. Am besten immer auf die Nits achten und man erkannt schnell mit was man zu tun hat.
    • HDR Videos schaue ich hin und wieder mal auf dem Smartphone, speziell in YouTube. Wüsste auch garnicht, wo es großartig weitere HDR Inhalte geben sollte. Aber selbst dort gibt es meiner Erfahrung nach recht wenige Videos die tatsächlich in HDR aufgenommen worden sind. Wie und ob mein Handy diese Videos vollumfänglich darstellt kann ich auch nicht wirklich sagen (iPhone 12 Pro).

      Grundlegend ist das natürlich eine coole Geschichte, nur leider besitzen viele Leute aufgrund der Kosten noch kein HDR Bildschirm, Computer oder TV. Erstellt man selber ein Video mit 10 Bit Farbtiefe kämpft man mit enormen Datenmengen. Sowohl auf der Festplatte als auch bei der Verarbeitungen / beim rendern.

      Wenn man bedenkt, dass es einen Großteil der Leute gibt die nicht einmal 4K nutzen / nutzen können sollte man sich um HDR meiner Meinung nach erstmal keine Gedanken machen.
    • Lorch83 schrieb:

      Erstellt man selber ein Video mit 10 Bit Farbtiefe kämpft man mit enormen Datenmengen. Sowohl auf der Festplatte als auch bei der Verarbeitungen / beim rendern.
      Nun ja, die Datenmenge hängt zum einen von der Bit-Rate ab, nicht von der Bit-Tiefe. Sprich, es ist im DJI-Universum diesbezüglich egal, ob Clips mit irgendwas um die 130 MBit/s nun 8 Bit Video oder 10 Bit Video beinhalten. Auf Render-Zeiten hat Bit-Tiefe ebenfalls keinen Einfluss.
      Zum anderen nimmt man wenn möglich sowieso immer in 10 Bit auf, auch für SDR, sofern man damit denn irgendwas in der Postproduktion hinsichtlich Farben anstellen will.

      Lorch83 schrieb:

      Grundlegend ist das natürlich eine coole Geschichte, nur leider besitzen viele Leute aufgrund der Kosten noch kein HDR Bildschirm, Computer oder TV.
      Aber in letzter Zeit immer mehr. iPhones sowieso, aber auch die zuletzt herausgefallenen Macbook Pros haben HDR-Displays, und eignen sich hervorragend auch für die HDR-Content-Erstellung (konsistent 1000 nits in PQ, mit 1600 nits Peak, geht mit OLED bspw. gar nicht). Mehr dazu bei Bedarf bspw. bei liftgammagain.com oder hier facebook.com/groups/468885921110590/posts/671368194195694/

      Und man kann davon ausgehen, dass seitens Apple die zugrunde liegende Mini LED Technologie auch in die nächsten iMacs usw. wandert.

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von skyscope ()

    • Ja klar, umso mehr Daten pro Sekunde verarbeitet / aufgenommen werden umso größer ist dann am Ende auch die Datei. War vielleicht blöd ausgedrückt. Richtiger wäre natürlich gewesen "Erstellt man selber ein HDR-Video kämpft man mit..."


      skyscope schrieb:

      Aber in letzter Zeit immer mehr.
      Auch hier, klar es geht immer weiter und die Technik wird günstiger. Für den Normalverbraucher dauert es wohl noch etwas...kaum einer will ja jetzt schon 1000 Euro für einen Computer ausgeben...da wird bei knapp 2000 Euro keiner begeistert sein.

      Wir werden sehen wo es hinführt.

      Grüße
    • Lorch83 schrieb:

      Für den Normalverbraucher dauert es wohl noch etwas...kaum einer will ja jetzt schon 1000 Euro für einen Computer ausgeben...da wird bei knapp 2000 Euro keiner begeistert sein.
      Na ja, seit Einführung der Apple Silicon Prozessoren springen um mich herum auch so viele Normalverbraucher auf den Mac-Zug auf wie noch nie.
      Und ein Normalverbraucher nimmt vielleicht das eine oder andere in HDR auf (eben in Log oder RAW), aber er bearbeitet und erstellt i.d.R. ja auch keine Endprodukt-Filme in HDR. Und für HDR-Content-Ersteller sind 2000 oder auch 4000 € plötzlich extrem günstig, denn im Bereich für Grading adäquater HDR-Monitore geht es ab deutlich über 10.000 erst los. Bis jetzt.

      Wie auch immer, in spätestens 2 Jahren ist HDR Consumer-Mainstream, weil es im Gegensatz zu anderen Nebelkerzen (bspw. 3D) nichts grundsätzlich Neues und nur für eine besondere Gruppe an Konsumenten und Erstellern ist, sondern weil einfach zugute aller nur endlich 50 Jahre alte Standard-Zöpfe abgeschnitten werden (stark limitierte Bilddynamik, wegen ehemals Röhre), an die sich immer noch gehalten wird. Die gesamte Pipeline (Aufnahme, Verarbeitung) kann nun jeder vergleichsweise billig zuhause haben, nur die Displays bei vielen Consumern sind noch der limitierende Faktor. Und das ändert sich nun schnell.

      Dieser Beitrag wurde bereits 6 mal editiert, zuletzt von skyscope ()

    • Ich finde nicht dass UHD schon im Mainstream angekommen ist. Das ist doch immer noch die Ausnahme. Im Herbst habe ich meinen FireTV Stick mal auf 4k aufgerüstet, und war schockiert wie wenig UHD Inhalte tatsächlich verfügbar sind. Disney+ unterstützt es auf einigen Plattformen gar nicht. Bei Amazon und Netflix gibt es außer den Eigenproduktionen auch nur sehr wenig lizensiertes in UHD. Bei manchen UHD Titeln fällt sogar auf dass einzelne Szenen oder Kameraperspektiven hoch skaliert sind. Ich dachte UHD wäre längst die Norm, aber davon ist es noch sehr weit entfernt. Ich glaube nciht mal dass sich daran in zwei JAhren viel ändern wird. Die meisten Shows werden eben immer noch fürs Fernsehen produziert, da ist UHD kein Thema. (Und wird es wahrscheinlich auch nicht mehr werden...)

      Um auf HDR zurück zu kommen: Dass ich mir Youtube-Filmchen in tollster Qualität ansehen kann finde ich zweitrangig. Interessant ist das fürs Heimkinoerlebnis bei richtigen Filmen und Serien. Bis es sich lohnt dafür ein HDR Gerät anzuschaffen werden aber noch ein paar Jahre ins Land ziehen.

      Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von gsezz ()

    • Das meinte ich ja. Bei HD hat es schon ewig gedauert bis hier was im TV verfügbar war und Sender gab, die in höherer Auflösung ausgestrahlt haben bzw. ausstrahlen. Das gleiche bei UHD. Es gibt wenig Material, Sender senden sowieso nicht in 4K und die Streamingdienste kommen auch nicht wirklich hinterher...da wird HDR lange anstehen aber denke das haben wir jetzt ausführlich besprochen ;)
    • gsezz schrieb:

      Interessant ist das fürs Heimkinoerlebnis bei richtigen Filmen und Serien. Bis es sich lohnt dafür ein HDR Gerät anzuschaffen werden aber noch ein paar Jahre ins Land ziehen.

      Parallel-Universum?
      Netflix bietet zahllose Inhalte in Dolby Vision und/oder HDR10, Prime und Disney+ ebenso.
      Vielleicht mal die Endgeräte auf Kompatibilität prüfen, HDCP 2.2 ist bspw. Voraussetzung.
    • Kein Parallel Universum, andere Definition von zahllos und lohnen. Das ist doch keine lange Liste. (sogar noch krzer als vermutet)
      Edit. Ich finde darauf ganze fünf Titel die ich gesehen habe. /Edit
      Wie ich gesagt habe, hauptsächlich die Eigenproduktionen der Streamingdienste. Kino Blockbuster findet man nur sehr wenige darunter. Und unter "lohnen" verstehe ich, dass ich mir den Großteil von allem was ich schaue in UHD ansehen kann. Für jeden 10ten oder 20ten Film zahle bei einem Gerät nicht drauf.

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von gsezz ()

    • Ich habe mir noch lange dazu Gedanken gemacht.

      Auf YouTube gibt es schon einiges an HDR, teils gut gemacht, teils auch Fake.
      Bei den schlechten Umsetzungen haben die Leute dahinter den Sinn von HDR nicht verstanden, denke ich mir oft. Vielleicht dient es auch nur um Klicks zu genieren. Aber solche Videos werden sich zukünftig selbst aussortieren, wenn der Daumen runter geht.

      Ich finde HDR eines der spannendsten Erweiterungen der letzten 10 Jahre, auch als kreatives Element.

      z.B. kann man damit Lava sehr realistischer darstellen, oder eine beleuchtete Stadt in der Nacht, indem an diesen Stellen gezielt, z.B. der Straßenlaterne oder Lava, die Helligkeit stark angehoben wird. Der Rest vom Bild ist aber weiterhin unverändert. Es geht ja nicht darum das gesamte Bild kräftiger oder nur heller darzustellen. Das ist nur primitives ausnutzen der Technik, aber gar nicht der Sinn von HDR.

      In der jetzigen SDR Videowelt probiere ich die Eigenschaft einigermaßen zu simulieren, bin aber immer bei einer Helligkeit von 100nits gefangen. In HDR kann ich ein z.B. glitzern eines Wassertropfens auf 400, 600 oder 1000nits hochdrehen, je nach gewünschten Eindruck.
      In SDR muss ich optisch viel tricksen, mit Kontrasten, Farben, etc., um zumindest solch einen Bildeindruck als Gefühl zu vermitteln. Aber wirklich heller ist das Funkeln in SDR nicht, es wird nur durch optische Täuschung so vermittelt.
      Wir haben uns so daran gewöhnt, das menschliche Auge in der Bildbearbeitung zu täuschen, aber richtig echt fühlt es sich nicht an.
      Das ärgert mich, wie gesagt, schon an die 20 Jahre, aber mehr war leider einfach nicht möglich.
      Man kann alles hoch und runter bearbeiten, aber das Limit mit 100nits bleibt bestehen.

      Bei HDR kann man auf solche Tricksereien und optischen Täuschungen verzichten und bestimmte Bildbereiche jetzt wirklich in der Helligkeit, je nach Wunsch hochdrehen.
      Ich finde das eine fantastische weitere Möglichkeit in der Nachbearbeitung und teils auch als Stillmittel sehr reizvoll.

      Alleine aus dieser Sicht ist der Reiz enorm mit HDR arbeiten zu wollen für mich. Endlich nicht mehr mit den Limits aus der SDR Welt leben und faken zu müssen.

      Daher auch meine Hinweise, man benötigt ein getrennte SDR und HDR Color Grading, Ansonsten ist das kein wirklich gutes HDR oder SDR und bleibt weit hinter seiner Möglichkeiten.

      Ich bin auch sehr froh, dass ich damals sehr früh mit4K angefangen habe. Viele hatten mir gesagt, dass lohnt sich nicht und die enorme Datenmenge, etc. pp
      In der jetzigen Zeit würde ich mich extrem ärgern, wären die alten aufnehmen nur HD Aufnahmen gewesen.
      So ist es auch mit dem Thema HDR. In ca. 4 Jahren werden es viele Endgeräte darstellen können und ich werde froh sein, jetzt schon diese Entscheidung getroffen zu haben.

      Aktuell gibt es nicht so viele echte HDR Monitore.
      Eine Handvoll OLED oder mini-LED Bildschirme können es:
      Preise liegen hier zwischen 3000 und 6000€.

      HDR Referenzmonitore liegen bei 20.000 bis 35.000€.
      Einige Profis können nur auf solchen Monitoren arbeiten, gibt hier immer wilde Diskussionen :)
      Ich kann diese Perfektion schon etwas verstehen, aber wenn 99% der Menschheit Star Wars auf einem 600€ TV schaut, kann man es auch übertreiben mit der Referenz.
      Aber diese Diskussen sind müßig und gab es auch bei SDR vor 20 Jahren schon.

      Wahrscheinlich sind 99% der 4K Filme auf 08/15 Monitore entstanden.
      Man sollte es nicht übertrieben mit der Perfektion und perfekten Farbwert.
      Letztens hatte ich von jemanden gelesen, der immer wieder Ingenieure hat kommen lassen, weil sein Referenzmonitor einen sehr leichten Stich Richtung lila hat. Nach zig mal messen und kalibrieren, hatte alles perfekte Werte, war lila war immer noch als minimalen Schleier vorhanden.
      Das Auge tickt nun mal anderster und kennt keine perfekten Farbwerte. Schon alleine das Alter verändern die Augen und optische Wahrnehmung über die Zeit.

      Zurück zum Kernthema...
      OLED TVs sind recht günstig und schon sehr ordentlich im, HDR Bereich, hier geht es schon ab 1000€ los.
      Im TV Bereich wird HDR die nächsten 2 Jahren stark fahrt aufnehmen, auch wenn es die Leute nur unbewusst mit kaufen werden.

      Ca. 10 weitere OLED und mini-LED Monitore unterschiedlicher Hersteller sind bis ende des Jahres angekündigt.
      LG hat gerade die Fertigung für HDR OLED Panels um 200% erhöht.

      HDR Monitore im nächsten Jahr wird es für ca. 2000€ geben und um 1000€ rum fallen.
      Teils wird es Monitore für 1500€ geben, hier aber mit abstrichen und mehr als Gaming Monitor zu sehen.
      In ca. 4 Jahren wird es Massenware sein.
      Auch immer mehr Notebooks werden HDR erhalten.
      Die Flaggschiffe haben es Großteils schon. Auch bei Apple sind die neuen Notebooks und wahrscheinlich ach die zukünftigen iMACs HDR fähig.


      Ich habe mich entschieden und werde die nächsten Wochen und Monate damit beginnen Teile meines Island Film neu zu graden und wahrscheinlich viel Erfahrung dabei sammeln. Ich freue mich hier rauf extrem, endlich diese stark störenden Limits im SDR Bereich loszuwerden.
      Ich habe viele Wochen über mein HDR Setup nachgedacht, viel Geld ausgegeben...
      Ohne Erfahrungen ist alles nur Theorie :)
      Kann auch sein, dass ich dieses Setup nochmals umbauen werde, aber das wird die Erfahrung der nächsten Monate zeigen.
      Das gehört aber alles zum Hobby mit dazu. find ich. Nach und nach baut jede Erfahrung auf die nächste auf...

      Vielleicht finden sich hier im Forum zukünftig noch ein paar mehr die mit HDR ihre Erfahrungen sammeln? Ich jedenfalls finde das Thema spannender als die nächste DJI Drohne :)

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von S t e f a n ()

    • gsezz schrieb:

      Kein Parallel Universum, andere Definition von zahllos und lohnen.
      Ja, muss ja wieder jeder für sich selbst entscheiden. Ich vergleiche das selbst bei manchen Serien, wo ich Folgen auf HDR auf dem TV (oder auch iPhone) schaue, manche in SDR auf dem iPad, und der Unterschied ist mit entsprechenden Displays schon deutlich, aber man kann aus meiner persönlichen Sicht nach ersten Aha-Erlebnissen auch gut drauf verzichten. Es kommt sowieso auf die Inhalte an und deren Grading, und letztlich steht ja sowieso auch die Story im Vordergrund.

      Problematisch sind aktuell auch die unterschiedlichen, immer noch reifenden Technologien in Displays, HDR ist nicht gleich HDR, und aktuell muss man auch hier wieder Prioritäten setzen. OLED hat super Schwarz- und Kontrastwerte, kein Blooming und kann Helligkeiten pixelgenau regeln, ist dafür aber vergleichsweise bei Weitem nicht so hell (auch nicht lokal), hat EInbrennprobleme und ist nicht so langlebig bzw. wird mit der Zeit schlechter. Im LED Bereich gibt es in jedem Jahr Neuerungen, die diesen immer mehr an die OLED-Vorteile annähert, und dennoch deutlich höhere Helligkeiten abliefert, insgesamt aber vor allem eben auch lokal. Der aktuelle Königsweg ist Mini LED (bzw. Micro LED), da ist die Auswahl an TVs aber noch vglw. klein. Samsung setzt mit Quantum Dot OLED dagegen, das u.a. noch mal bessere Farben und dann Helligkeiten bis 1000 Nits bieten soll. Man hat die Qual der Wahl.
      Beides gilt natürlich ebenfalls bei der Suche nach HDR-Displays zur Erstellung bzw. zur Verwendung als separates HDR-Referenz-Display.

      Dazu kommt dann noch die noch nicht wirklich aussortierte Standard-Problematik, Samsung bspw. setzt immer noch auf sein eigenes HDR10+, so ziemlich alle anderen tendieren zu Dolby Vision, Ausgang noch unklar. Wer also HDR momentan nicht wirklich braucht oder vermisst, wartet mit dem Kauf teurer TVs. Ansonsten kann zumindest ein bischen HDR ja inzwischen jedes billige TV, natürlich dann gegebenenfalls nur mit Edge Backlight und ohne Local Dimming.

      Dieser Beitrag wurde bereits 5 mal editiert, zuletzt von skyscope ()

    • Wer hätte Lust zukünftig immer wieder mal ein paar kurze HDR Clips von mir zu begutachten und Rückmeldung zu geben?
      Durch die unterschiedlichen Endgeräte und maximal möglichen Nits können so manche Bildschirme schnell überfordert sein. Daher wäre das super interessant für mich um Erfahrungen zu sammeln um hier einen Mittelweg zu finden, um es nicht zu übertrieben.
      Bitte per PN melden...