Neue Nvidia RTX-Treiber können SDR-Inhalte in HDR per KI in Echtzeit konvertieren

    ACHTUNG: Mit der neuen EU Drohnenverordnung muß sich jeder Drohnen-Betreiber beim Luftfahrtbundesamt registrieren und seine Drohne mit der e-ID kennzeichnen! Ein passendes Kennzeichen bekommst Du hier im Shop. Außerdem benötigst Du eine Drohnen-Versicherung. Hier geht es zu unserem Drohnen-Versicherungsvergleich. Informationen zum neuen EU Drohnenführerschein gibt es hier.

    • Neue Nvidia RTX-Treiber können SDR-Inhalte in HDR per KI in Echtzeit konvertieren

      Das ist so ein tolles Feature und im Moment bin ich mega beeindruckt.

      Alle Inhalte z.B. auf YouTube sehen damit aus, als wären sie in HDR aufgenommen worden. Das ist nicht nur eine einfache Helligkeitsanpassung, sondern auch die Farben werden intelligent für den HDR-Farbraum erweitert.

      Wahnsinn, was KI hier wieder leistet.


      Vor einiger Zeit hat Nvidia auch eingeführt, dass man alle Videos in Echtzeit per KI auf 4K skalieren kann.
      Auch das sieht immer wieder sehr beeindruckend aus.

      Wenn ich an fremden Rechnern ohne Nvidia-Grafikkarte sitze, merke ich, wie schlecht viele YouTube-Videos plötzlich wieder aussehen. Mit AI vergisst man das über die Monate und gewöhnt sich an die tolle gleichbleibende Qualität. Aber wenn die Option plötzlich nicht mehr vorhanden ist oder abgeschaltet wurde, kommt die Ernüchterung über die wirkliche Qualität auf YouTube :)

      Probiert es aus, wenn ihr entsprechende Hardware (RTX-GPUs) habt. Ihr müsst auf Treiber ab Version 551.23 updaten.

      Eine 4090 wird mit beiden Funktionen zusammen nur zu 10% ausgelastet.

      Mehr Infos:
      nvidia.custhelp.com/app/answer…a_id/5448/~/rtx-video-faq


      Man darf gespannt sein, was Nvidia in nächster Zeit noch alles raushaut.
      Im Bereich Gaming und KI geht es bei Nvidia Schlag auf Schlag.
      Hätte man mal vor 10 Jahren Nvidia Aktien gekauft müsste man jetzt nicht mehr arbeiten ;)

      PS: Ich habe das gerade mal mit einem 10 Jahre alten Spiel Stronghold ausprobiert.
      Das schaut damit sehr beeindruckend aus. Werde ich später mal spielen, habe jetzt total Lust darauf bekommen.
      Der Unterschied ist auch hier mega, fast wie neu gekauft aus aktueller Zeit.

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von S t e f a n ()

    • Ja, unterm Strich wird KI in Zukunft eine große Rolle in der Komprimierung von Video spielen. Aber bis das in dedizierter und entsprechend optimierter Hardware möglich ist, wird es noch einige Jahre dauern. Aktuell ist das eine tolle Tech-Demo, aber völlig uninteressant für den Alltag. Ich werfe nicht den großen, im idle 200W schluckenden Gaming Rechner an, um Videos zu streamen, die ansonsten der embedded Chip im Fernseher decodieren könnte.
    • Meine GPU läuft bei YouTube aktuell mit 18 Watt (2x 4K und 1x ein Samsung Tablet S9 Ultra mit 15", das ich als dritten Monitor für Touchscreen und drucksensitiven Stift mit 120 HZ ohne Latenz benutze. Lege z.B. Photoshop Tools für die Stiftnutzung auf das 15" ab, ist wie ein weiteres Eingabegerät mit Monitor).

      Das war eigentlich mal vor 6 Jahren so mit 200 Watt Idle, aber aktuelle Generationen langweilen sich meistens im Stromverbrauch, bis mal wirklich 100% Leistung gefordert wird.

      Und warum sollte das eine Techdemo sein? Es läuft mit allen Videos und Spielen einfach so im Hintergrund und schaut verdammt gut aus.
      Unmengen an KI Funktionen sind seit ca. 1 1/2 Jahren Standard im Gaming Bereich und dort gar nichts besonderes mehr.
      Stable Diffusion nutzen auch immer mehr im privaten Bereich (lokale KI die weit mehr Möglichkeiten bietet als jeder aktueller Webdiesnt, es ist viel schneller, billiger und kann auch 16k als Auflösung fahren, wenn einem danach liebt ist, das KI Model verändern, selbst trainieren, usw. Wenn ich überlege was die KIs im Internet kosten, wie eingeschränkt das ist, nutze ich lieber meine HW und fahre weit billiger)
    • Kontext. Es ging um KI im Videoencoding und -streaming.
      Das Aufhübschen und upscalen von Videostreams, die nicht speziell für KI Überarbeitung erstellt sind, ist für mich nur eine Tech Demo auf dem Weg zu wahren Ziel: Videostreams gezielt für KI Decodierung zu komprimieren. Beispielsweise indem man statt einer kompletten City Skyline im Hintergrund einer Szene nur noch eine Anweisung für die KI ins Video einbaut, selbstständig eine Skyline zu generieren. Das wird den Komprimierungsfaktor enorm erhöhen, und einen großen Sprung zu höheren Auflösungen zulassen. Aber bis es so weit ist, muss zum einen die KI für die breite Masse alltagstauglich auf TV Geräten und Smartphones umsetzbar sein, sonst ist das für die Filmemacher uninteressant. Und zum anderen wird vermutlich noch eine ganze Generation von letzteren aussterben müssen, bevor man sich derart von einer KI ins Handwerk pfuschen lässt. ;)
    • Ich wusste von dieser Funktion bisher noch nichts, habe es aber eben mal eingeschaltet (also die Skalierung meine ich jetzt). Läuft, aber um da irgendeine Verbesserung wahrnehmen, braucht man schon eine gehörige Portion Einbildung. Wenn ich zum Vergleich z.B. ein HD Video mit Davinci Resolve und Superscale hochskaliere, ist die Verbesserung zwar auch nur minimal, aber meiner Meinung nach, etwas besser.
      Gruß
      Peter
    • Habe auch gerade mal den aktuellen Treiber installiert und versucht einen Unterschied festzustellen.
      Ich habe zwei Identische Monitore allerdings nur mit HDR400. Zum test habe ich mal das selbe Video auf beiden Monitoren gleichzeititg abgespielt. Auf einem Monitor habe ich dann HDR aktiviert.
      Dabei konnte ich nicht wirklich einen Unterschied feststellen.
      Außer eben dass der Monitor im HDR-Modus die Hardware Farbkalibrierung nicht mehr besitzt und das Video im HDR-Modus daher Grünstichig ist und etwas kälter wirkt.

      Blöd ist nur dass der Erhöhte Kontrast in den NVidia Systemsteuerung sich generell auf allen Monitoren gleichzeitig ein und ausschalten lässt.

      Also musste ich Video zweimal laufen lassen.

      Hatte da mit dem Video BEAUTIFUL FAROE ISLANDS von Stefan getestet.

      Also ich konnte da nicht wirklich einen Sichtbaren Unterschied feststellen.
      Vermutlich habe ich da noch irgendwo einen Fehler in meinem Test drin.
      Vielleicht liegt es auch daran dass ich nur eine RTX3080 mit 10GB habe oder die HDR400 das Problem sind.

      Mein HDR-TV hat auch keinen AHA-Effekt bei mir bewirkt. (Dabei habe ich das FLYING OVER NORWAY Video mit HDR von Stefan getestet.
      Müsste mal sehen welchen HDR-Typ von dem überhaupt unterstützt werden.... Vermutlich auch nicht mehr als HDR400
    • Seltsam. Bei mir ist der Unterschied sehr groß, warum sollte ich sonst so begeistert sein?
      Aber vielleicht gibt es Unterschiede zwischen den Grafikkarten?

      Bei Spielen gibt es eine ähnliche Technik, um Spiele in geringerer Auflösung zu berechnen und durch KI zu skalieren, um mehr Rechenleistung zu erhalten, weil ältere Karten keine Leitung für 4K haben.

      Aber hier gibt es verschiedene Qualitätsstufen wie Performance, Quality, Ultra, etc.
      Qualität Ultra schafft nur 4080/90 vernünftig.

      Der Unterschied zwischen den Stufen ist bei der Darstellung recht groß, z.B. sieht Ultra oft besser aus als nativ gerendertes 4K Material und Performance dagegen schaut im Vergleich fast schon unterirdisch aus.
      Möglicherweise ist das hier mit dem Super Resolution Video Option auch so, nur dass diese Stufen vom Grafikkartenmodell im Hintergrund fest vorgegeben sind. Ist nur eine Vermutung. Ultra Qualität hätten die kleinen Grafikarten nicht die Leistung hierfür.

      Für HDR benutze ich eine kalibrierten Monitor mit 1400 nits.
      Ich glaube 400nits ist viel zu wenig um das vernünftig zu sehen.
      OLEDs, gemessen nicht nach geschönten Herstellerangaben kommen auch kaum über 700 nits und das auf nur sehr kleiner Weißfläche. Sind zu viele helle Bildanteile vorhanden, wird immer mehr gedimmt gedimmt. Wenn es keine Nachtszenen sind, bewegt man sich beim OLED mehr so bei 550 nits rum.

      Schade, dass man von HDRs keine Screenshots machen kann. Man kann es leider nicht zeigen, weil darauf wieder SDR wird.
      Mal schauen ob ich nächster Zeit mal an einer 30xx Modell sitze um das zu vergleichen.
    • Ich persönlich halte das aktuell alles immer noch für sehr viel Spielerei. Kein neurales Netzwerk ist aktuell in der Lage, echte Gegebenheiten einfach so aus dem Nichts nachzubilden. Aber genau das ist eben der Punkt, der aktuell von den Herstellern dieser Technik versprochen wird.
      Im Endeffekt werden aber einfach Pixel aus dem Nichts generiert und damit das Originalbild verfälscht. Bei der HDR-Thematik endet das dann in verfälschten Farben und Kontrasten und in einzelnen Bildsektionen sogar in völlig platzierten Farben, bei der Hochskalierung von niedrig aufgelösten Bildinhalten wird einfach irgendwas ins Bild eingefügt, was der Software nach dort "sein könnte". Auch das endet eben in komischen Artefakten und seltsamen Mustern im Bild, die bei genauerer Betrachtung auffallen.

      Besonders schwierig wird das, wenn die Verfälschung nicht mehr nur bei der Betrachtung vom original-Material geschieht, sondern wenn Leute gleich von NN errechnete Inhalte hochladen. Dann haben wir nämlich nur noch einen Blick auf eine digital verfälschte Welt.

      S t e f a n schrieb:

      Meine GPU läuft bei YouTube aktuell mit 18 Watt
      Das mag sein, meine GPU läuft auch bei 8W im Idle. Darum ging es ja aber gar nicht. Das Gesamtsystem verbraucht eben wesentlich mehr. CPU, Chipsatz, Festplatten, Peripherie, Monitore, Kühlung, all das verbraucht auch Leistung. Und das Netzteil hat zusätzlich noch eine Verlustleistung. Mein recht moderner PC sitzt da als Beispiel bei ca. 100-140W im Idle an der Steckdose, wenn alles eingeschaltet ist. Das ist bei fast allen aktuellen Systemen ähnlich, außer man nutzt mobile Systeme. Aber es ging ja speziell um die Gaming-Rechner mit der entsprechend leistungsstarken GPU.
      Und jetzt extra für eine NN-verfälschte Version eines Youtube-Videos den Rechner anschalten? Ne, lass mal.

      Ich möchte an der Stelle übrigens anmerken, dass das auch nicht mal bei allen Browsern funktioniert. Und immer vorher auch noch HDR bei Windows umschalten, was ein Aufwand.

      S t e f a n schrieb:

      Ich glaube 400nits ist viel zu wenig um das vernünftig zu sehen.
      HDR am Bildschirm ist ja nicht nur auf Nits und Helligkeit beschränkt, sondern beinhaltet auch wide color gamut und damit wesentlich bessere Farben. Das ist gerade am PC-Monitor viel eher von Vorteil, als dass einem da die Pixel-Sonne die Augen ausbrennt.
      Selbiges übrigens auch im Heimkino mit Projektoren. Die können aufgrund ihrer Technologie oft gar nicht die großen Kontrastunterschiede und Spitzenhelligkeit von HDR darstellen, wie man sie von einem modernen Bildschirm kennt - sehr wohl aber den deutlich besseren Farbraum, was man in der Praxis auch stark merkt.

      Leider kommt noch dazu, dass man bei einem für SDR kalibrierten Monitor die komplette Farbkalibrierung verliert, wenn man auf HDR umschaltet. Dann hat man bei der hier besprochenen Technik am Ende also nicht nur durch NN verfälschte Videos, sondern auch noch unkalibrierte Farben.

      S t e f a n schrieb:

      Schade, dass man von HDRs keine Screenshots machen kann
      Warum sollte das nicht gehen? Native Screenshots in HDR gehen sehr wohl mit .JXR, das unterstützt deine Nvidia-Karte von Haus aus. Und die klassischen "Screenshots" kannst du auch einfach mit einer Kamera + HDR-Belichtungsreihe erstellen. Darf man dann in der Bearbeitung halt nicht auf SDR herunterbrechen. Und die Darstellung braucht natürlich ein HDR-Display.

      S t e f a n schrieb:

      weil ältere Karten keine Leitung für 4K haben.
      Komisch, dass ich bei mir seit Jahren fast alles nativ in 4K rendere, obwohl ich keine Karte der 4xxx-Serie habe. Muss wohl ein Unikat sein.

      S t e f a n schrieb:

      z.B. sieht Ultra oft besser aus als nativ gerendertes 4K Material
      Sorry, aber das halte ich für nicht richtig. Es sieht nur "anders" aus. Vor allem bastelt das neural network da irgendeinen Humbug ins Bild rein, der im Original definitiv nicht vorhanden war. Man bekommt am Ende immer ein anderes Bild, nicht ein besseres. Insbesondere bei der Skalierung in Games, wo nativ in 800x600 gerendert und dann auf 3840x2160 hochgerechnet wird. Im Direktvergleich kann man zu 99% den Unterschied zwischen NN-hochgerechnet und nativ sehen. Das Problem ist einfach das NN dahinter, was Bildbestandteile erfindet, um die fehlenden Pixel aufzufüllen. Man sieht leider all die Bildfehler, wenn man darauf achtet. Neural Networks sind zwar eine tolle Technik, aber noch lange keine Magie und erst recht keine Lösung für all unsere Probleme.

      Ich jedenfalls bevorzuge ein natives SDR-Bild in normaler Auflösung anstelle einem Pseudo-HDR-Bild mit 400% mehr Pixeln als im Original, wo der Inhalt aber zum größten Teil von einem NN erfunden wurde. Das scheint in der Generation "Widescreen-Video in Hochkant-Format gequetscht und mit Smileys aufgefüllt, um 20% der verfügbaren Pixel zu nutzen" aber eine aussterbende Meinung zu sein.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Schwurbelmeister ()

    • Ich habe eigentlich keine Zeit für endlose Diskussionen.

      Entweder investiert in vernünftige Geräte oder lasst es sein, aber bitte nehmt es nicht als Grundlage für eine Diskussion.
      Ich interessiere mich weder für den Stromverbrauch noch für Kalibrierungsprobleme von Monitoren.

      Beim Verlassen des Hauses gibt man ohnehin mehr Geld aus, sei es für Mittagessen, Kino, Autowäsche oder den Mobilfunkvertrag. Im Vergleich dazu ist der Strompreis wirklich verschwindend gering. Strom bietet verdammt viel Mehrwert, auch wenn er natürlich gestiegen ist über die Jahre im Preis.

      Ich habe keine der genannten Probleme und trage nicht die Verantwortung für die Welt. Verkaufe den Monitor und hole einen, der auch in HDR kalibriert werden kann.
      Über solche Dinge zu diskutieren ist meiner Meinung nach müßig. Es war wahrscheinlich ein Fehlkauf, und die Hardware erfüllt die Anforderungen nicht. Punkt und aus.

      Wenn die Pixel-Sonne die Augen stört, dann ist das wohl ein Missverständnis von HDR. Nutze besser kalibrierte HDR Geräte. Der Farbraum ist natürlich wichtig, aber das wurde schon vor 20 Jahren mit Adobe RGB abgedeckt und ist schon lange nichts Neues.

      Ja, die KI lernt aus Milliarden von Bildern, um Dinge zu erkennen.
      Man kann es sich vorstellen wie eine unsichtbare Schatzkiste, die die KI verwendet, um Informationen nach und nach in etwas umzuwandeln, das wir sehen und verstehen können.
      Von Bildrauschen zu einem klaren Bild.
      Vom latenten Raum zur stabilen Diffusion.


      Ein Beispiel mit Informationen über Grashalme auf einer grünen Wiese.
      Waren es hunderttausend oder zweihunderttausend?
      In Drohnenvideos oder Spielen kann die KI Details hinzufügen und verbessern, wenn Entwickler bei Texturen schlampig war (gibt es leider sehr oft) oder das Drohnenvideo Matsch auf der Weise liefert. Was ist nun davon echt, was ist gefälscht? Die matschige grüne Wiese, die es so in der Natur natürlich nicht gab, oder die KI Veränderungen die wieder Grashalme wachsen lässt?
      Die KI hat gelernt, wie Gras in verschiedenen Situationen aussieht und kann es basierend darauf rekonstruieren.

      Ein Beispiel aus meiner KI Fotosammlung, ist ein KI-Foto von einer nicht existierenden Person.




      Es kann ohne Qualitätsverlust in jede beliebige Auflösung skaliert werden. Das sogenannte Rauschen ist nicht so ganz zufällig wie es sich oben anhört (siehe Erklärung). Wenn man exakt das gleiche Rauschen wieder nutzt, kommt immer das gleiche Ergebnis heraus, verändert man das Rauschen, werden Varianten eines Bildes erstellt. Es ist echt Witzig, wenn man plötzlich 1000 Varianten eines Fotos erstellt. Wie war das mit den Paralleluniversen? :) Ja, interessante Technik und etwas unheimlich. Im Original KI Fotos sind diese Infos alle mit gespeichert, um genau das gleiche später wieder so zu rekonstruieren zu können wie das Original und damit lässt sich absolut verlustfrei eine beliebig hochauflösende Version erstellen. Bei einem klassischen Jpeg geht das leider (noch) nicht ganz so gut wie aus einem Foto das rein durch KI nativ aufgebaut wurde und wesentlich mehr Informationen enthält. Einfach gesprochen ist es wie so eine Art KI RAW Foto, wo das einzigartige Grundrauschen mit gespeichert ist wie auch viele weitere KI Parameter, ansonsten bekommt man nur noch Varianten hiervon erstellt :) Ich hoffe, es ist nicht zu verwirrend, für Leute die hier nicht so drinstecken. Wollte aber etwas zur Technik schreiben und wie KI Bild-Generatoren wirklich funktionieren.

      Die Frage, ob die 16k Version, würde man es per KI hochskalieren und dadurch neue feinste Härchen hinzugefügt werden, ist doch völlig irrelevant, da es für das menschliche Auge nicht zu unterscheiden ist. Für einen Mensch wird das 16k Foto so wirken wie das 1080p Foto hier im Beispiel. Also warum nicht KI hierfür nutzen?


      Ach ja, wegen den Screenshots.
      Wer ist hier in der Lage, ein JXR korrekt wiederzugeben? Siehe diese gesamte Diskussion oder mein letztes HDR-Drohnenvideo hier im Forum. Es wollen ja gerade die sehen, die es nicht können, aber genau das geht ja nicht, mangels HW.


      Komisch, dass ich bei mir seit Jahren fast alles nativ in 4K rendere, obwohl ich keine Karte der 4xxx-Serie habe.
      Muss wohl ein Unikat sein.
      Ich rendere die letzten 10 Jahre in 4K. Was ist die Aussage jetzt? Verstehe ich leider nicht.

      Es gibt unzähliges 1080p Material im Netz, das ich weit lieber über die Nvidia KI auf 4K schaue, als nativ.
      Ganz nebenbei wird auch der YouTube Matsch stark gelindert.

      Und nochmals, es ist kein Humbug, es passiert auf gelerntes Material, und basierend darauf wird rekonstruiert.

      Ist Linsenunschärfe am Rand nicht ebenfalls Humbug? Der Matsch, ach ich meine Motion Blur, ist das Humbug, etc. pp. Was ist also echt?
      Es wurde schon in der analogen Fotografie manipuliert, verfälscht und manipuliert. Was ist echt?


      Aber man musst es nicht nutzen, das ist das Schöne daran
      Ich wollte nur drauf hinweisen und anregen. Nutzt es, testet es, experimentiert, oder auch nicht.
      Diskutiert gerne weiter, ich bin hier weg, weil es keinen Mehrwert bringt. Jeder kann es probieren oder lassen :)

      Ich habe tolle Ergebnisse und bin glücklich damit. Es kostet mich nichts und es läuft vollautomatisch und unauffällig im Hintergrund. Keine Ahnung warum ich es jetzt abschalten soll. Sorry :)

      Schönes Wochenende

      PS:
      In 15 Jahren wird es so viele KI-Inhalte geben, dass niemand mehr durchblicken wird. In vielen Bereichen wird es den Menschen auch egal sein, sie werden sich daran gewöhnen. Ist ihr Star und Vorbild echt oder nur eine KI-Figur? Den echten Star kennen sie auch meist nicht wirklich persönlich und nur über den Monitor, sie werden ihn wahrscheinlich nie live erleben. Auch für KI-Influencer wird es Fans geben, viele Fans bis hin zu KI-Superstars. Die Älteren werden nur den Kopf schütteln und schreiben, dass die Welt untergeht. Für die jüngere Generation wird es völlig normal sein. Es wird echte KI-Künstler geben, die einzigartige kreative Dinge schaffen, die hunderttausend andere Menschen trotz gleicher Werkzeuge nie schaffen werden, an die man auch viele Jahrzehnte später noch denkt. Alles, was technisch möglich ist, wird der Mensch nutzen, das liegt in unserer Natur. Es ist eine aufregende Zukunft, solange nicht ein paar Idioten die Erde mit ihren Kriegen zerstören und natürlich noch ein paar andere Probleme.

      Aber jetzt gute Nacht :)

      PPS: HDR in Windows manuell umschalten war für jemanden auch noch etwas nervig, siehe Kommentar weiter oben. Habe den Link vergessen einzufügen. Es gibt für alles Tools, alles :) Das sind keine Gründe :)
      github.com/Codectory/AutoActions

      Dieser Beitrag wurde bereits 6 mal editiert, zuletzt von S t e f a n ()

    • Ist halt ein großer Unterschied, ob man von Liveberechnung redet (wie beim eigentlichen Thema) oder von stable Diffusion, die lange Renderzeiten braucht. Beim zweiten Teil kann ich das Problem einfach mit Zeit bewerfen, beim ersten Teil nur mit Hardware, die stark limitiert, teuer und leistungshungrig ist. So weit sind wir da noch nicht.
      Mal ganz abgesehen davon, dass stable Diffusion auch absolut halluziniert und anatomisch komisch zeichnet. Es braucht hunderte Durchgänge und/oder Nachbearbeitung, um die ganzen kleinen Fehler rauszubekommen. Also wenn ich da erstmal eine Stunde lang Parameter in stable Diffusion werfen und Photoshop anwerfen muss, dann ist das alles, außer ausgereift. Und gaaaanz weit weg von Live.
      Ist auf jeden Fall Äpfel mit Birnen, und so.

      S t e f a n schrieb:

      Entweder investiert in vernünftige Geräte oder lasst es sein [...]
      Ich interessiere mich weder für den Stromverbrauch [...]
      Ich habe keine der genannten Probleme und trage nicht die Verantwortung für die Welt.
      Ah ja okay, wenn das so ist. Einfach nicht arm sein ist halt das unschlagbare Argument, verstanden :rolleyes: .

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Schwurbelmeister ()

    • Ich wollte jetzt keine Endlos Diskussionen anstiften.
      Wollte es nur mal mit meiner Hardware ausprobieren und habe festgestellt dass es bei mir nicht so einfach möglich ist.
      Entweder weil meine Hardware dafür nicht geeignet ist oder es noch eine Einstellung gibt die das verhindert.
      Mir ist es aber auch nicht wert mehr Zeit dafür zu investieren. Und erst recht kein Geld.

      Bin sehr gespannt was mit KI in 20 Jahren alles so möglich sein wird.

      Vermutlich muss ich ja nur auswählen welchen Film, Handlung und Schauspieler ich sehen möchte.
      Die KI erzeugt den Film dann in gewünschter Auflösung in Echtzeit....

      Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von gnorf ()

    • Also ich habe das vorhin versucht. Treiber installiert, an meinem OnkyoTX-NR474 angeschlossen und auch vom Treiber erkannt. Allerdings würde der HDR10 nicht unterstützen, was quatsch ist. Er beherrscht HDR 10. Dann direkt am Samsung TV, der auch HDR beherrscht. Ebenfalls kein Erfolg. Die Anzeige bleibt ausgegraut, obwohl er es kann und ich schon ewig HDR auf Netflix schaue.
    • Wenn ich es richtig sehe musst Du erst "Hoher Dynamikumfang" in der nVidia-Systemsteuerung aktivieren.
      Dann musst Du unter Windows "HDR" verwenden" aktivieren. Bei dem Vorschauvideo wirkt sich auch das "HDR-Videostreaming" aus wenn man es aktiviert.

      Weiss jetzt nicht in welcher Kombination diese drei Einstellungen gewählt werden müssen, oder ob alle eingeschaltet sein müssen.

      Es kommt vermutlich auch auf Das Monitorkabel an was Du verwendest.
      Bei mir habe ich zwei Asus PA329C angeschlossen. In Windows werden mir 3 PA329C angezeigt. Das kommt daher weil ich vor Monitor 1 noch einen Splitter (HDMI) habe und der TV auch als PA329C (Monitor) 3 erkannt wird.
      In Windows kann ich nur HDR auf dem Monitor 2 einschalten.

      Eventuell unterstützt Dein HDR-TV kein HDR-Signal über den Eingang. Daher kann es beim Streaming mit HDR funktionieren und nicht über den Eingang. Oder eventuell auch einen anderen Eingang nehmen.

      Bei 3D ist es z.B. so dass du ein besseres HDMI-Kabel benötigst und eine bestimmte HDMI-Version benötigst dass das klappt.

      Bei meinem Monitor ist sind alle Dynamischen Bildverbesserungen wegen der Hardwarekalibrierung abgeschaltet. Ich bin davon ausgegangen dass er automatisch die Funktionen wieder aktiviert wenn ich in Windows den HDR-Modus einschalte. Die Hardwarekalibrierung wird dann ja auch automatisch abgeschaltet.

      Es gibt also massenhaft Fehler die das HDR unterbinden können.

      Wenn man also schon HDR am Rechner benutzt reicht wohl nur das einfache aktivieren. der Funktion in der nVidia Systemsteuerung.

      Weil die Option in der nVidia-Systemsteuerung aktiviert ist wird es wohl nicht daran liegen dass ich nur eine RTX3080/10GB habe. Dann wäre die Funktion ausgegraut.

      Falls Ihr den Fehler bei mir oder bei euch gefunden habt, gerne posten. Bin ja schon etwas neugierig...


      Interessant wäre auch mal ein Video das in Youtube als SDR und HDR-Version gibt.

      Ich stand damals vor der Entscheidung ein Monitor mit Hardware Kalibrierung mit NUR HDR400 oder einen Monitor mit Hardwarekalibrierung und HDR (1000nits).

      Ich habe mich für die zwei Monitore entschieden und noch Geld gespart.