Warum ist die Videoqualität schlecht auf YouTube? (gelöst)

    ACHTUNG: Mit der neuen EU Drohnenverordnung muß sich jeder Drohnen-Betreiber beim Luftfahrtbundesamt registrieren und seine Drohne mit der e-ID kennzeichnen! Ein passendes Kennzeichen bekommst Du hier im Shop. Außerdem benötigst Du eine Drohnen-Versicherung. Hier geht es zu unserem Drohnen-Versicherungsvergleich. Informationen zum neuen EU Drohnenführerschein gibt es hier.

    • DroneFuchs schrieb:

      Ja, ist mit auch extrem aufgefallen. Ist aber schon vor Youtube so schlecht gewesen. Das lag wohl am schlechten Licht plus den ganzen Details.?

      Hier am gleichen Tag, andere Spot, gleiche Einstellungen, sieht es schon anders aus:

      ist zwar OT, aber das muss hier schon gesagt sein dürfen: Geiles Video, Aldder und klasse Abgang. 1 zu 0 für Ast. :thumbsup:
      ___

      so und nun zurück zum Topic:
      vimeo.com/help/compression
      Das ist schon mal sehr viel besser beschrieben als bei Youtube. Es folgt der direkte Vergleich.

      Vorgeschlagene Bitrate für 1080p mit 25 fps bei …
      … Youtube: 10 Mbit/s
      … Vimeo: 10 bis 20 Mbit/s

      Alles klar. Oder? Noch Fragen? 8)





      Ah und WICHTIG:
      Framerate = konstant
      Bitrate = variabel

      Bei Vimeo lade ich auch manchmal die Videos in Apple ProRes HQ hoch. Sehr viel größere Datei (nix komprimiert), sehr viel längerer Upload. Aber meine Kiste soll nachts ja auch was machen. Vimeo komprimiert dann auf 20 Mbit/s und es ist nur ein Komprimierungsvorgang im Workflow. Besser is nich. ;)

      Wenn man bei YT ein 1080p, 25 fps Video mit Bitrate 20 Mbit/s hochlädt, wird die Bitrate runtergeschraubt – Gleicher Upload bei Vimeo >>> nix wird runtergeschraubt 8)

      Bei Racer-Videos tut sich die Komprimierung recht schwer, weil sich der komplette Bildinhalt sehr oft und sehr schnell stark verändert. Fliege laaaangsamer und das Ergebnis des Kompressors wird besser. Bei vielen kleinen Fitzelästen, die links und rechts vorbeizischen gibts einfach nix zu komprimieren.

      Dieser Beitrag wurde bereits 15 mal editiert, zuletzt von Ralf Neverland ()

    • Habe die 1080p60 Datei jetzt auch mal auf 20 MBit/s bei Vimeo hochgeladen.
      Sieht so aus wie das was bei Mir aus iMovie rauskommt.
      Dann ist es die YouTube Videokompresion das es dort so verwaschen rüber kommt.
      Bei Vimeo habe ich 500 MB Kontingent. Pro Woche wenn ich es richtig gelesen habe.
      ProRes HQ hatte ich auch schon mal probiert hat aus 1 GB Datei eine mit 6,67 GB erzeugt :rolleyes:
      Plus an Masse, das knallt Klasse!
    • @Ralf Neverland Thanx for the Flowers. Mein "Spotter" meinte: Da ist was weggeflogen! Es war der Ast! Racer 1 Ast 0
      PS:
      Du hast die HDR Daten von Youtube drinne.

      @chrisfpv
      bei "2k" nehm ich bei 30fps 16 Mbits und stelle GOP auf 15. (Performance: best quality)
      bei "2k" nehm ich bei 60fps 24 Mbits und stelle GOP auf 30. (Performance: best quality)

      Seither bin ich mit der Quali soweit zufrieden.

      Soweit ich mich entsinne habe ich 1080p noch garnicht probiert... Chegg ich mal so out:
      1080p > 60fps > 12Mbits > GOP 30 (Performance: best quality)

      PS:
      Was ist das den für ein CT13? Was ein Sound! 8o
    • @DroneFuchs CT steht für Chris Tong einer bei uns im Modellbauclub der die Bootsrümpfe baut. Das Boot ist ein Hydroplane in Maßstab: 1:6 mit eine Turbine welche mit Kerosin oder Petroleum läuft. Leistung ca. 8 KW die dreht mit 250k U/m über ein Getriebe kommen ca. 35k U/m an der Schiffsschraube an.
      Bei Uns nennt man die Dinger „Biene“.
      Plus an Masse, das knallt Klasse!
    • Nur als Hinweis:
      Es macht keinen besonderen Sinn, Filme aus ursprünglichen Clips mit Long GOP Codecs wie H.264 oder H.265 zum Upload in Prores auszuspielen. Man gewinnt auch nichts an Qualität dadurch. In ProRes auszuspielen macht im Prinzip nur für einen lokalen Master zur Archivierung Sinn, und auch nur, wenn die Ursprungsmaterial auch mindestens mit ProRes aufgenommen wurde.
      Wenn schon, dann wird genau umgekehrt ein Schuh draus: Die H.264 Clips vorher für den Schnitt in Prores umrechnen, dann damit schneiden (entlastet den Rechner ungemein), und das Ergebnis (den finalisierten Film) dann wieder in H.264 mit hoher Datenrate für einen Upload ausspielen.

      Zum Qualitätsgewinn (bzw. Erhaltung derselben) bei YouTube mit seinem bescheidenem eigenen Transkoding bietet sich an, HD-Filme in QHD auszuspielen (so genanntes Upscaling), also hoch zu rechnen und so dann hochzuladen. Das hilft dem eher lässig arbeitendem YouTube-Kompressor etwas auf die Sprünge, und die Qualität ist besser, als wenn man den Film in HD hochgeladen hätte. Probiert es mal selbst aus. :)
      (QHD ist 1440p, also eine Auflösung von 2560x1440 bei 16:9 beziehungsweise 2560x1089 im Panavision Format)

      Hier mal meine H.264 Bitraten für verschiedene Auflösungen und Bildformate, 16:9 und 2,35 Panavision Format.
      (Die Auspielbildrate ist bei mir überwiegend 25 fps, selten mal 30 fps, jedoch nie mehr.)

      Dieser Beitrag wurde bereits 5 mal editiert, zuletzt von skyscope ()

    • @skyscope
      sehr interessanter Hinweis von dir. Wir sind hier ja im Drohnenforum und die meisten Dronecams nehmen wohl mit H.264 auf. Also trifft das auf die meisten Filme und Mitglieder hier zu.

      drum wirds jetzt ein bisschen OT:
      Wenn ich einen Zeitraffer aufnehme, der aus 21-MP-RAW-Bildern besteht, die Bilder in Lightroom als TIFs exportiere und in LR-Timelapse als ProRes ausgebe, dann kann der Upload auf Vimeo in ProRes schon sinnvoll sein. Zum einen deshalb, weil dann nur einmal komprimiert wird (von Vimeo) und zweitens, weil bei Vimeo Pro immer auch die Original-Dateien weiterhin vom Kontoinhaber heruntergeladen werden können. D.h. ich archiviere meine Master-Daten auch online.
      Bilder
      • shot_LRTL_export.jpg

        91,56 kB, 1.024×699, 270 mal angesehen

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Ralf Neverland ()

    • @Ralf Neverland
      Wäre jetzt für mich und meinen Workflow auch nichts, weil
      • ich einen LRT generierten Film so nie hochladen würde (ohne Titel, Musik, evtl Schnitt, usw.)
      • ich LRT nie beschneiden lasse, sondern dort immer in Originalauflösung der Bilder ausgebe (also bspw. ProRes mit 6000x4000 Pixel). So bestimme ich den Beschnitt später selbst, und kann vor allem auch noch verlustfreie virtuelle Kamerafahrten vornehmen. Durch das Oversampling ist es dann auch ziemlich egal, ob eine weitere Transkodierung durch den Schnitt stattfindet - im Gegenteil, das Ganze wird noch "knackiger".
      • ich die "Bewegungsunschärfe" dort nicht (mehr) nutze, da LRT letztlich nur ein Frameblending durchführt. Für mehr organische Bewegungsunschärfe sorge ich lieber selbst (je nachdem mit eigenen Motion-Filtern oder RSMB).
      • ich von Online-Archivierung in Portalen/Public Clouds nichts halte, siehe Nachbarthread.
      Aber ist hier wirklich OT, mach aber ggfls. gerne zu LRT ein neues Thema auf (ich schiebe dann... ;) )

      Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von skyscope ()

    • chrisfpv schrieb:

      Kurze Frage LTR=Lightroom?
      LRT = LR-Timelaps, ein Programm von Günther Wegner um Bilder die in gewissen Zeitabständen über einen längeren Zeitraum in ein Zeitraffer-Video zu importieren. Ganz einfach ausgedrückt. LRT macht mit seinem „HollyGral“ deutlich mehr. LRT arbeitet im Workflow zusammen mit LightRoom, daher das LR im Namen.

      gwegner.de/zeitraffer/lrtimelapse/

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von quadle ()

    • So ich habe mich jetzt mal an einen kleinen Video probiert zum RacerStar 4in1 ESC.
      Geschnitten mit iMovie, gedreht spontan beim
      Kumpel in der Werkstatt. Deshalb die Nebengeräusche und die Perspektive ist auch
      zu weit vom Geschehen entfernt.

      Plus an Masse, das knallt Klasse!
    • Ich würde mich hier mal einhaken, zumal das ursprüngliche Posting ja schon recht lange her ist und das Thema dadurch wohl eigentlich erledigt ist.

      Ich habe das Videoprogramm Video Deluxe Plus von Magix. Ich weiß inwischen, dass man da in den Exporteinstellungen auch sehr viel einstellen kann um optimale Ergebnisse bei YT zu erhalten. Dazu gibt es bei Magix auch ein Forum mit allerlei Tutorials wie diesem hier:

      Bis dahin bekomme ich das noch hin... aber:

      Nun habe ich gelesen, dass man doch am allerbesten schon der Framrate filmt, in der man später auch ausgeben will. Stimmt das so?
      Mit der Magix Mini also in 25 oder 30 fps. Mehr nur dann, wenn ich Zeitlupen haben möchte. In Magix gibt es aber schon beim Import einige Filmeinstellungen zu berücksichtigen: PAL oder NTSC z.Bsp.

      Beispiele aus der Auswahlliste:
      PAL FullHD (1920x1080) 24fps oder 50 fps

      NTSC HD (1920x1080) mit 23,97 oder 29,97 fps bzw. auch Ultra mit 59,97 fps

      Welche Einstellungen sollte ich für ein möglichst gutes Ergebnis bei YT auswählen? In der Drohne lässt sich ja über die App auch schon was einstellen. Welche Einetsllungen wählt man denn da am Besten?
      Ich frage nur für einen Freund. ;-)
    • Nun habe ich gelesen, dass man doch am allerbesten schon der Framrate filmt, in der man später auch ausgeben will. Stimmt das so?
      Absolut, alles andere führt zu Bildstottern, vor allem erkennbar bei langsamen Schwenks. Wenn du für PCs, Tablets, Smartphones, etc ausgeben willst, dann am besten mit einem Vielfachen oder Teiler von 60 arbeiten, das passt für die meisten Geräte (NTSC). Für TV Geräte würde man bei uns traditionell wohl eher die PAL Raten nehmen, aber ich denke dass die meisten TVs mittlerweile sowieso beides können. Bzw. mit einer auf 60fps laufenden Amazon Box o.ä. ist man auch am TV wieder mit 30/60/120fps im Vorteil.


      Mehr nur dann, wenn ich Zeitlupen haben möchte.
      Da gehen die Meinungen weit auseinander. Manche halten langsame Frameraten für cineastischer, ich halte sie einfach nicht mehr für Zeitgemäß.
      Höhere Frameraten wirken flüssiger und sind angenehmer für die Augen. Argumente für niedrige Frameraten stehen für mich in einer Reihe mit Argumenten für Schwarzweiß- oder Stummfilm...Für die Einen ist es Kunst, für die anderen Bullshit. Jeder wie meint. Ich würde mir auch Kinofilme sehr viel lieber in 60fps ansehen.

      Man muss aber auch einen Kompromiss mit der verwendeten Auflösung eingehen. Ein 4k60fps YT-Stream wird auf vielen Rechnern nicht flüssig laufen und Zuschauer auf niedrigere Auflösungen zwingen. Also wenn man möchte dass alle Zuschauer das Video in 4k genießen können, wären 30fps derzeit die bessere Wahl. Mit niedrigeren Auflösungen würde ich 60fps bevorzugen.
      Allerdings macht es ja selbst bei 1080p Material Sinn dieses vor dem Upload auf 4k hoch zu skalieren, weil die Konvertierung die YT vornimmt dann mit höherer Bandbreite vollzogen wird. (1080p Material sieht betrachtet in einem 4k YT Stream wesentlich besser aus als in einem 1080p Stream.) Das bedeutet dass man auch für nicht 4k Videos abwägen muss ob man mehr Wert auf Bildqualität oder auf Wiederholrate legt. Ich bin da selbst immer hin und her gerissen, entscheide mich aber meistens fürs hoch skalieren auf 4k@30fps gegenüber 1440@60fps.

      Dieser Beitrag wurde bereits 12 mal editiert, zuletzt von gsezz ()

    • 60fps sind ja hinsichtlich der Aufnahme aktuell bei DJI eh kein Thema (abseits des Line-skippenden Phantom 4 Pro)
      Und selbst wenn es 4K@60p dann mal ohne Binning/Skipping gibt (Mavic 3?), und man auf den Video-Look steht, ist die Bitrate aktuell mit V30 Karten auf etwa maximal 100-120 Mbit/s limitiert. Schon allein aus diesem Grund sind 4K mit 60 Frames/s ziemlicher Quatsch, und man sieht es auch in Artefakten bei Kameras, die 60p mit 100 Mbit/s aufnehmen können.
      Das gleiche gilt analog für FullHD, da hier immer mit reduzierter Bitrate aufgenommen wird. Für 4K/60p braucht es einfach mehr Megabit/s und damit ein anders Speicherkarten-Format und -Interface (UHS-II). Alles andere ist Marketing, und das Reinfallen auf selbiges.

      Wie auch immer, für YouTube würde ich eine NTSC-Framerate wählen (24p oder 30p), da PAL-Frameraten auf Computer-Moitoren ruckeln, da sie meist mit NTSC-Bildwiederholfrequenzen oder einem Vielfachen davon arbeiten (bspw 120 Hz). Fernsehern ist das egal, da sie inzwischen sehr gute Scaler eingebaut haben, die nahezu jegliche Frameraten ruckelfrei aufbereiten (einigermaßen moderne TVs vorausgesetzt).

      Wichtige Ausnahme: Man filmt in PAL-Ländern (Europa, Japan, usw) indoor oder unter sonstigem Kunstlicht (Laternen, Neonröhren, manche LED-Lampen, usw). Um hier Flackern zu vermeiden, stellt man die Kamera um und nimmt 25fps auf (mit durch 25 teilbaren Shutter). Ausgegeben werden die dann trotzdem wieder über ein 24fps Projekt im Schnittprogramm (bei Drohnen-Footage fast unmerklich möglich, da ja ohne Ton)

      Dieser Beitrag wurde bereits 4 mal editiert, zuletzt von skyscope ()

    • Wenn ich dich richtig verstehe dann ist dein Punkt dass es niemals Sinn macht in 4k60 zu filmen, weil die Bildqualität unter der höheren Framerate leidet. Letzteres ist Zweifelsohne korrekt, aber letztlich muss man doch abwägen auf was man mehr Wert legt. Zumal die meisten Kameras in Sachen Bildqualität doch sowieso meilenweit von dem entfernt sind was mit 4k theoretisch möglich wäre. Keine Consumer Kamera ist mit Filmequipment vergleichbar, und wenn sowieso nur für YT produziert wird ist die erreichbare Bildqualität doch sowieso sehr begrenzt. Ich kann zwischen 4k60 und 4k30 Gopro Videos auf YT keinen qualitativen Unterschied feststellen, zumindest keinen der mir ohne direkten A-B vergleich ins Auge springen könnte. Die höhere Framerate springt aber definitiv gleich ins Auge. Also wäre die Wahl bei dieser KAmera für mich klar für die höhere Framerate. (Wobei 4k60 auf YT derzeit wirklich keinen Sinn macht, weil es halt auf vielen Endgeräten einfach nicht abspielbar ist.)

      Bei niedrigeren Auflösungen, bei denen die Kamera nicht an ihrem Bandbreitenlimit arbeitet, würde ich erwarten dass für 60fps eine höhere Bitrate verwendet wird als für 30fps. Aber auf der anderen Seite verstehe ich sowieso nicht weshalb sich viele Kameras überhaupt auf so niedrige Bitraten begrenzen. Außer natürlich um die höheren Auflösungen im Vergleich besser aussehen zu lassen...
    • @gsezz: Irgendwie widersprichst Du Dir innerhalb zwei direkt aufeinanderfolgenden Sätzen.

      gsezz schrieb:

      ... Ich kann zwischen 4k60 und 4k30 Gopro Videos auf YT keinen qualitativen Unterschied feststellen, zumindest keinen der mir ohne direkten A-B vergleich ins Auge springen könnte. Die höhere Framerate springt aber definitiv gleich ins Auge. ...
      Oder möchtest Du tatsächlich die Frame-Rate von der Qualität trennen.

      Meines erachtens wir die Framerate und auch die Bildauflösung komplett überschätzt. Bei uns in der Firma werden Unternehmensfilme in FullHD (teil in HD) mit 25 fps (PAL) gedreht und veröffentlicht, und da fällt Dir das Auge raus, was da für eine Qualität raus fällt.

      Ich kann Deine Einschätzung nur dahingehend teilen, bei höherer Framerate muss man sich weniger mit der Filmtechnik auseinandersetzen. Man kann dann eher die Belichtungszeit außer Acht lassen und bekommt dennoch einigermaßen flüssig wirkende Aufnahmen hin. Ob solche Aufnahmen dann besser sind, mag ich dann stark bezweifeln, weil gerade die Automatik-Filmer dann auch alle anderen Faktoren (Blende, ISO, Filter, etc.) die eine Qualität definieren ebenfalls außer Acht lassen.

      Klar muss aber auch sein, dass wenn doppelt so viele Bilder sich dieselbe Bitrate teilen müssen, dass dann jedes Einzelbild eben nicht mehr dieselben Bildinformationen enthalten kann, wann im allgemeinen zu Artefakten oder „Pumpen“ im Bild führt. Hohe Framerates sind für mich dann interessant, wenn ich eine Zeitlupe des Motives in meinen Film einfügen möchte. Das ist der einzigste Grund warum ich auch gern eine 60fps-Kamera haben möchte. Da ich aber in aller Regel so oder so fast nur in FullHD ausspiele, habe ich dann die Möglichkeit die Aufnahmen dann bereits in diesem Format mit höherer Framerate aufzunehmen, dann halt mit weniger Möglichkeiten in der Post was Format und Ausschnitt anbelangt.
    • Irgendwie widersprichst Du Dir innerhalb zwei direkt aufeinanderfolgenden Sätzen.
      Oder möchtest Du tatsächlich die Frame-Rate von der Qualität trennen.
      Ich glaube es kam einfach nicht rüber was ich mit Qualität meinte.

      Klar muss aber auch sein, dass wenn doppelt so viele Bilder sich dieselbe Bitrate teilen müssen, dass dann jedes Einzelbild eben nicht mehr dieselben Bildinformationen enthalten kann, wann im allgemeinen zu Artefakten oder „Pumpen“ im Bild führt.
      Genau diese zusätzlichen Bildinformationen meinte ich. Mit weniger frames pro Sekunde kann jedes einzelne frame für sich besser aussehen. Wenn ich von diesem Pumpen, oder mehr Artefakten beim ansehen aber nichts merke, dann entschiede ich mich eher dafür die zur Verfügung stehende Bitrate in höhere Framerate zu investieren, statt in die Bildinformation, weil ich davon beim anschauen mehr profitiere.

      Wir müssen hier nicht die wirklich zu genüge geführte Diskussion, ob höhere frameraten besser aussehen, fortsetzen. Jedem seine Meinung. Ich finde flüssigeres Bild einfach wesentlich entspannender für die Augen. So wie ich Filme lieber in einem weichen Sessel anschaue, als auf einer harten Holzpritsche, würde ich sie auch lieber in höherer Framerate sehen als in 24fps. Wenn die Filmindustrie weniger flüssiges Bild als Kunst bezeichnen will bin ich meinetwegen ein Kunstbanause.

      Dieser Beitrag wurde bereits 5 mal editiert, zuletzt von gsezz ()

    • gsezz schrieb:

      Wenn ich dich richtig verstehe dann ist dein Punkt dass es niemals Sinn macht in 4k60 zu filmen, weil die Bildqualität unter der höheren Framerate leidet.
      Ganz und gar nicht. Wenn die Bildqualität unter höheren Framerate leidet.
      Und das ist bei den DJI-Coptern der Fall, da bei höheren Frameraten keine höhere Bitrate verwendet wird - zwangsläufig.
      Mit Bodenkameras (bspw. Canon C200 oder BM Ursa Mini Pro) filme ich bspw. nie unter 50/60p, um die Option für 50% Slow-Motion offen zu haben. Die zeichnen dann aber auch in doppelter Bitrate auf, bzw. das RAW-Footage belegt doppelt so viel Speicher. Schau Dir Verabeitungs-Codecs wie ProRes an, auch da heißt doppelte Framerate = doppelte Bitrate.


      gsezz schrieb:

      Keine Consumer Kamera ist mit Filmequipment vergleichbar, und wenn sowieso nur für YT produziert wird ist die erreichbare Bildqualität doch sowieso sehr begrenzt.
      Hmm. Ist die Mavic 2 Pro Kamera eine Consumer Kamera? Falls ja, solltest Du Deinen Standpunkt überdenken. Wir schneiden regelmäßig M2P-Footage mit eben RAW-Footage von ausgewiesenen Filmkameras zusammen, nicht nur für YouTube, und das ist (erstmalig) ziemlich unmerklich möglich.
      Ähnliches gilt für Mirrorless-Kameras auf Gimbals wie Sony A7x oder A6xxx Serien (trotz 8-Bit), oder Panasonic GH5. Das sind ja nun auch Consumer-Kameras und kein Profi-Equippment im eigentlichen Sinne. Oder die Nikon Z6 in Verbindung mit dem Atomos Ninja V, da wird RAW aufgezeichnet, etwas, was viele ausgewiesene Filmkameras von Haus aus (noch) nicht können.

      gsezz schrieb:

      Ich kann zwischen 4k60 und 4k30 Gopro Videos auf YT keinen qualitativen Unterschied feststellen, zumindest keinen der mir ohne direkten A-B vergleich ins Auge springen könnte.

      Da gebe ich Dir Recht, wenn die Clips wenig oder gar nicht bearbeitet wurden. Sobald Du aber anfängst, Hand daran anzulegen, wird der Unterschied schnell deutlich. Höhere Framerate bei konstanter Bitrate = mehr Kompressionsartefakte = mehr Banding = viel weniger Spielraum für die Nachbearbeitung.
      Und Nachbearbeitung heißt jetzt nicht wildes Color Grading, sondern vielleicht einfach nur das Matchen/Anpassen des Bildes mit anderen Kameras, siehe oben.


      gsezz schrieb:

      Wobei 4k60 auf YT derzeit wirklich keinen Sinn macht, weil es halt auf vielen Endgeräten einfach nicht abspielbar ist.
      Verstehe ich nicht, warum sollte das so sein? 4K60p mit bspw. 100 MBit/s ist für den Rechner nicht viel aufwändiger abzuspielen als 4K30p mit 100 MBits/s.



      Letztlich ist das ja hier sowieso kein zentrales Thema und man kommt da auch nie auf einen grünen Zweig.
      Für die 60p Anhänger (oder die 48p Kino-Fans) geht es ja um weniger Motion Blur. Warum fragt sich aber niemand, warum vieles im Kino und bei Netflix und Co. (Werbefilm soweiso) auch 120p oder 240p gedreht wird (wenig Motion Blur für VFX-Effekte / Compositing / Slow-Motion Option), um dann hinterher wieder in 24p/25p ausgespielt zu werden, mit rein gerechnetem Motion Blur?

      Welchen anderen Grund mag das haben, als dass es dem Zuschauer wohl letztendlich einfach besser gefällt? :)
      Bei Sport, viel Action und 3D sieht das vielleicht anders aus, bei regulärem Film wird sich das meiner Meinung nach mittelfristig nicht ändern.

      Dieser Beitrag wurde bereits 7 mal editiert, zuletzt von skyscope ()

    • Verstehe ich nicht, warum sollte das so sein? 4K60p mit bspw. 100 MBit/s ist für den Rechner nicht viel aufwändiger abzuspielen als 4K30p mit 100 MBits/s.
      Wenn YT in 4k60 einen anderen codec verwendet als in 4k30 kann das schon sein. Ich glaube das Problem war dass eine Browser die Hardwareunterstützung für die 60fps Streams nicht genutzt haben. Mir ist das Problem aufgefallen als hier im Forum neulich jemand einen Link zu einem 4k60 Video gepostet hat. Das hat bei mir über 50% der frames gedropt. Dann hat er es mir als mp4 zugeschickt, und das lief lokal völlig problemlos. Auch der 1440p60 stream hat noch leicht frames gedropt, erst 1080p60 lief flüssig. Ich habe mich dann mal im Bekanntenkreis umgehört, und da hatten viele das gleiche Problem. Und andere bekamen in ihrem Browser überhaupt keine 60fps angeboten.
      Ich kann das jetzt gerade mit Vivaldi und Chrome aber auch nicht reproduzieren. Vielleicht hat sich da was gebessert.
    • Da ich es war, der das Thema hier nochmal aufgegriffen hat, melde ich mich hier nochmal kurz dazwischen.

      Ich werde mit der bestellten Mavic Mini eh keine 4K Aufnahmen machen können. Außerdem frage ich mich, wozu ich 4K-Aufnahmen bei Youtube brauchen sollte, wenn die meisten User daheim gar keinen Monitor mit entsprechender Darstellungsmöglichkeit haben!?

      Kan mir denn mal jemand erklären inwiefern Framrate und Bitrate zusammenhängen!? Ich habe davon wirklich keine Ahnung und will auch keine Doktorarbeit darin ablegen.
      Ich frage nur für einen Freund. ;-)
    • Die Bitrate ist die Datenmenge pro Sekunde Videomaterial. Nutzt man mit 60fps die gleiche Bitrate wie mit 30fps müssen doppelt so viele Bilder mit dem gleichen Datenvolumen auskommen. Das bedeutet dass die einzelnen Bilder in etwas schlechterer Qualität gespeichert werden müssen um Platz zu sparen. Für höhere Frameraten sollte man also eigentlich eine höhere Bitrate wählen, was aber bei 4k nicht geht weil die sowieso schon die maximale Schreibgeschwindigkeit der SD Karte komplett auslastet.
      skyscope schrieb dass für RAW und ProRes bei doppelter framerate die doppelte Datenmenge anfällt, bzw die Bitrate doppelt so hoch ist/sein müsste. Das gilt so aber nicht für alle codecs. Bei höherer Komprimierung wird für zusätzliche frames nicht ganz so viel zusätzlicher Speicherplatz benötigt. Youtube empfiehlt z.B. in H.264 für 60fps nur um 50% höhere Bitraten als für 30fps.

      Dieser Beitrag wurde bereits 5 mal editiert, zuletzt von gsezz ()