Guter Computer für 4k Videoschnitt

    ACHTUNG: Mit der neuen EU Drohnenverordnung muß sich jeder Drohnen-Betreiber beim Luftfahrtbundesamt registrieren und seine Drohne mit der e-ID kennzeichnen! Ein passendes Kennzeichen bekommst Du hier im Shop. Außerdem benötigst Du eine Drohnen-Versicherung. Hier geht es zu unserem Drohnen-Versicherungsvergleich. Informationen zum neuen EU Drohnenführerschein gibt es hier.

    • Also abgesehen davon dass ich keine Ahnung habe was OC sein soll, aber im Wesentlichen stimme ich meinem Vorredner zu. 256GB als Systemplatte sind echt wenig. Die 2TB als D: oder so sind gut. Der Rest sieht in meinen Augen auch gut aus....

      i.
      Inspired... weil Mavicced ist ja irgendwie doof, oder?
    • Bei Speicher währe ich auch vorsichtig. Du hast 16 GB, die reichen sind aber auch nicht gerade üppig. Wenn ich das richtig sehe werden mit dem Quad-Kit jetzt 4x4GB verbaut. Das heißt die üblichen 4-Speicherslots sind voll. Eine Speicheraufrüstung ist somit nur mit einem Komplettausch möglich. Würde da lieber die etwas geringer teuere 2x8 GB-Lösung wählen.
    • Mich verwirren hier ein paar Dinge, vielleicht könnte da mal jemand Klarheit rein bringen.

      Was ist denn "rendern" bei der Videobearbeitung genau?

      Ich kenn es speziell von der 3D Bilderzeugung, da wird eine Beschreibung des Bildes erstellt in der Form, dass Objekte, Oberflächeneigenschaften und Lichtquellen definiert werden und daraus wird dann das Bild errechnet. Diese errechnen des Bildes ist nach meinem Verständnis das Rendern.

      Beim Video bearbeiten wird das Datenstrom gelesen und decodiert. Nach dem Decodieren hat man ein Bild, da wird nicht gerendert. Wenn man dann das fertige Video exportiert, wird wieder codiert. Das ist auch kein rendern. Ist also rendern möglicherweise das anwenden der Effekte? Dann frage ich mich, was hat die Auflösung des Videos damit zu tun? Beim Arbeiten wir j in der Regel mit temporären Dateien und einer Arbeitsauflösung gearbeitet, die volle Auflösung wird ja erst wieder beim Export erzeugt. Und die erforderliche Rechenleistung für das decodieren und erzeugen der temporären Daten zum Arbeiten ist ja nicht in dem Maße rechenintensiv wie später bei der Ausgabe. Und selbst irgendwelche Bild in Bild Effekte mit drehen, schieben und überblenden brauchen ja nur einen Bruchteil der Rechenleistung, wie das beim Rendern von 3D Grafiken bei irgendeinem Spiel der Fall ist.

      Und wenn ich mal so grob abschätze, mein Rechner hat mit seiner i7 CPU eine Rechenleistung die im doch bescheidenen 2-stelligen GFLOP Bereich liegt. Wenn ich da einen Clip mache und der für die Ausgabe 5 Minuten braucht, dann müßte er das mit einer GPU mit 4TFLOPS nur noch 3 Sekunden brauchen und mit einer Hochleitungs GPU im 2-stelligen TFLOP Bereich in weniger als 1 Sekunde. Da frag ich mich, ist das wirklich so? Und wenn ja, warum braucht man zum Video schneiden einen Rechner, der ein 4K Video ein vielfaches schneller als Echtzeit ausgeben kann? Mehr als Echtzeit beim Arbeiten nutzt doch nichts, Oder? Und wenn ein Clip dann 5 Minuten Laufzeit hat und der REchner den dann auch in 3 Minunten erzeugt wäre das für mich OK, muss ein Rechner ein 5 Minunten Videoclip wirklich in weniger als einer Sekunde erzeugen können?

      Also reizen würde mich das schon, kann mir da mal jemand eine Hardware nennen, die das wirklich kann?
    • Rendern bezeichnet das Ausspielen einer Schnittfassung in einen finalen Film, also sozusagen das finale Exportieren aus der Timeline.
      Es geht dabei auch nicht um simples Decodieren/Encodieren, sondern um die Berechnung von einzelnen Frames aus verschiedenen Layern von Anpassungen, Effekten und (3D-)Compositings, gleichzeitig um das Mastering der Tonspuren.
      Je nachdem, was man angestellt hat, dauert das bei einm 5 Minuten Film auch bei schnellen Rechnern schon mal 30 Minuten. Von Echtzeit also keine Rede. Je schneller der Rechner, desto schneller steht dieser also wieder für die Bearbeitung zu Verfügung.
      Wie man einen Rechner nun aufbaut oder konfiguriert, und ob man eine höhere Priorität bei CPUs oder GPUs setzt, lässt sich nicht pauschalisieren und hängt wie @quadle es oben schon skizziert hat, vom eingesetzten "Schnittprogramm" ab.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von skyscope ()

    • Mru schrieb:

      Sehr schön formuliert. Und beim Erzeugen des Filmes ist die CPU gefragt (Ausnahme hiervon sind spezielle Videoschnittkarten, die einen Teil des Renderns "unterstützen") und beim Erzeugen des Vorschaumaterials die GPU.
      Plattformunabhängig richtig für Adobe Premiere, gilt aber beispielsweise so pauschal nicht für FCPX auf dem Mac (und auch nicht für Davinci Resolve). Premiere kann bspw. nur eine GPU mehr schlecht als recht nutzen, FCPX und Resolve sind schon bei nur einer GPU viel effizienter und unterstützen auch alle im System vorhandenen GPUs auch für das Rendern.

      Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von skyscope ()

    • skyscope schrieb:

      Rendern bezeichnet das Ausspielen einer Schnittfassung in einen finalen Film, also sozusagen das finale Exportieren aus der Timeline.
      Es geht dabei auch nicht um simples Decodieren/Encodieren, sondern um die Berechnung von einzelnen Frames aus verschiedenen Layern von Anpassungen, Effekten und (3D-)Compositings, gleichzeitig um das Mastering der Tonspuren.
      Je nachdem, was man angestellt hat, dauert das bei einm 5 Minuten Film auch bei schnellen Rechnern schon mal 30 Minuten. Von Echtzeit also keine Rede. Je schneller der Rechner, desto schneller steht dieser also wieder für die Bearbeitung zu Verfügung.
      Wie man einen Rechner nun aufbaut oder konfiguriert, und ob man eine höhere Priorität bei CPUs oder GPUs setzt, lässt sich nicht pauschalisieren und hängt wie @quadle es oben schon skizziert hat, vom eingesetzten "Schnittprogramm" ab.

      Das wäre bei Videobearbeitung auch ungefähr meine Vorstellung. Das hieße dann aber auch, dass die Leistung einer GPU bei dem, was wie als rendern bezeichnen, fast keine Rolle spielt. Denn beim finalen Exportieren wird der Film ja in der Regel nicht einmal auf dem Bildschirm angezeigt. Man muss da also beim Wort "Rendern" ganz deutlich unterscheiden, ob es um Bearbeitung von Videomaterial geht, da hat die GPU eigentlich nur eine Bedeutung beim Arbeiten, aber da wird sie kaum gefordert und die Rechenarbeit macht die CPU. Bei Games oder dem erzeugen von synthetischen Bildern (z.B. computeranimierten Zeichentricks) hätte dann die GPU die Hauptlast der Rechenarbeit zu tragen.
    • skyscope schrieb:

      Muss mich aber doch noch mal korrigieren, bin bei Premiee nicht so auf dem Laufenden. ;) Zum Rendern kann Premire in bestimmten Konfigurationen doch mehrere GPUs nutzen, nur nicht beim Schneiden und beim Playback in der Timeline.
      das ist mir nicht bekannt. Hast du ein Tipp wie mehrere GPU's genutzt werden können?
    • @DJIPHV+, vielleicht gibst Du uns mal kurz ein Feedback dazu, ob es für Dich OK ist, wenn wir in "Deinen" Thread hier etwas allgemeiner werden. Ansonsten knapse ich die Beiträge raus und verschiebe sie in einen eigenen Thread.

      __

      @Mru, ich bin ja bei Windows nicht (mehr) unser Experte, aber Du benötigst aktuelle Grafikkarten (meines Wissens NVIDIA only), und aktuelle Treiber, die die "Mercury Playback Engine" von Adobe unterstützen. Dann kannst Du das in den Render-Settings in Premiere oder AE auswählen.

      Aber versprich Dir nicht zuviel davon: pugetsystems.com/labs/articles…-Performance-Update1-806/
    • balloonix schrieb:

      Das hieße dann aber auch, dass die Leistung einer GPU bei dem, was wie als rendern bezeichnen, fast keine Rolle spielt. Denn beim finalen Exportieren wird der Film ja in der Regel nicht einmal auf dem Bildschirm angezeigt.

      Du vernachlässigst dabei, dass die GPU bei Rechenprozessen heutzutage mit hinzugezogen wird. Auf Windows geschieht das meist durch die Applikationen selbst, siehe Premiere und Mercury Playback Engine oben.

      Und da haben wir dann auch den signifikanten Unterschied herausgearbeitet, denn beim Mac bietet bereits das Betriebssystem sehr einfach anzusprechene Schnittstellen / Frameworks an, so dass die Applikationen mit der Komplexität bei der Verteilung von Aufgaben auf CPUs / Kernen und GPUs gar nichts groß zu tun haben müssen (vor allem OpenCL und Metal, aber auch Grand Central Dispatch und die AV Foundation). Selbstverständlich macht aber Premiere auf dem Mac davon keinen Gebrauch, aber das ist ein anderes Thema. ;)

      Jedenfalls ist das ist der Grund dafür, dass FCPX auf gleichwertiger und selbst minderwertigerer Hardware Kreise um Premiere läuft, sowohl bei der Bearbeitung, beim Playback und auch beim Rendern. Unabhängig davon, ob man sich nun einen Mac kauft, oder einen Hackintosh aufbaut.
      (Gleiches gilt aus diesen Gründen nebenbei bspw. auch für Affinity Photo vs Photoshop oder Affinity Designer. vs. Indesign)

      __

      Insgesamt spielt also die Software eine wesentlich größere Rolle bei der Geschwindigkeit eines Rechnersystems vor allem für die Videobearbeitung, als man im Allgemeinen annimmt. Oder anders gesagt, was nützt die schönste Hardware, wenn sie die Software nicht auszunutzen vermag.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von skyscope ()

    • Hallo alle zusammne,

      Erst mal ein frohes neues Jahr allen zusammen! ;)

      By the way... in nativen 4k direk tzu schneiden ist pure Resurcen verschwendung. Ich schneide selbst 4k ProRES bzw. 3.4k ARRIRAW Footage (10-14Gb/s Datenrate bei ARRIRAW - zum vergleich, eine Phantom 4 pro Cam hat bei 4k 60FPS - 100MBit/s) am MacBook Pro von ende 2013. Das geheimnis an der Sache ist, vorher sogenante Proxy Files erstellen zulassen. Dann kann man selbst auf einem Notebook von vor zwei Jahren 6k Material vernüftig schneiden. Das machen fast alle Professionellen Anwender so... alles andere ist purer Material-Mord! Oder glaubt ihr etwa das jeder Profi-Filmer eine 30k € Workstation zuhause stehen hat?? :D

      Das fertig Rendern im anschluss brauch dann zwar eine weile, aber das ist meist zu ertragen oder läuft dann halt im hintergrund oder über nacht. ;)

      Insofern, bin ich doch reichlich erstaunt was hier für ein Aufwand betrieben wird um 08/15 4k Footage von einer Phantom zu schneiden. :P

      Viele Grüße

      Florian

      ps

      Möchtest du ein gescheites Schnittprogramm haben welches dir die möglichkeit mit Proxy Files zu Arbeitet bietet, dann schau dir mal DaVinci Resolve an... die Basic Version gibts ganz offiziel Gratis von Blackmagic! :)

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von fkn1980 ()

    • Ja, so wohl die Datenrate als auch die letztendlich geringere Informationsmenge im Material (8bit, nur ein 4:2:0 Farbraum und kein besonders großen Kontrastumfang "kein HDR"). Einzig die sehr hohe Kompression braucht relativ viel CPU leistung... aber selbst da für braucht es eigentlich kein Core i7 bzw. eine Monster Grafikkarte.

      Oft macht es mehr sinn, sich ein Natives 4k Display zu kaufen. Da die Grafikkarte dann nicht noch mal extra umrechnen muss... oft verschwinden die ruckler z.b. bei der Widergabe alleine schon nur da dürch.