,

Videoediting in einer cloudbasierten Produktionsumgebung

Videoediting in einer cloudbasierten Produktionsumgebung

 

Verändernde Arbeitsstile und die Globalisierung der Medienbranche steigern den Bedarf an "Remote" -Arbeit und -Kooperation, ein Bereich, in dem "die Cloud" vielversprechende Möglichkeiten bietet. Cloudbasierte Videobearbeitung stellt jedoch eine Reihe von Herausforderungen dar, die es zu bewältigen gilt, um den Benutzer auch in Remote-Workflows performante Videobearbeitung von Videos in möglichst hoher Qualität zu bieten.

Herausforderungen bei cloudbasierter Videobearbeitung

Für Fernsehsender, Produktionshäuser sowie die Postproduktion im Allgemeinen sind standortübergreifende Workflows mit Remote-Editing eine echte Herausforderung. Traditionell gibt es zwei Ansätze zur Videobearbeitung an lokalen oder vernetzten Standorten.

Zum einen ist das „Proxy“ oder „Low-Res“-Bearbeitung mit spezialisierten Editing Clients. Diese Clients bieten einen optimierten Funktionsumfang und benötigen eine geringere Auflösung und somit auch weniger Bandbreite für die Bearbeitung von Videos. Diese werden anschließend wieder mit dem Originalmedium verknüpft. Nach der Bearbeitung werden die Projekte an sogenannten „Craft“-Edit-Clients mit Zugriff auf das hochaufgelöste Material, wie Adobe Premiere Pro, weiterverarbeitet. Alternativ kann auch direkt ein neuer Clip durch eine serverseitige Rendering-Engine erstellt werden. Dieser Ansatz hat immer noch viele Vorteile, vor allem bei journalistischen oder Highlight-Bearbeitungen, die nur einfache Änderungen oder Voice-Over erfordern.

Ein zweiter Ansatz ist die direkte Verbindung des Editors zum zentralen Speicher über ein Virtual Private Network (VPN), denn immer mehr Verbindungen sind mit hoher Bandbreite verfügbar. Doch selbst bei schnelleren Breitbandverbindungen führen höhere Latenzen dazu, dass bei diesem oftmals keine performante Videobearbeitung möglich ist.

Cloudbasiertes Videoediting scheint hier die Antwort zu sein, aber Cloud-Technologie allein kann die oben genannten Probleme nicht lösen.

In diesem Artikel gehen wir auf die technischen Innovationen ein, die erforderlich sind, um cloudbasiertes Editing für den täglichen Einsatz von Journalisten und Editoren zu optimieren. Dabei kommt eine Kombination aus Streaming-Server, SMPTE RDD25-basierten HD Proxy und hybrider Cloud Architektur zum Einsatz.

Technischer Überblick

Wir betrachten hier eine hybride Craft-Editing-Installation, erweitert um Remote-Editing. Ein Video mit hoher Bitrate und damit hohem Speicherverbrauch befindet sich auf einem „On-Premise“-Speicherplatz und kann von lokalen Journalisten und Editoren genutzt werden. Neue Dateien werden dabei mit Zugriff auf die HiRes-Dateien gerendert. Die Proxy-Dateien wiederum werden auf Basis wachsender Dateien am Hauptstandort erzeugt und in der Cloud gespeichert. Der Streaming-Server und das Backend der Projektmanagement-Anwendung werden ebenfalls in der Cloud gehostet und ermöglichen es Redakteuren und Journalisten, Projekte auszutauschen

Cloud; Videoediting; EditMate

Streaming-Protokoll

Die Wahl des Streaming-Protokolls ist entscheidend. MPEG DASH ist gut für lineare Vorwärtswiedergabe geeignet, allerdings weniger für schnelle Sprünge oder Vorlauf (Scrubbing). Obwohl diese Funktion grundsätzlich zur Verfügung steht, ist die Performanz des Scrubbings aufgrund der Größe der Segmente, die vom Server zum Remote Client übertragen werden, nicht optimal. Deshalb wird zur Verbesserung der Performanz ein Protokoll implementiert, in dem nur die minimal erforderlichen Essenzdaten übertragen werden.

Proxy-Format

Je höher die Auflösung des Proxies  ist, desto besser eignet es sich für anspruchsvolles Editing. RDD25 wurde ursprünglich für den Einsatz mit niedriger Auflösung entwickelt. Die Erweiterung des Standards mit beispielsweise H.264 in MXF und einer Bandbreite von 6-8Mbit/s, bei 1920x1080 Pixeln sowie 16 Audiospuren verbessert das Benutzererlebnis erheblich. Subjektive Tests mit Anwendern zeigen, dass auch mit geringeren Datenraten gute Ergebnisse zu erzielen sind.

Audio

Audiodateien sind ein wichtiger Bestandteil des Editing Workflows. Um Audio Hüllkurven zu erzeugen, muss normalerweise die gesamte Datei von der Editing Anwendung analysiert werden. Audiohüllkurven, die direkt nach dem Import durch das Backend erstellt werden und damit auch unmittelbar im Client verfügbar sind, reduzieren die Analysezeit deutlich und beschleunigen somit den Gesamtworkflow

Übertragung der angeforderten Frames

Journalisten – vor allem im Sportbereich – müssen häufig große Mengen an Videos durchsuchen, um diejenigen Elemente zu finden, die sie benötigen. Eine optimierte Suchperformanz erleichtert hierbei die Arbeit der Redakteure und Journalisten. Eine weitere wesentliche Verbesserung ist, dass nur die für die Dekodierung benötigten Frames an den Client gesendet werden: Dies reduziert die Latenz beim Streaming und führt zu einer besseren Benutzerfreundlichkeit

Asynchron / Halbduplex – Vollduplex

Asynchrone Frame-Anforderung verbessert die Antwortzeiten. In einem asynchronen Frame-Request-Szenario kann der Client mehrere Requests gleichzeitig senden und währenddessen alle Rückgabeinformationen empfangen.

Übertragungsprotokoll

Um einzelne Frames bei Bedarf transportieren zu können und sicherzustellen, dass der Streaming Server und der Client das Senden und Empfangen (RX/TX) von Anfragen und Antworten parallel über dieselbe TCP-Verbindung unterstützen, wurde ein proprietäres Protokoll eingeführt.

Videoediting in der Cloud ist möglich. Mit diesen Verbesserung wird es zur Wirklichkeit.

Um die Schnelligkeit eines professionellen Läufers – zum Beispiel Usain Bolt – zu verbessern, arbeitet er nicht nur einseitig an einzelnen Faktoren. Er und sein Team optimieren sukzessive mehrere Faktoren, um eine Leistungssteigerung zu erzielen: Wenn sein Schritt einen Zentimeter länger sein kann, seine Startzeit eine Viertelsekunde schneller, erreicht er die 100-Meter-Marke noch schneller. Ebenso gibt es keine einzelne Änderung, die den Workflow der cloudbasierten Videobearbeitung soweit verbessert und beschleunigt, dass eine cloudbasierte Bearbeitung zur Norm wird.

Benötigt werden Expertenteams, die sich mit den verschiedenen Elementen der einzelnen Bereiche auskennen – Server-Storage-Konnektivität, Verwendung von TCP, Reduzierung der Anzahl der übertragenen Frames, verbesserte Streaming-Protokolle und bessere Handhabung von Audiodateien sowie intelligentes lokales Caching.

Videoediting in der Cloud ist möglich. Mit diesen Verbesserung wird es zur Wirklichkeit.


Über den Autor des Beitrags:

Karsten Schragmann ist ein erfahrener Produktmanager für professionelle Audio- und Videoprodukte sowie -lösungen. Bei Arvato Systems ist er für die strategische Positionierung und Weiterentwicklung der Production Asset Management Lösung VPMS EditMate verantwortlich.

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.