Freitag, 22. April 2016

4K auf dem Mac bearbeiten Stellen Sie sicher, dass Ihr Mac mit 4K klar kommt

Wenn Sie auf dem Display Ihres MacBook Pro Retina nicht genügend Platz für die verschiedenen Fenster von Final Cut Pro haben, sollten Sie in den Einstellungen die Fenster verkleinern
Das Ziel einer Bearbeitungs-App ist es, eine Abfolge von Videos, die einzeln aufgenommen worden sind, in der Art zusammenzusetzen, dass es thematisch zusammenpasst. Die Bearbeitung ist ein sehr wichtiger Bestandteil des Prozesses, eine Geschichte bei der Produktion eines Videos zu erzählen.

Apple hat zwei Bearbeitungs-Apps für diejenigen entwickelt, die viele Videos aufnehmen: iMovie richtet sich an alle Nutzer, während Final Cut Pro X auf fortgeschrittene und professionelle Benutzer abzielt. Auf den ersten Blick erscheint Final Cut Pro X sehr einfach bedienbar und es weist große Ähnlichkeiten zu iMovie auf. Es ist jedoch so, dass iMovie kostenlos für den Mac und iOS-Geräte verfügbar ist, Final Cut Pro X kostet hingegen einiges mehr: nämlich ganze 299,99 Euro

Einer der besten Wege, die Bearbeitung eines Videos zu erlernen, ist, ein Kurzvideo zu machen, das ca. drei bis fünf Minuten lang ist. Dieses sollte aus noch kürzeren Clips oder Aufnahmen zusammengesetzt sein, die zwei bis zehn Sekunden lang sind. Die Aufgabe soll es dann sein, eine gewisse Stimmung zu kreieren und eine Verbindung zwischen den Bildern, der Musik und den Texten dieser Musik herzustellen. Wenn Sie dies ausprobieren, werden Sie merken, dass dies eine großartige Möglichkeit ist, die Bearbeitung von Videos zu erlernen. Außerdem trainiert man sein künstlerisches Auge und entwickelt ein Gespür für emotionale Inhalte.

Bei iMovie und Final Cut Pro X ist die Bearbeitung im Allgemeinen in vier unterschiedliche Arten unterteilt, nämlich zwischen zwei Bildschirmen, einer Timeline und einer Browser-Fläche für das Projekt. Der Browser des Projekts enthält das unbearbeitete Rohmaterial, das Sie aufgenommen haben. Die Timeline stellt den Film dar, wie er während der Bearbeitung aussieht – hier kann man die unterschiedlichen Sequenzen des Clips erstellen. Der erste Bildschirm links ist dafür gedacht, das Rohmaterial anzuschauen und es zurechtzuschneiden, bevor das Material in die Timeline platziert und auf den Bearbeitungsprozess vorbereitet wird. Der zweite Bildschirm (meist der auf der rechten Seite) ist dazu da, die Timeline selbst abzuspielen. Sobald der Clip zur Timeline bewegt wurde, kann man auch Effekte zum Bild hinzufügen und eine visuelle Ästhetik in Bezug auf den Kontrast und die Farbe. Behalten Sie eine Konsistenz bezüglich der Farbe und des Zusammenhangs zwischen den Videoclips im Hinterkopf.

Die Timeline dient auch dazu, den Soundtrack bearbeiten zu können. Sie können zum einen Töne, die auf dem iPhone aufgenommen wurden, verwenden – aber der Ton wird nicht sehr fokussiert sein, da das einbaute Mikrofon dazu neigt, alles und jeden aufzunehmen. Dazu gehören ungewünschte Neben- und Hintergrundgeräusche. Einen anderen Soundtrack zur Timeline hinzuzufügen ist wahrscheinlich am besten, da man sich keine Gedanken darum machen muss, Audios in High-Quality aufzunehmen, während Sie das Video aufnehmen.

Videokompression
Die Videokompression ist immer noch notwendig, um Stunden an Videomaterial auf den internen Speicher des iPhones oder der Speicherkarte auf anderen Videokameras zu transportieren. Am einfachsten ist es wohl, jede Einstellung zu speichern und jede einzelne zu einem statischen JPEGBild zu komprimieren. Das iPhone nutzt jedoch eine fortgeschrittene Kompressions- Methode, die als H.264 bekannt ist. Diese nimmt ganze Bilder in regulären Intervallen auf und rechnet die Bilder zwischen diesen Intervallen hoch, um Platz zu sparen.

Ein fortgeschrittener Prozessor wird dazu benutzt, um vorauszusagen, was sich zwischen zwei ganzen Bildern geändert hat. Dies bedeutet, dass nicht jedes Bild einzeln direkt vom Sensor der Kamera gespeichert werden muss, sondern nur die Veränderungen zwischen zwei Punkten, die zeitlich sehr nahe beieinander liegen. Dadurch wird viel Platz gespart, aber H.264 nutzt die Kompression auch in Bezug auf die „Bitrate“ (Ausgabemenge von Informationseinheiten bei digitalen Multimediaformaten auf einer Zeitleiste), und auch die Größe der Lücken zwischen Bildern spielt eine Rolle. Je höher die Bitrate und je kürzer die Pause zwischen den Bildern, desto mehr von den Original- Details bleiben erhalten.

Bildfrequenz verstehen
Ein Video ist eine Abfolge von Bildrahmen oder Einzelbildern, die eine nach dem anderen aufgenommen wurden. Wenn Sie Bilder bei 5fps (frames per second = Bilder pro Sekunde, BpS) aufnehmen, sind dies nicht genügend Bilder, um die Illusion einer realen Bewegung zu erschaffen.

Erst bei einer Bildfrequenz von 24fps wird es interessant. Tatsächlich ist 24fps die Bildfrequenz, die auch von Kameras in Hollywood-Filmen – analog und digital –verwendet wird.

Keine Kommentare:

Kommentar veröffentlichen