Lerne wie man ein Video macht!

Published on: 20 August 2024
By TZ

Ich dachte ich erklär mal in einfach verständlicher Weise wie man denn ein professionelles Video mit einem Handy erstellt. Hier geht es um Grundlagenwissen und nicht um die neuesten Gizmos.

In diesem Video teile ich meine bewährten Tipps und Tricks für das Filmen mit meinem iPhone 15 Pro und der DJI Mini 3 Pro Drohne. Von der Auswahl der richtigen Kameraeinstellungen bis hin zur Anwendung praktischer Filter von Polar Pro – ich zeige euch, wie ihr das Beste aus euren Aufnahmen herausholen könnt.

Ich spreche darüber, warum ich Drohnenaufnahmen so einfach wie möglich halte und welche App ich benutze, um professionelle Ergebnisse zu erzielen. Außerdem gebe ich euch Einblicke in meinen persönlichen Workflow und erkläre, warum ich eine Framerate von 24 oder 30 fps bevorzuge und wie ich meine Clips in einem 3-Sekunden-Rhythmus schneide, um die perfekte Mischung aus Dynamik und Spannung zu erzeugen.

Neben technischen Aspekten geht es auch um die Komposition von Bildern, den Einsatz von Filtern und Zubehör sowie um die Frage, wann und ob ein Gimbal sinnvoll ist – oder eben nicht.

Obendrein gibt’s Tipps zur Nutzung der Blackmagic App, um eure Videos auf das nächste Level zu heben. Egal ob ihr Einsteiger oder Fortgeschrittene seid, dieses Video bietet euch eine Menge wertvoller Infos, um eure Videografie-Skills zu verbessern. Schaut rein, lernt etwas Neues, und lasst mich wissen, wenn ihr Fragen habt oder Hilfe bei einem Filmprojekt braucht!

Für Fragen oder individuelle Unterstützung bei euren Filmprojekten erreicht ihr mich per Kontaktforumar auf meiner Webseite – Details dazu findet ihr unten in der Beschreibung. Vergesst nicht, das Video zu liken, zu kommentieren und den Kanal zu abonnieren, wenn euch der Content gefällt! Viel Spaß beim Filmen! 🚐✨

Produkte die in dem Text erwähnt werden sind keine affiliate links oder sowas. Ich mach das nicht um irgendetwas zu verkaufen oder Provisionen zu bekommen. Sowas nervt bloss. Meine Meinungen und Eindrücke sind absolut unabhängig und unbeeinflusst.

https://www.blackmagicdesign.com – camera app für iOS und android

https://www.apple.com/final-cut-pro/ – FinalCut Pro schnittprogram

https://www.polarpro.com – filtersystem und halterungen für iPhone & Drone

https://www.freewellgear.com/samsung/1043-versatile-bluetooth-smartphone-selfie-grip.html

Thema: Wie man relativ vernünftig Videos aufnehmen kann, z.B. mit einfachen Mitteln wie einem Mobiltelefon.

Ich habe angefangen zu filmen mit einer DSLR Canon vor ungefähr 10 Jahren. Das erste Projekt, das ich damit ordentlich gemacht habe, war 2017 oder 2018, als ich ein Buch zum Thema Fliegenbinden gemacht habe. Da wollte ich keine Stillbilder mehr haben, sondern Videos, weil das den Vorgang deutlich besser erklärt.

Ein Kumpel, der beim WDR arbeitet und viel Filmschnitt fürs Fernsehen macht, hat mir beigebracht, wie das Schneiden funktioniert. Es gibt da einige Programme. Ich benutze Final Cut Pro, das ist ein Programm für Mac. Es ist kein Adobe-Programm, weil Adobe nur im Abonnement verfügbar ist, und das finde ich blöd. Ich will ein Programm einmal bezahlen und es dann besitzen, nicht jeden Monat 20 oder 30 Euro zahlen. Das summiert sich und wird teuer. Final Cut Pro hat um die 300 Euro gekostet. Es gibt aber auch ein kostenloses Programm namens DaVinci Resolve. Das finde ich ein bisschen kompliziert im Aufbau. Es unterscheidet sich etwas von Final Cut Pro oder dem Adobe-Programm Premiere Pro, das das Videobearbeitungsprogramm von Adobe ist. Für Mac gibt es auch ein kostenloses Programm namens iMovie. Für Samsung- oder Android-Telefone gibt es ähnliche Programme, aber im Prinzip funktionieren sie alle gleich. Man legt Filmschnipsel übereinander und hintereinander und fügt den Ton hinzu.

Um ein Video aufzunehmen, muss man erstmal das Material aufnehmen, und das mache ich gerade, indem ich in mein iPhone spreche. Ich benutze ein drahtloses Mikrofon, damit der Ton möglichst direkt und klar ist und ihr alles akustisch versteht. An meinem iPhone ist ein Empfänger dran. Das Mikrofon vom iPhone selbst funktioniert auch sehr gut. Das Video draußen habe ich mit dem eingebauten Mikrofon des iPhones aufgenommen. Ihr könnt ausprobieren, wie gut euer Mobiltelefon von sich aus ist. Wenn euch das reicht, ist das gut. Das Problem sind Windgeräusche. Wenn ihr draußen steht, drückt der Wind ins Mikrofon. Das eingebaute Mikrofon ist ziemlich resistent dagegen, aber trotzdem habt ihr oft ein Grundbrummen. Deshalb macht man über ein externes Mikrofon einen Windschutz. Der hat den lustigen Namen „Deadcat“ oder „Dead Kitten“, weil das kleine Fellüberzüge sind. Für die großen Mikrofone sehen die wirklich aus, als hätte man ein Katzenfell drübergezogen, wie eine tote Katze. Das kann man natürlich nicht über das gesamte Mobiltelefon ziehen, deshalb braucht man ein externes Mikrofon, wenn man draußen ohne Windgeräusche aufnehmen will. Mich stören Windgeräusche extrem. Es gibt Leute, die relativ professionelle Videos machen und dann draußen ohne Windschutz sprechen – das geht bei mir gar nicht, da ist mein OCD, mein Zwangsverhalten, voll im roten Bereich. Aber na ja, jeder hat so seine Macken.

Von diesen drahtlosen Mikrofonen gibt es diverse. Die bekanntesten sind die Røde-Dinger. Die kommen nicht aus Dänemark, wie man vielleicht vermuten könnte, sondern aus Australien. Die hatten bei mir aber ein bisschen verschissen. Früher hatten sie immer eine gute Qualität, aber bei dem drahtlosen Modell von denen ist der Windschutz unmotiviert abgefallen. Keine Ahnung, wie das passiert ist, aber man hat ihn einfach nicht richtig montiert bekommen. Das ist sehr nervig, wenn man draußen schnell etwas aufnehmen will und es dann an so einem Mist scheitert. Es gab keine Rückrufaktion, gar nichts. Man durfte einfach die neue Version kaufen, die angeblich besser ist. Das Ding ist außerdem ein ziemlicher Klotz, etwa viermal so groß wie das hier.

Dann gibt es DJI, die ja auch Drohnen herstellen. Die machen auch Mikrofone, weil sie natürlich den Markt mitbedienen wollen. Im Prinzip ist das alles der gleiche Kram. Das sind chinesische Mikrofonkapseln. Die Kapsel ist das kleine Teil, das den Luftdruck, also die Schallwellen, in elektrische Energie umwandelt, die dann über einen Vorverstärker so weit verstärkt wird, dass sie aufgenommen werden kann. In diesen Preisklassen gibt es bei den Kapseln keine großen Unterschiede; es sind alles die gleichen Teile. Der Rest ist Marketing und Sonstiges, weil auch die Elektronik für diese Vorverstärker in dieser Preisklasse nicht aus selektierten Bauteilen besteht oder so.

Was mich immer wieder extrem erstaunt, ist, wie gut die Qualität von diesen Billigteilen ist. Billig ist vielleicht nicht das richtige Wort. Hier kostet das Set, bestehend aus zwei Mikrofonen mit einer Transport- und Ladeschachtel, etwa 150 €. Der Empfänger ist hinten dran, und das Packmaß finde ich extrem gut. Es ist kaum größer als das Røde Wireless Go Mikrofon. Ich habe es bei einem chinesischen Versandhandel bestellt, was ich sonst ungern mache, aber hier bekommt man es nirgendwo anders. Der Unterschied zu den anderen Dingern ist die Reichweite, die wahrscheinlich nicht so groß ist. Ich habe keinen großen Vergleich gemacht, aber die Tonqualität ist die gleiche. Ich stelle die Kamera, also das Handy, auch nicht 150 Meter entfernt auf, um dann dort zu moderieren. Wenn die Kamera weg ist, ist das sowieso sinnlos.

Der Unterschied liegt also in der Reichweite dieser Sender. Es gibt auch Mikrofone wie die von DJI, die zusätzlich einen internen Speicher haben. Das Mikrofon speichert dann den Ton, was in der Nachbearbeitung oft zu Problemen führt, z. B. wenn der Ton nicht lippensynchron ist. Das sieht man oft, wenn Leute sogenannte Headshots machen, also Nahaufnahmen vom Kopf der Person, die spricht. Das iPhone verbindet den Ton direkt mit den Bildern, was dann synchron sein sollte, ohne Verzögerung. Man muss aufpassen, je nachdem, welche Bildstabilisierung man eingeschaltet hat. Ich benutze gerade die Standardeinstellung, da ist das Lipsyncing normalerweise besser. Wenn man jedoch die extreme Bildstabilisierung verwendet, kann es zu einer leichten Verzögerung kommen, sodass das Bild ein wenig später erscheint. Das liegt daran, dass dabei sogenannte Lost Frames auftreten können.

Wenn man die Bildstabilisierung auf den maximalen Wert einstellt, kann es also passieren, dass das Lipsyncing nicht mehr perfekt ist. Da muss man aufpassen. Bei der Bildstabilisierung funktioniert die ganze Kiste so: Da ist eine Linse, durch die das Licht einfällt. Wir sprechen immer davon, Licht einzufangen und abzuspeichern. Dahinter ist ein Sensor, ein kleiner Chip, auf dem die Bildpunkte, die Pixels, sind. Diese sammeln die Lichtinformationen, und zusammengesetzt ergeben diese kleinen Vierecke dann das gesamte Bild, egal ob es sich um ein Standbild oder einen Film handelt.

Und dieser Sensor, da sind ganz kleine Motoren dran, die dann computergesteuert bewegt werden. Das finde ich vollkommen faszinierend – irre, was die heute alles können. Entgegen der Informationen, die der Sensor im iPhone hat, wird das Bild stabilisiert. Früher hatte ich bei den Canon-Kameras, die ich verwendet habe, eine Bildstabilisierung in den Linsen. Das war allerdings recht schwer – irgendwie hattest du dann nicht wie jetzt hier mal 200 g in der Hand, sondern eher 3-4 kg. Das ist dann schon gutes Training, führt aber auch dazu, dass man nicht so lange redet.

Die Bildstabilisierung war also in den Linsen integriert, da war ein kleiner Computer in den Linsen. Sony hat, glaube ich, hauptsächlich damit angefangen, die Stabilisierung in die Kamera zu integrieren. Da wird dann der Sensor bewegt. Man muss aufpassen, denn wenn das zu viel korrigieren muss, kann es dazu führen, dass einzelne Frames droppen, also dass einzelne Bilder aus dem Film herausfallen.

So, und da sind wir jetzt beim Thema Bilder. Wenn ihr ein Foto macht, wollt ihr es richtig belichtet haben. Ihr wollt es nicht überbelichtet haben – das wäre jetzt deutlich überbelichtet – klar. So ist es richtig belichtet, da ist dann alles korrekt, also es sieht so aus wie in echt. Da gibt es drei Parameter, auf die ihr aufpassen müsst. Die Belichtung steuert den Sensor, das hatten wir schon mal. Früher war der Sensor der Film, und die etwas Älteren oder die, die mit analogem Film fotografiert haben, erinnern sich vielleicht daran. Da gab es dann die Körnung oder die Empfindlichkeit.

Je kleiner die Körner sind, desto unempfindlicher werden sie, aber das Bild wird auch feiner. Je größer die Körner, desto empfindlicher ist der Film, aber das Bild wird grober. Da hat man dann so ein Rauschen drin, oder die Kanten werden unsauber. Man sieht dann nicht mehr jedes Haar, sondern es verwaschen die Details. Das ist die Sensorsensibilität, und die wird in einem Wert angegeben, der sich ISO nennt. Das ist der erste Parameter.

Der zweite Parameter ist, wie weit die Linse geöffnet ist. Ich erkläre es immer mit den Augen: Wenn ihr die Augen ganz weit aufmacht, ist das wie der weiteste Öffnungswert der Linse, und der wird als „1“ bezeichnet. Wenn ihr das nachmacht, merkt ihr auch, was dabei passiert. Je weiter man die Augen, also die Linse, öffnet, desto flacher wird die Tiefenschärfe. Das heißt, je weiter geöffnet, desto unschärfer wird der Hintergrund. Dann habt ihr nur noch das, was ihr im Fokus habt, also was genau fokussiert ist, scharf, und alles dahinter verwaschen.

Wenn man die Linse immer weiter schließt, wird der Hintergrund immer schärfer. In der Landschaftsfotografie möchte man ja, dass sowohl der Baum im Vordergrund als auch der Berg im Hintergrund scharf sind. Da stellt man die Blende also kleiner, zum Beispiel auf einen Wert von „16“. Auf Englisch nennt sich das „aperture“. Ich kann meist nur die englischen Ausdrücke, weil ich viel über englische Videos auf YouTube gelernt habe. Da habt ihr also diese Aperture, also die Blende, die die Weite der Öffnung bestimmt – 16 oder 1.

Dieser Wert ist im Telefon fest eingestellt. Ich filme jetzt mit der Frontlinse, also der Selfie-Linse vom iPhone, und die hat eine Blende von 1,9. Das ist nicht ganz offen, aber schon ziemlich weit. Das ist der Maximalwert, den diese Linse kann – 1,9, also schon ganz schön viel.

Was habt ihr noch als dritten Wert? Wir hatten jetzt ISO, klar, die Sensibilität des Sensors, und die Blende, also wie weit die Iris geöffnet ist. Der dritte Wert ist die Verschlusszeit. Wenn ich ein Bild ganz schnell mache, wird die Verschlusszeit in Bruchteilen von Sekunden angegeben, oder auch in Sekunden, Minuten oder sogar Stunden. Diese Verschlusszeit ist der einzige variable Wert in einem automatisierten System. Das Problem ist jetzt einfach, wie man das erklärt. Ihr habt jetzt also ISO, Verschlusszeit, und die Blende ist fest im Mobiltelefon.

Wie entsteht jetzt ein Film? Ein Film ist nichts anderes als eine Reihe von Bildern, die mit einem Motor im Projektor in einer gewissen Geschwindigkeit vorbeigezogen werden, damit sie auf eine Leinwand projiziert werden. Das menschliche Gehirn, das ja ein Sehsystem ist, glaubt eine Bewegung zu sehen, wenn es mehr als 20 Bilder pro Sekunde sieht. Ich glaube, es waren 20. Irgendwann hat man sich dann geeinigt, dass 24 Bilder pro Sekunde, FPS (frames per second), der Standard für Kinofilme ist. Das englische Wort für ein Bild ist „frame“, also ein Rahmen, und das ist der Kinostandard – „cinematic standard“.

Den hat man eingeführt, weil es auch gut mit dem Ton auf den Filmstreifen gepasst hat. Ich nehme jetzt das hier mit 30 FPS auf, was ein bisschen wie auf YouTube aussieht. Wenn ihr jetzt die Finger beobachtet, wenn ich sie hier vorbeibewege, seht ihr sie nicht einzeln, sondern sie verschmieren – das nennt man „motion blur“.

Blur ist also das Verschmieren, irgendwie blurry, undeutlich, verschmiert, und das empfinden wir als normal. Wir sehen nämlich nicht wie ein Hund oder ein Insekt, die das eher gehackt oder in höheren Auflösungen wahrnehmen. Deshalb kann ein Hund zum Beispiel ein Frisbee in der Luft fangen, ohne Probleme. Uns würde das gar nicht gelingen, weil wir es gar nicht als einzelnes Ding erkennen würden. Es fliegt so schnell, dass wir es nur als verschmierten Strich wahrnehmen, wenn der Pfeil durch die Luft saust. Wir sehen nicht den Pfeil einzeln, wie er sich fortbewegt, sondern wir sehen nur einen Strich – das ist Motion Blur.

Wenn man das also natürlich filmen will, sodass es natürlich wiedergegeben wird, dann muss man diesen Motion Blur, also diese Bewegungsunschärfe, entsprechend filmen. Da geht der Spaß los.

Die Aperture, also die Blendenöffnung, ist festgelegt. Du willst viel Licht hereinlassen, damit der Hintergrund verschmiert ist und du dich auf das konzentrieren kannst, was vorne ist. Deswegen kommt viel Licht rein, um die flache Tiefenschärfe zu erreichen. Man sagt dann: „Okay, ISO, ja, der niedrigste Wert, den man hier am iPhone einstellen kann.“ Ich glaube, je nach Linse liegt der bei 32 ISO, meistens aber so um die 50 – das ist schon ziemlich niedrig. Trotzdem ist es dann oft noch zu hell, wenn man die richtige Verschlusszeit hat.

Jetzt habt ihr also die Bilder auf dem Filmstreifen. Wer schon mal Daumenkino gemacht hat, kennt das Prinzip: Man malt ein Strichmännchen oder so etwas, und jedes Bewegungsteil wird auf einen Zettel gemalt, den man dann durchflippt. Jedes dieser Zettelbilder soll möglichst scharf gezeichnet sein, weil das Gehirn die Bewegung daraus erzeugt. Jedes Bild, das man jetzt aufnehmen würde, muss also richtig belichtet sein. Damit es richtig belichtet ist, muss die Verschlusszeit korrekt sein.

Wenn man mit 30 Frames per Second (FPS) filmt, also 30 Bilder pro Sekunde schießt, möchte man eine Verschlusszeit von 1/60 Sekunde haben – also das Doppelte der FPS-Zahl. Wenn man die Belichtung darüber steuert, dass man den Verschluss schneller auf- und zumacht, erzeugt man pro Frame mehrere Bilder, die zusammenpassen. Das überlappt sich, und so weiter. Dann zappelt das immer so schön, und da wundern sich die Leute: „Ich habe mir die ganz neue Drohne gekauft, bin ganz ruhig geflogen, ohne zu zittern, und trotzdem sieht das komisch aus. Es ruckelt so fein.“ Ich nenne das Jitter – das ist vielleicht nicht der ganz richtige Ausdruck, aber es rattert. Wenn das so rattert, kann ich mir das nicht anschauen, ich finde das komisch.

Jetzt kommt aber so viel Licht rein, weil wir ja eine Verschlusszeit von 1/60 Sekunde haben, was ziemlich lange ist. Normalerweise, wenn man bei Sonnenschein ein Foto schießt, hat man eine Verschlusszeit von vielleicht 1/1000 Sekunde, also viel schneller. Das bedeutet, man würde dann 1000 Bilder pro Sekunde machen, die zu einem Bild im Film werden. Das geht aber nicht, das sieht komisch aus.

Da muss man das dann dunkler bekommen, und dafür braucht man Filter. Ein Filter ist nichts anderes als eine Sonnenbrille, die man davor setzt. Das Problem an der Sonnenbrille ist jedoch, dass sie zwar das Licht reduziert, aber die Farben nicht verändert. Das ist ganz wichtig. Das heißt, wenn ich eine Verschlusszeit von 1/60 Sekunde habe und den niedrigsten ISO-Wert, und es ist trotzdem noch zu hell, dann brauche ich eben diesen Filter.

Und da geht’s dann los: Wie bekommt man den Filter an sein Handy oder seine Kamera? Bei Kameras ist das einfach, weil die Linsen oft Gewinde haben, an die man den Filter anschrauben kann. Ein Telefon hat so etwas nicht. Da muss man also ein Gehäuse drumherum machen, so ein Silikongehäuse oder so etwas, das einen Adapter hat, an den man den Filter anbringen kann. Es gibt da drei oder vier Firmen: zum Beispiel Moment, Freewell und PolarPro. Ich habe Filter von Freewell und PolarPro lange ausprobiert und hin- und hergetestet. Am meisten zufrieden bin ich mit den Filtern von PolarPro, was die Farben angeht und so weiter. Man muss ja immer darauf achten, dass die Farben nicht verändert werden.

Jetzt hat man noch die Möglichkeit, einen Filter zu verwenden, der nicht fest ist, sondern bei dem man den Dämpfungsgrad, also die Lichtdurchlässigkeit, stufenlos einstellen kann. Das geht bei den Filtern von Freewell und PolarPro, die ich ausprobiert habe. Der Freewell-Filter ist bei mir allerdings durchgefallen, weil er in den Grenzbereichen grünstichig wird. In der Mitte wird es dann braun, und ich dachte, warum ist die Wiese in der Mitte so braun? Das war doch gar nicht so. Dann merkte ich, dass sich dieser Braunstich mit der Bewegung der Kamera mitbewegt, und das fand ich nicht gut. Da habe ich dann eine E-Mail an den Hersteller geschrieben und gesagt: „Ist euch das mal aufgefallen?“ Sie sagten: „Ja, das ist bekannt.“ Sie haben mir prompt einen neuen Filter geschickt, aber es war der gleiche Mist wie vorher. Das Glas ist einfach nicht so gut, obwohl es teuer ist. Andere Leute haben andere Erfahrungen damit gemacht, aber für mich war das nichts.

Ja, das ist im Prinzip alles Physik. Ihr habt verstanden, dass man da halt diesen Filter davor macht, damit es ordentlich aussieht und nicht ruckelt, und so weiter. Das muss man natürlich bei allen Kameras machen, die man verwendet. Da wird’s dann lustig.Oh, und ich nehme inzwischen nur noch zwei Kameras: einmal mein Handy, das iPhone 15 Pro, und eine DJI Mini 3. Ich tausche die Geräte alle zwei Jahre durch, also nutze ich jetzt die vorletzte Version der Mini 3 Pro. An der Drohne habe ich auch Filter von Polar Pro angebracht. Das sind ganz kleine Filter, die vor die Linse der Drohne kommen. So viel dazu.

Drohnenaufnahmen gestalte ich so einfach wie möglich. Ich will nur einen kurzen Überblick geben, wo wir gerade sind. Großes Rumfliegen finde ich nervig und das geht auch den Leuten auf den Geist. Ich empfinde das als unangenehm, wenn irgendwo eine Drohne eine Stunde lang herumfliegt. Man fliegt besser hoch, fliegt einmal gerade drüber oder macht einen Schlenker, und dann ist man in der Regel innerhalb von deutlich unter 10 Minuten fertig mit den Aufnahmen, die man braucht.

Die Filmschnipsel, die ich mit dem iPhone mache, sind in der Regel viele kurze Aufnahmen. Ich halte die Kamera meist nur eine Minute oder 30 Sekunden oder sogar deutlich weniger auf ein Motiv, um verschiedene Eindrücke festzuhalten. Jetzt könnte man sagen: “Ich kann das doch gar nicht so einstellen bei meinem iPhone!” Dafür benötigt man eine spezielle App. Früher habe ich dafür Filmic Pro benutzt, die ich auch gekauft hatte. Dann haben die Entwickler auf ein super teures Abo-Modell umgestellt, das 50 € pro Jahr kostet. Gleichzeitig brachte eine andere Firma eine ähnliche App auf den Markt, und zwar kostenlos. So schnell kann das gehen! Die Firma heißt Blackmagic, die machen super professionelle Kameras und haben eine kostenlose App auf den Markt gebracht, die die gleichen Kontrollmöglichkeiten bietet. Das macht für sie Sinn, weil die Leute, die diese Blackmagic-Kameras benutzen – also professionelle Fernsehleute und so weiter – es natürlich klasse finden, wenn sie alle Einstellungen auch auf ihrem Handy haben und diese direkt in ihren Workflow integrieren können. Damit kann man den Kram direkt hochladen und das Team kann daran arbeiten. Aber man kann die App auch als normaler Konsument nutzen. Man lädt sie herunter, und dann hat man alle Einstellungsmöglichkeiten, die man sich nur denken kann. Funktioniert super.

Tja, das ist es so ziemlich. Und dann schneide ich die Schnipselchen zusammen. Ich habe mir mal angeschaut, welche Filme mir gut gefallen und was meinem Geschmack entspricht. In der Regel arbeite ich mit einem 3-Sekunden-Rhythmus. Das bedeutet, ich ändere alle 3 Sekunden den Winkel oder wechsle zu einem neuen Schnipsel, damit es nicht langweilig wird. Hier in diesem Video wird es jetzt super langweilig, weil ich eine halbe Stunde lang quassle und null den Winkel ändere, sondern nur irgendwelche Webseiten von den Produzenten einblende. Aber das ist einfach mal so, wenn man einen Headshot macht.

Ansonsten kann ich nur empfehlen, sich andere Filme anzusehen und zu analysieren, welche Frameraten sie verwenden und welche Ästhetik dahintersteckt. Überlegt euch vorher, ob ihr in 24, 30 oder sogar 60 Frames per Second drehen wollt. Ich habe mir zum Beispiel mal einen Dokumentarfilmer angeschaut, Peter Santenello, ein Amerikaner, der durch die Gegend fährt und Leute interviewt. Der macht das super und filmt alles mit 60 Frames per Second. Das sieht zwar etwas postkartenmäßig aus, aber für seinen Content passt es perfekt. Da geht es schließlich nicht um Kinofotografie, sondern um seine Gespräche. Das gleicht er damit aus, und so passt das.

Dann muss man noch darauf achten, ob alle Kameras, die man benutzt, die gleiche Framerate unterstützen. Das kann nämlich ein Problem werden, wenn eine Kamera zum Beispiel 30 Frames per Second hat und eine andere nur 24, 48 oder 50, wie zum Beispiel meine alte GoPro Hero 5. Die passt dann schon nicht mehr mit, weil sie keine 30 Frames per Second unterstützt.

Also entweder man hat mehrere gleiche Kameras oder nutzt nur eine, wie zum Beispiel mehrere iPhones. Aber das sind so die grundlegenden Dinge, auf die man achten sollte. Man sollte auch darauf achten, dass man nicht einfach wild in der Gegend herumfilmt, sondern die Kamera möglichst still hält. Eine kleine Bewegung ist okay, wenn der Shot zu lang wird. Aber wenn es keinen Sinn macht, hin und her zu wackeln, dann sollte man es lassen. Eine gute Bildkomposition erzählt bereits eine kleine Story.

Ein wichtiger Punkt beim Filmen ist, dass man den Horizont möglichst waagerecht filmt. Es ist wichtig, dass man beim Filmen darauf achtet, dass alles gerade ist. Wenn der Horizont schief ist, kann man das später kaum noch korrigieren. Da kommen dann auch wieder spezielle Hüllen ins Spiel, die man für Filteradapter verwenden kann. Von Polar Pro und Freewell gibt es zum Beispiel Hüllen, die man auch an ein Stativ adaptieren kann. Mein Favorit ist im Moment der Halter von Freewell, der eine Klemme mit einem Griff hat, in dem sich sogar noch ein Selfie-Stick befindet und ein Bluetooth-Auslöser, den man abmachen kann. Mit dem Auslöser kann man Videos starten und stoppen oder Fotos machen. Sehr praktisch.

Was das Filmen mit dem iPhone 15 angeht, finde ich es klasse, dass das Mikrofon schon von Haus aus sehr gut ist. Gimbals halte ich für überflüssig. Klar, wenn man es braucht, kann man es nutzen. Aber meistens ist es nur ein zusätzliches Teil, das Strom braucht und das kompliziert wird, wenn man sich zu schnell bewegt. Ich hatte mal eins und habe es nach einem Monat wieder verkauft. Ich finde, dass es auch authentischer wirkt, wenn es ein wenig wackelt.

So, das waren jetzt meine Tipps. Zum Thema Final Cut Pro und Schnittprogramme gibt es viele entsprechende Videos auf YouTube. Wichtig ist, dass man das Belichtungsdreieck versteht und den Zusammenhang zwischen Blende, ISO und Verschlusszeit. Fachleute sagen immer, dass man mit einem 180° Shutter Speed filmen sollte. Das bedeutet, dass die Verschlusszeit doppelt so schnell sein sollte wie die Framerate. In der Blackmagic-App kann man einstellen, dass immer 180° Shutter Speed verwendet wird.

Das war’s von mir. Wenn ihr Fragen habt oder Hilfe bei einem Filmprojekt braucht, könnt ihr mich gerne kontaktieren. Meine E-Mail-Adresse steht unten in der Beschreibung. Wir können auch gerne einen Kurs über Zoom machen. Bis demnächst, danke fürs Zuhören und Tschüss!

Leave a Reply

Your email address will not be published. Required fields are marked *

Please reload

Please Wait