Film-Vorspann - Black Rose
1. Inspiration
Alles begann eigentlich mit einem reinen Zufall. Als mir auf Instagram der Song „Black Rose“ vorgeschlagen wurde, entstand beim Hören sofort ein Bild in meinem Kopf, dass ich unbedingt als animierten Kurzfilm
umsetzen wollte. Da wir im Studium passenderweise gerade die Aufgabe
hatten, einen Filmvorspann zu erstellen, nutzte ich die Gelegenheit direkt, um dieses Thema für meinen fiktiven, noch nichtexistierenden Kurzfilm aufzugreifen.
2. Konzept & Storytelling
Environment
Als Schauplatz schwebte mir ein fremder Planet vor. Visuell sollte die Landschaft von geometrisch-natürlichen Steinstrukturen geprägt sein, weshalb ich mich stark an Basaltsäulen orientierte. Das Fundament bildete dabei ein hügeliger Boden, der immer wieder von diesen markanten, kristallinen Säulen durchbrochen wird.
Protagonist
Die Hauptfigur des Films war schnell gefunden: „JIM“. An diesem Roboter hatte ich privat schon seit etwa zwei Monaten gearbeitet, und das Projekt bot den perfekten Anlass, ihn endlich weiter zu finalisieren.
Narrative Struktur
Die Geschichte ist als „Reverse Narrative“ angelegt, also in umgekehrter Chronologie. Im ersten Teil, dem „Reveal“, lernt der Zuschauer den Protagonisten zunächst nur durch Nahaufnahmen kennen, ohne direkt zu merken, dass es sich um einen Roboter handelt. Erst mit dem Einsatz des zweiten Liedteils enthüllt sich seine wahre Identität. Darauf folgt der „Action“-Part mit einem Schnitt durch den Filmtitel und verschiedenen Kampfszenen in Zeitlupe, die sich – passend zur Musik – entweder vorwärts oder rückwärts abspielen.
3. Technische Umsetzung: Environment
Der Aufbau der Welt erfolgte Schritt für Schritt, teils prozedural und teils in Handarbeit. Den Anfang machte eine simple Plane, die ich zu einer hügeligen Landschaft verformte. Die charakteristischen Säulen basieren auf einem extrudierten Hexagon. Um hier die glatten Kanten aufzubrechen und das Gestein natürlicher wirken zu lassen, setzte ich einen Displace-Modifier mit einer angepassten Cloud-Textur ein. Für die nötige Detailtiefe sorgten Geometry Nodes, mit denen sich weitere extrudierte Hexagone an den Seiten der Hauptsäule verteilen ließen.
Auch bei der Anordnung der Objekte im Raum verfolgte ich eine klare Strategie: Die großen, bildwichtigen Hauptsäulen platzierte ich manuell, um die Bildkomposition gezielt zu steuern. Den Rest der Umgebung füllte ein „Scatter on Surface“-Modifier automatisch auf. Über Weightmaps konnte ich dabei genau bestimmen, wo viele Säulen stehen sollten und wo Flächen frei bleiben. Dasselbe Verfahren wendete ich für die kleinen Steine am Boden an. Den finalen Schliff erhielt das Environment schließlich durch ausgewählte und angepasste Gesteinstexturen.
4. Technische Umsetzung: Roboter (JIM)
Obwohl das Grundmodell von JIM schon existierte, steckte noch viel Arbeit im Detail. Der Unterarm brauchte beispielsweise eine komplette Neu-Modellierung, da die ursprüngliche Version mechanisch in der Realität zu eingeschränkt in seiner Bewegung wäre. Zusätzlich entwarf ich eine eigene Waffe für den Roboter, die so konstruiert ist, dass sie ausfahrbar ist und direkt am Körper getragen werden kann.
Der technisch aufwendigste Part war für mich jedoch eindeutig das Rigging. Das Skelett besteht aus insgesamt 170 einzelnen „Bones“, die die 389 Einzelteile des Roboters zusammenhalten. Damit sich JIM natürlich bewegt, musste eine komplexe Constraint-Logik her. Hebt er beispielsweise den Arm, bewegen sich die Schulter-/Brustpanzerungen automatisch zum gewissen Anteil mit. Beim Ballen einer Faust verschieben sich die Panzerplatten auf dem Handrücken entgegengesetzt, und bei einer Handdrehung rotieren die Pistons (Kolben) physikalisch korrekt mit und verschieben die Unterarm-Panzerung.
Trotz des Grundskeletts traten beim Posieren anfangs diverse Fehler auf, wie Clipping-Probleme, bei denen Rüstungsteile ineinander rutschten, oder Pistons, die sich in physikalisch unmögliche Richtungen drehten. Diese Fehlerquellen musste ich mühsam einzeln korrigieren.
Für die Texturierung entschied ich mich bei diesem Projekt, meinen gewohnten Workflow zu verlassen und mich in Adobe Substance Painter einzuarbeiten. Dieser Schritt erwies sich als riesige Hilfe, da die Texturen dadurch deutlich realistischer wirkten. Voraussetzung dafür war allerdings ein sauberes UV-Mapping: Von jedem Objekt musste eine UV-Map erstellt werden, indem ich Kanten manuell als „Seams“ definierte, um das 3D-Objekt sauber auf eine 2D-Fläche abzuwickeln (vergleichbar mit einem Schnittmuster beim Nähen).
5. Animation, VFX & Typografie
Bei dem Schriftzug auf dem Unterarm (Animation by Isidor Menke), erstellte ich eine zweite Textur vom Unterarm, auf der die Schrift zu sehen ist. Über eine Noise-Texture ließ sich dann im Shader Editor der Übergang von der schriftlosen zur beschrifteten Textur animieren.
Für die Schnittszene sollten Partikel direkt aus den Buchstaben herausströmen, was einen tieferen Einstieg in Geometry Nodes erforderte. Auch wenn die technische Erklärung hier den Rahmen sprengen würde, war der Prozess überseht von zahlreichen Problemen. Um ein Beispiel zu nennen. Ich habe ein Volume, ausgehend von einem Buchstaben definiert welches sich ausbreitet. In Diesem Volume werden Tausende Punkte generiert, jedes mit seiner eigenen Indexnummer. Problem war, sobald sich das Volum nur um ein hauch verändert, wird jeder Punkt neue durchgezählt (Punkt 1 ist auf einmal nicht unten links im Bild, sondern oben rechts). Da ich Motion Blur an hatte entstand ein tausende Streifen zwischen den Punkten, weil das Programm dachte, dass sich die Punkte ganz schnell hin und her bewegen.
6. Kamera & Animation der Szenen
Das finale Projekt umfasst 11 Szenen, die von 12 Kameras eingefangen werden. Jede Kameraeinstellung richtete ich individuell hinsichtlich Position, Blickwinkel und Fokus (Depth of Field) ein. Die Kamerafahrten passte ich anschließend im Graph Editor an, wobei ich vor allem auf „schnell – langsam – schnell“-Kurven setzte. Oberste Priorität hatte dabei immer das exakte Timing zur Musik und flüssige Szenenwechsel.
Beim Animieren hat sich für mich ein effizienter Workflow bewährt: Zuerst werden die Roboter grob platziert, dann wird die Kamerafahrt definiert und erst ganz zum Schluss folgt die Detailanimation des Roboters. An manchen Stellen ließ sich so Arbeit sparen. Da durch die vorab definierte Kamerafahrt klar war, was genau im Bild zu sehen ist, musste ich beispielsweise Beine, die gar nicht im Ausschnitt waren, auch nicht perfekt animieren.
7. Schwierigkeiten, Problemlösungen & verworfene Szenen
Da ich mir oft angewöhne, bei jedem Projekt etwas Neues auszuprobieren, ging viel Zeit für Problemlösungen drauf. Ein Klassiker waren die Inverse Kinematics (IK): Der Arm bewegte sich oft überall hin, nur nicht in die gewollte Richtung, bis ich lernte, wie man den Bewegungsspielraum des Ellbogens korrekt einschränkt.
Auch die Sichtbehinderung war ein Thema. Bei der Schnittszene verdeckte der Roboter die Sicht der Kamera. Meine erste Lösung war simpel: Ich löschte alles vom Roboter, was nicht im Bild war. Das rächte sich jedoch, als ich Tage später wollte, dass die Kamera herauszoomte und der halbe Roboter fehlte. Also musste der „Nur-Arm-Roboter“ gegen ein komplettes Modell bei einem Kamerawechsel getauscht werden, was wiederum dazu führte, dass die Übergänge schlecht aussahen und lange angepasst werden mussten (immer noch nicht perfekt, aber mir ging die Zeit aus).
Zudem machten Licht und Schatten Probleme, wenn Säulen ungünstige Schatten warfen oder die Sonne im falschen Winkel stand. Das Hinzufügen einzelner Lichtquellen und das Anpassen der Temperaturen löste dies schließlich.
Am Ende war der Viewport allerdings vollkommen überladen mit Steuerungselementen für die ganzen Kameras.
Im kreativen Prozess schaffen es natürlich nicht alle Ideen in das finale Ergebnis. Eine Laufszene, die ich zu früh mit dem kompletten Roboter erstellt hatte, wirkte zu linear und wirkte nicht so, als hätte der Roboter „Gewicht“, weshalb sie verworfen wurde. Auch die erste Version des Titels und „Music by Skars“ flogen trotz sehr viel Arbeit raus, da ich Feedback bekommen habe, dass man diesen „Effekt“ schon zu oft gesehen hatte. Ebenso erging es einer ersten Version, in der das Schwert gezogen wird – die Bewegung wirkte einfach zu perfekt und damit unrealistisch. Ich hatte auch einen individuellen Schriftzug des Titels entworfen, passte jedoch nicht in die Szene.
8. Fazit
Abschließend lässt sich sagen, dass ich meinen Anspruch an mich selbst erfüllt habe, auch wenn mir noch viele Dinge auffallen, die ich beim nächsten Mal anders oder besser machen möchte. Es ist ein stetiger Lernprozess – als ich vor nicht einmal einem Jahr mit Blender anfing, hätte ich niemals mit einem solchen Ergebnis gerechnet. Ich habe mich in diesem Bericht auf das Wichtigste beschränkt, da ich unmöglich jeden einzelnen Schritt beschreiben kann.