In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
Einleitung: KP 4D - KI, Kamera, Kopfkino
In diesem Kurzprojekt haben wir uns zwei Wochen lang intensiv mit den KI- und AI-Tools beschäftigt. Wir wollten herausfinden, welche Möglichkeiten es gibt und was diese Technologien mittlerweile erschaffen können. Dabei haben wir verschiedene Tools recherchiert, getestet und kreativ eingesetzt, um zu sehen, was auf dem Markt alles geht und wie wir sie nutzen können.
Das Ziel? Am Ende wollten wir reflektieren, in welchen Phasen unseres Arbeitsprozesses wir uns Unterstützung durch KI vorstellen können und welche Schritte wir lieber selbst in der Hand behalten. Zum Abschluss des Projekts stand außerdem die Aufgabe, ein kurzes Video zu erstellen – mit Unterstützung durch KI, inspiriert von KI oder direkt darüber handelnd.
Am Anfang stand die Research. Ich hatte ehrlich gesagt noch keinen richtigen Überblick über die Tools, die es da draußen so gibt – meine einzige Erfahrung mit KI war bis dahin ChatGPT, das ich mittlerweile aber ziemlich aktiv in meinen Arbeitsalltag eingebaut habe.
In den ersten Tagen habe ich mich durch alle möglichen Free Trials diverser KI-Plattformen geklickt. Besonders die kostenlosen Versionen von KREA AI und ToonCrafter AI haben mich überzeugt – die beiden haben auf jeden Fall das meiste geboten für 0€.
Als nächstes habe ich mir eine Story für meinen Kurzfilm überlegt und diese mit Unterstützung von ChatGPT geschrieben. Für das Storyboard habe ich dann Katalist ai ausprobiert – allerdings war das Ergebnis ziemlich enttäuschend. Die Bilder waren unübersichtlich, und jedes Bild sah dem vorherigen zu 90 % ähnlich. Warum das so daneben ging, kann ich mir nur so erklären, dass die Free-Version von Katalist ai vielleicht nicht die beste Wahl war.
Dann habe ich mir eine Kamera ausgeliehen um ein paar Real-Life-Shots für den Film zu drehen. Die Idee war, diese Szenen später mit KI so zu bearbeiten, dass eine Person sich in etwas anderes verwandelt. Leider kam mir die Zeit dafür wegen persönlicher Umstände abhanden, sodass dieser Teil des Projekts ins Wasser viel und ich mir etwas neues überlegen musste.
Nachdem mein erster Plan für das Video leider nicht mehr umsetzbar war, habe ich mich an eine neue Idee gesetzt. Passend dazu abonnierte Prof. Hartmann in dieser Phase des Projekts eine uneingeschränkte Version von Runway AI – perfekt, um damit nun ein vollständig KI-generiertes Video zu erstellen.
Da die Bildgenerierung von Runway AI nicht ganz meinen Erwartungen entsprach, habe ich zusätzlich Midjourney abonniert, um bessere Ergebnisse für die visuelle Gestaltung zu erzielen. Für die Story habe ich dann mit ein paar Freunden gebrainstormt und die Ideen von ChatGPT ausspucken lassen.
Nachdem ich mir ein Storyboard mit ChatGPT erstellt hatte, ging es an die ersten Ausgangsbilder, die ich in Midjourney generieren wollte. Mein Ziel war, alle Bilder im gleichen Stil zu halten und die Charaktere konsistent darzustellen – was dank der Ähnlichkeitseinstellungen in Midjourney funktionierte, aber einige Versuche brauchte.
Anschließend habe ich die Bilder in Runway importiert, um daraus Videos zu erstellen. Dabei stieß ich auf ein paar Herausforderungen: Die Szenen sahen oft anders aus als in meiner Vorstellung, und es war ein Balanceakt, den richtigen Moment zu finden, um mit einer Szene zufrieden zu sein, anstatt ewig an den Details zu feilen. Häufig liefen die Charaktere in die falsche Richtung, und Runway hatte Schwierigkeiten, Figuren von hinten zu zeigen – sie schauten stattdessen fast immer direkt in die Kamera.
Fast zum Schluss habe ich über ElevenLabs eine KI-generierte Sprecherstimme erstellen lassen. Das hat gut und schnell funktioniert, aber es hat lange gedauert, bis ich die passende Stimme für mein Video gefunden hatte – die meisten Favoriten waren leider hinter einer Paywall.
Danach wollte ich über Artlist.io Musik generieren, was jedoch überhaupt nicht geklappt hat. Meine Free-Trials waren schneller aufgebraucht, als ich schauen konnte, und die Ergebnisse waren nicht überzeugend. Schließlich habe ich auf YouTube einen Free-to-Use-Song gefunden.
Am Ende habe ich alle Elemente in Adobe Premiere Pro zusammengeschnitten, und damit entstand ein nahezu vollständig KI-generierter Kurzfilm.
In diesem Kurzprojekt habe ich so intensiv mit KI gearbeitet, dass ich mittlerweile ganz gut weiß, was ich davon gerne übernehmen lassen möchte – und vor allem, was nicht. Schon beim ersten Prompt-Schreiben wurde klar, dass es anstrengend werden würde. Es fühlte sich nicht so an, als würde ich selbst kreativ sein; die KI nahm mir quasi das ab, was eigentlich Spaß macht. Gegen Ende des Projekts hatte ich sogar das Gefühl, eher für die KI zu arbeiten, statt umgekehrt.
Ich kann mir gut vorstellen, KI als Tool einzusetzen, um fertige Videos nachzubearbeiten oder Effekte hinzuzufügen – da entfaltet sie wirklich Potenzial. Aber einen ganzen Film damit zu generieren, ist alles andere als spaßig und fühlt sich oft eher eintönig und repetitiv an.