Incom ist die Kommunikations-Plattform der Hochschule Anhalt Fachbereich Design

In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre

Incom ist die Kommunikations-Plattform der Hochschule Anhalt Fachbereich Design mehr erfahren

Kaï

Einleitung: KP 4D - KI, Kamera, Kopfkino

In diesem Kurzprojekt haben wir uns zwei Wochen lang intensiv mit den KI- und AI-Tools beschäftigt. Wir wollten herausfinden, welche Möglichkeiten es gibt und was diese Technologien mittlerweile erschaffen können. Dabei haben wir verschiedene Tools recherchiert, getestet und kreativ eingesetzt, um zu sehen, was auf dem Markt alles geht und wie wir sie nutzen können.

Das Ziel? Am Ende wollten wir reflektieren, in welchen Phasen unseres Arbeitsprozesses wir uns Unterstützung durch KI vorstellen können und welche Schritte wir lieber selbst in der Hand behalten. Zum Abschluss des Projekts stand außerdem die Aufgabe, ein kurzes Video zu erstellen – mit Unterstützung durch KI, inspiriert von KI oder direkt darüber handelnd.

Research

Am Anfang stand die Research. Ich hatte ehrlich gesagt noch keinen richtigen Überblick über die Tools, die es da draußen so gibt – meine einzige Erfahrung mit KI war bis dahin ChatGPT, das ich mittlerweile aber ziemlich aktiv in meinen Arbeitsalltag eingebaut habe.

In den ersten Tagen habe ich mich durch alle möglichen Free Trials diverser KI-Plattformen geklickt. Besonders die kostenlosen Versionen von KREA AI und ToonCrafter AI haben mich überzeugt – die beiden haben auf jeden Fall das meiste geboten für 0€.

Bildschirmfoto 2024-11-04 um 17.53.37.pngBildschirmfoto 2024-11-04 um 17.53.37.png
Bildschirmfoto 2024-11-04 um 17.54.39.pngBildschirmfoto 2024-11-04 um 17.54.39.png

Storyentwicklung, Storyboard und erste Schwierigkeiten

Als nächstes habe ich mir eine Story für meinen Kurzfilm überlegt und diese mit Unterstützung von ChatGPT geschrieben. Für das Storyboard habe ich dann Katalist ai ausprobiert – allerdings war das Ergebnis ziemlich enttäuschend. Die Bilder waren unübersichtlich, und jedes Bild sah dem vorherigen zu 90 % ähnlich. Warum das so daneben ging, kann ich mir nur so erklären, dass die Free-Version von Katalist ai vielleicht nicht die beste Wahl war.

Dann habe ich mir eine Kamera ausgeliehen um ein paar Real-Life-Shots für den Film zu drehen. Die Idee war, diese Szenen später mit KI so zu bearbeiten, dass eine Person sich in etwas anderes verwandelt. Leider kam mir die Zeit dafür wegen persönlicher Umstände abhanden, sodass dieser Teil des Projekts ins Wasser viel und ich mir etwas neues überlegen musste.

Bildschirmfoto 2024-11-04 um 18.07.37.pngBildschirmfoto 2024-11-04 um 18.07.37.png
Bildschirmfoto 2024-11-04 um 18.07.46.pngBildschirmfoto 2024-11-04 um 18.07.46.png
Bildschirmfoto 2024-11-04 um 18.07.57.pngBildschirmfoto 2024-11-04 um 18.07.57.png

Neuer Schwung

Nachdem mein erster Plan für das Video leider nicht mehr umsetzbar war, habe ich mich an eine neue Idee gesetzt. Passend dazu abonnierte Prof. Hartmann in dieser Phase des Projekts eine uneingeschränkte Version von Runway AI – perfekt, um damit nun ein vollständig KI-generiertes Video zu erstellen.

Da die Bildgenerierung von Runway AI nicht ganz meinen Erwartungen entsprach, habe ich zusätzlich Midjourney abonniert, um bessere Ergebnisse für die visuelle Gestaltung zu erzielen. Für die Story habe ich dann mit ein paar Freunden gebrainstormt und die Ideen von ChatGPT ausspucken lassen.

Bildschirmfoto 2024-10-21 um 17.49.21.pngBildschirmfoto 2024-10-21 um 17.49.21.png

Kampf mit der KI

Nachdem ich mir ein Storyboard mit ChatGPT erstellt hatte, ging es an die ersten Ausgangsbilder, die ich in Midjourney generieren wollte. Mein Ziel war, alle Bilder im gleichen Stil zu halten und die Charaktere konsistent darzustellen – was dank der Ähnlichkeitseinstellungen in Midjourney funktionierte, aber einige Versuche brauchte.

Anschließend habe ich die Bilder in Runway importiert, um daraus Videos zu erstellen. Dabei stieß ich auf ein paar Herausforderungen: Die Szenen sahen oft anders aus als in meiner Vorstellung, und es war ein Balanceakt, den richtigen Moment zu finden, um mit einer Szene zufrieden zu sein, anstatt ewig an den Details zu feilen. Häufig liefen die Charaktere in die falsche Richtung, und Runway hatte Schwierigkeiten, Figuren von hinten zu zeigen – sie schauten stattdessen fast immer direkt in die Kamera.

Bildschirmfoto 2024-10-22 um 09.56.03.pngBildschirmfoto 2024-10-22 um 09.56.03.png
Bildschirmfoto 2024-10-22 um 09.56.25.pngBildschirmfoto 2024-10-22 um 09.56.25.png
Bildschirmfoto 2024-10-22 um 09.54.24.pngBildschirmfoto 2024-10-22 um 09.54.24.png
scene 3.pngscene 3.png
scene 3.1.pngscene 3.1.png
Szene1 von mid.pngSzene1 von mid.png
u2187398625_httpss.mj.runwDGZQZHWMBk_turn_this_picuture_into__9fa01aa7-2d49-4b87-a4ea-97c25932f6c1_3.pngu2187398625_httpss.mj.runwDGZQZHWMBk_turn_this_picuture_into__9fa01aa7-2d49-4b87-a4ea-97c25932f6c1_3.png

Abschluss

Fast zum Schluss habe ich über ElevenLabs eine KI-generierte Sprecherstimme erstellen lassen. Das hat gut und schnell funktioniert, aber es hat lange gedauert, bis ich die passende Stimme für mein Video gefunden hatte – die meisten Favoriten waren leider hinter einer Paywall.

Danach wollte ich über Artlist.io Musik generieren, was jedoch überhaupt nicht geklappt hat. Meine Free-Trials waren schneller aufgebraucht, als ich schauen konnte, und die Ergebnisse waren nicht überzeugend. Schließlich habe ich auf YouTube einen Free-to-Use-Song gefunden.

Am Ende habe ich alle Elemente in Adobe Premiere Pro zusammengeschnitten, und damit entstand ein nahezu vollständig KI-generierter Kurzfilm.

u2187398625_httpss.mj.runwDGZQZHWMBk_turn_this_picuture_into__9fa01aa7-2d49-4b87-a4ea-97c25932f6c1_3.pngu2187398625_httpss.mj.runwDGZQZHWMBk_turn_this_picuture_into__9fa01aa7-2d49-4b87-a4ea-97c25932f6c1_3.png

Fazit

In diesem Kurzprojekt habe ich so intensiv mit KI gearbeitet, dass ich mittlerweile ganz gut weiß, was ich davon gerne übernehmen lassen möchte – und vor allem, was nicht. Schon beim ersten Prompt-Schreiben wurde klar, dass es anstrengend werden würde. Es fühlte sich nicht so an, als würde ich selbst kreativ sein; die KI nahm mir quasi das ab, was eigentlich Spaß macht. Gegen Ende des Projekts hatte ich sogar das Gefühl, eher für die KI zu arbeiten, statt umgekehrt.

Ich kann mir gut vorstellen, KI als Tool einzusetzen, um fertige Videos nachzubearbeiten oder Effekte hinzuzufügen – da entfaltet sie wirklich Potenzial. Aber einen ganzen Film damit zu generieren, ist alles andere als spaßig und fühlt sich oft eher eintönig und repetitiv an.

Ein Projekt von

Fachgruppe

Integriertes Design

Art des Projekts

Forschungsprojekt

Betreuung

foto: Rochus Hartmann

Zugehöriger Workspace

KP 4D - KI, Kamera, Kopfkino, der menschliche Faktor im Zeitalter der KI-Filmproduktion

Entstehungszeitraum

Wintersemester 2024 / 2025