Ist dieser KI-Videogenerator die Zukunft des Animes? Auf keinen Fall

In Japan war es während des KI-Booms bisher ziemlich ruhig, aber jetzt – kurz nach dem ganzen ChatGPTxGhibli-Trend – hat das japanische Unternehmen Animon einen KI-Videogenerator speziell für Anime herausgebracht.

Das kostenlose Tool nimmt Standbilder von Anime-, Cartoon- oder CG-Kunstwerken auf und erstellt auf der Grundlage der von Ihnen eingegebenen Eingabeaufforderung fünf Sekunden lange Animationen. Das Unternehmen behauptet, dass es sowohl professionellen als auch Amateur-Animatoren dabei helfen wird, den kreativen Prozess zu beschleunigen – im Wesentlichen ist nur ein handgezeichnetes Bild pro fünf Sekunden Video anstelle von Hunderten erforderlich.

Gibt es einen Platz für KI-Tools in der Anime-Branche?

Kurzes Geständnis hier – ich bin zufällig ein totaler Anime-Nerd . Ich habe Hunderte von Shows gesehen, ich besuche fast jedes Jahr Japan, ich habe dort gearbeitet und ich spreche Japanisch. Ich bin kein Experte für den Animationsprozess, aber ich weiß, wie eine gute und wie eine schlechte Animation aussieht.

Auch ohne KI gibt es in der Anime-Branche bereits viele Möglichkeiten, bei der Animation Abstriche zu machen. Ein Großteil der Arbeit wird mittlerweile an koreanische Animationsstudios ausgelagert, und der Zeit- und Geldaufwand dafür sinkt immer weiter.

Wenn ein Studio nicht genug in seine Animation investiert, wirkt sich das vor allem auf zwei Arten auf die Shows aus: Es gibt viel weniger Bewegung und die künstlerische Qualität nimmt spürbar ab. Die Charakterdesigns mögen auf den Werbeplakaten schön aussehen, aber die von Bild zu Bild gezeichneten Versionen weisen nicht den gleichen Detaillierungsgrad oder die richtigen Proportionen auf und sehen in manchen Fällen sogar geradezu dürftig aus.

Ich habe ein unglückliches Beispiel dafür aus einer Serie, die mir gefällt (ein beliebter Volleyball-Anime namens Haikyuu ). Frühere Episoden waren wirklich gut animiert, aber aus irgendeinem Grund brach die Qualität in einer der späteren Staffeln ein. Hier ist ein Bild, das eine Aufnahme des Protagonisten aus einer Episode der ersten Staffel mit einer Episode der vierten Staffel vergleicht.

Um es klarzustellen: Einige Sendungen sehen immer noch großartig aus – aber Animationen von geringer Qualität können fast überall auftauchen, und sie können definitiv schlimm genug sein, um Zuschauer wie mich abzuschrecken.

Da die Messlatte so tief sinkt, könnte man meinen, dass KI-Tools zur Videogenerierung in dieser Branche tatsächlich eine Chance haben. Nach den Inhalten, die ich von Animon.ai erhalten habe, zu urteilen, befürchte ich jedoch, dass dies nicht der Fall zu sein scheint.

Wie sehen die generierten Animationen aus?

Das Tool funktioniert zwar, indem es das Bild, das Sie ihm geben, aufnimmt und es fünf Sekunden lang bewegt, aber das ist auch schon alles, was Sie garantieren können. Für mein erstes Experiment gab ich ihm eine Destille Jet Black von Cowboy Bebop, die ich gerade aus einem Whiskyglas trank.

Meine Aufforderung lautete einfach: „Der abgebildete Charakter trinkt aus dem Glas Whisky, das er in der Hand hält.“ Das Video, das ich als Gegenleistung erhalten habe, weist einige Fehler auf.

Erstens trinkt Jet Black den Whisky nicht. Er scheint zu reden und hebt das Glas näher an sein Gesicht, aber ich sehe nichts, was nach echtem Trinken aussieht. Der Whisky im Glas scheint jedoch sehr beschäftigt zu sein – das Glas füllt sich und entleert sich, trotz des scheinbaren Mangels an Alkohol. Wenn Sie Jet Drink in Echtzeit sehen möchten, finden Sie es hier auf YouTube .

Auch das KI-Modell hat mit Jets Narbe zu kämpfen. Das untere Ende verschwindet irgendwie, und als er die Augen öffnet, verläuft die Narbe direkt über seinen Augapfel. Da ich das Standbild aus einem Video auf dem YouTube-Kanal von Crunchyroll aufgenommen habe, ist oben rechts das Logo von CR zu sehen. Im KI-Video scheint sich der Text jedoch stattdessen in „Crunchyolo“ verwandelt zu haben.

Als nächstes habe ich versucht, ein Standbild von Maomaos Tanzszene aus „The Apothecary Diaries“ zu füttern, und ich habe ein wirklich seltsames Ergebnis erzielt. Im Gegensatz zu den trippigen, matschigen, sich verändernden Bewegungen des 2D-Jet-Videos lieferte mir die KI etwas, das wie ein 3D-Modell aussah.

Animon.ai soll auch mit CG-Kunst funktionieren, daher denke ich, dass es Sinn macht, dass es 3D-Modelle generieren kann, aber ich war ziemlich überrascht. Während „The Apothecary Diaries“ häufig 3D-Modelle für Gebäude und Hintergründe verwendet, wurde die Figur in der von mir verwendeten Aufnahme definitiv gezeichnet.

In jedem Fall wirken die generierten Videos deutlich stabiler, wenn 3D-Modelle involviert sind. Bewegungen wirken weniger schwappig und das Modell behält die Größe und Form der Figur einheitlicher bei. Ich würde es immer noch nicht so in einer Show sehen wollen, aber es ist zweifellos ein Fortschritt gegenüber den 2D-Inhalten, die es mir bot.

Beim Verkaufsargument von Animon.ai geht es jedoch vor allem darum, Animatoren dabei zu helfen, Zeit zu sparen, indem sie weniger Frames zeichnen – und das ist bei 3D-Animationen irrelevant. Im Vergleich zu 2D ist es bereits schnell und kostengünstig, und es macht wenig Sinn, ein 3D-Modell zu erstellen und es dann mit einem KI-Videogenerator willkürlich zu animieren, anstatt eine Animationssoftware zu verwenden.

Sollten Sie Animon.ai verwenden?

Wenn Sie keine Ahnung von Animation haben und schnell ein GIF oder ein Video für persönliche Zwecke erstellen möchten, wird dieses Tool wahrscheinlich gut funktionieren (oder Sie zum Lachen bringen, wenn nicht). Es ist jedoch schwer vorstellbar, dass Amateur- oder professionelle Animatoren darin einen echten Wert sehen.

Wenn Sie sehen möchten, wozu das Tool in der Lage ist, haben Sie auf dem YouTube-Kanal Animon ein Musikvideo gepostet, das fast zu 100 % KI-generiert zu sein scheint – zumindest sieht es definitiv so aus.

Insgesamt denke ich, dass es zwei Hauptgründe gibt, warum KI-Videogeneratoren noch nicht für echte Arbeit geeignet sind. Zum einen sieht die Bewegung zu schlecht aus, zum anderen fehlt Ihnen die Kontrolle über das Ergebnis. Es ist eigentlich dasselbe wie bei jedem anderen generativen KI-Tool – sie sind nur nicht konsistent und reaktionsschnell genug, um zuverlässig zu sein. Wir werden es wahrscheinlich eines Tages schaffen, und es macht immer noch Spaß, mit frühen Versionen der Technologie herumzuspielen, aber lassen Sie sich nicht von den Verkäufern täuschen – noch ist keines dieser Tools für den kommerziellen Einsatz bereit.