Vergessen Sie Dall-E, Sie können sich jetzt anmelden, um KI-generierte Videos zu erstellen
Dall-E, ChatGPT und andere Technologien der KI-Generation versetzen uns immer wieder in Erstaunen. Dennoch mögen KI-Bilderzeugungstools wie Midjourney langweilig erscheinen, wenn Sie die neuen, KI-gestützten Videoerzeugungsfähigkeiten sehen, die uns bald allen zur Verfügung stehen werden.
Runway bietet einen fortschrittlichen Online-Videoeditor, der viele der gleichen Funktionen wie eine Desktop-App bietet. Das Unternehmen hat seinen Service jedoch von anderen unterschieden, indem es Pionierarbeit bei der Verwendung von KI-Tools geleistet hat, die bei verschiedenen zeitaufwändigen Videoaufgaben helfen, z. B. beim Ausblenden des Hintergrunds.

Jetzt hat Runway seine Videomagie auf ein neues Niveau gehoben und auf Twitter ein neues Angebot zur KI-Videogeneration angekündigt, das alles übertrifft, was zuvor gezeigt wurde, selbst von führenden KI-Unternehmen wie Google und Meta . Dieses als Gen-1 bekannte KI-Modell verwendet ein Video, das Sie zusammen mit einer Eingabeaufforderung bereitstellen, um ein bemerkenswert stabiles und qualitativ hochwertiges Rendering zu generieren, das der Struktur des Originals entspricht, jedoch einen ganz anderen Stil aufweist.
Runway ist ein neues Gesicht in der Welt der KI-generierten Inhalte, aber es stammt von den Mitschöpfern von Stable Diffusion , einem beliebten Text-zu-Bild-KI-Tool, das auf dem Mac verfügbar ist.
Die Eingabeaufforderung kann textbasiert sein, oder Sie können ein Bild bereitstellen, das als Stil zum Verarbeiten des Videos verwendet wird. Derzeit gibt es fünf Betriebsmodi. Der Stilisierungsmodus erfasst das Aussehen eines Bildes und wendet es auf das Video an. Der Storyboard-Modus ersetzt einen größeren Teil des Originalvideos. Die Idee ist, dass Sie nur Platzhalter bereitstellen, die die KI ersetzen soll.
Für mehr Präzision können Sie im Maskenmodus angeben, welcher Teil oder welches Motiv im Video vom KI-Prozess betroffen sein soll. Der Rendermodus ähnelt dem Storyboard und fügt dem bereitgestellten Video viele zusätzliche Details hinzu. Runway hat auch einen Anpassungsmodus, der viele weitere Optionen bietet, um einzustellen, was Sie wollen.
Selbst in dieser aufstrebenden Form ist es weitaus besser als Videos, die sorgfältig aus Hunderten von KI-generierten Bildern zusammengesetzt wurden. Anstelle eines chaotischen Grollens sind die Beispielvideos zusammenhängend und fließen viel natürlicher.
Die Gen-1-Videogeneration von Runway ist bereits im Early Access verfügbar, und der obige Tweet beschreibt, wie Sie sich der Warteliste anschließen können. Schauen Sie sich in der Zwischenzeit das YouTube-Video von Runway an, das eine bessere Auflösung als das Twitter-Video hat. Der gute Teil dauert etwa 40 Sekunden.