Vergessen Sie Dall-E, Sie können sich jetzt anmelden, um KI-generierte Videos zu erstellen

Dall-E, ChatGPT und andere Technologien der KI-Generation versetzen uns immer wieder in Erstaunen. Dennoch mögen KI-Bilderzeugungstools wie Midjourney langweilig erscheinen, wenn Sie die neuen, KI-gestützten Videoerzeugungsfähigkeiten sehen, die uns bald allen zur Verfügung stehen werden.

Runway bietet einen fortschrittlichen Online-Videoeditor, der viele der gleichen Funktionen wie eine Desktop-App bietet. Das Unternehmen hat seinen Service jedoch von anderen unterschieden, indem es Pionierarbeit bei der Verwendung von KI-Tools geleistet hat, die bei verschiedenen zeitaufwändigen Videoaufgaben helfen, z. B. beim Ausblenden des Hintergrunds.

Ein Frame aus einem KI-generierten Video im Claymation-Stil.

Jetzt hat Runway seine Videomagie auf ein neues Niveau gehoben und auf Twitter ein neues Angebot zur KI-Videogeneration angekündigt, das alles übertrifft, was zuvor gezeigt wurde, selbst von führenden KI-Unternehmen wie Google und Meta . Dieses als Gen-1 bekannte KI-Modell verwendet ein Video, das Sie zusammen mit einer Eingabeaufforderung bereitstellen, um ein bemerkenswert stabiles und qualitativ hochwertiges Rendering zu generieren, das der Struktur des Originals entspricht, jedoch einen ganz anderen Stil aufweist.

Runway ist ein neues Gesicht in der Welt der KI-generierten Inhalte, aber es stammt von den Mitschöpfern von Stable Diffusion , einem beliebten Text-zu-Bild-KI-Tool, das auf dem Mac verfügbar ist.

Die Eingabeaufforderung kann textbasiert sein, oder Sie können ein Bild bereitstellen, das als Stil zum Verarbeiten des Videos verwendet wird. Derzeit gibt es fünf Betriebsmodi. Der Stilisierungsmodus erfasst das Aussehen eines Bildes und wendet es auf das Video an. Der Storyboard-Modus ersetzt einen größeren Teil des Originalvideos. Die Idee ist, dass Sie nur Platzhalter bereitstellen, die die KI ersetzen soll.

Für mehr Präzision können Sie im Maskenmodus angeben, welcher Teil oder welches Motiv im Video vom KI-Prozess betroffen sein soll. Der Rendermodus ähnelt dem Storyboard und fügt dem bereitgestellten Video viele zusätzliche Details hinzu. Runway hat auch einen Anpassungsmodus, der viele weitere Optionen bietet, um einzustellen, was Sie wollen.

Selbst in dieser aufstrebenden Form ist es weitaus besser als Videos, die sorgfältig aus Hunderten von KI-generierten Bildern zusammengesetzt wurden. Anstelle eines chaotischen Grollens sind die Beispielvideos zusammenhängend und fließen viel natürlicher.

Der frühe Zugriff auf Gen-1 hat heute begonnen. Und die Ergebnisse hauen uns jetzt schon um. h/t @MatthewPaquette

Tragen Sie sich noch heute in die Warteliste ein. Teilen Sie es mit Freunden, um früher dabei zu sein. #Gen1 https://t.co/a41n97xl1u https://t.co/eWHLkeMqWx pic.twitter.com/U2nF3z3DZ7

– Start- und Landebahn (@runwayml) 8. Februar 2023

Die Gen-1-Videogeneration von Runway ist bereits im Early Access verfügbar, und der obige Tweet beschreibt, wie Sie sich der Warteliste anschließen können. Schauen Sie sich in der Zwischenzeit das YouTube-Video von Runway an, das eine bessere Auflösung als das Twitter-Video hat. Der gute Teil dauert etwa 40 Sekunden.