Das neueste Update von Runway liefert bereits atemberaubende Ergebnisse
Die Leute haben auch viel Spaß mit der Video-zu-Video-Generierung von Runway, die am 13. September veröffentlicht wurde. Im Wesentlichen ermöglicht Ihnen die Funktion, den visuellen Stil eines bestimmten Videoclips mithilfe von Textansagen radikal zu verändern.
Schauen Sie sich das Video unten an, um ein bewusstseinsveränderndes Beispiel dafür zu sehen, was möglich ist.
Runway Gen-3 Alpha ist gerade mit Video-to-Video aufgestiegen
Jetzt können Sie den Stil jedes Videos ändern, indem Sie nur Textansagen in erstaunlicher Qualität verwenden.
10 wilde Beispiele dafür, was möglich ist: pic.twitter.com/onh12zCzpI
– Min Choi (@minchoi) 15. September 2024
KI-Enthusiasten produzieren auch atemberaubende visuelle Effekte, die auf dem Vision Pro-Headset von Apple angezeigt werden können, was uns einen möglichen Hinweis darauf gibt, was Entwickler erreichen können, wenn sie die kürzlich angekündigte API nutzen.
X-Benutzer (ehemals Twitter) Cristóbal Valenzuela hat am Montag einen kurzen Clip auf der Social-Media-Website gepostet, in dem er die kombinierten Fähigkeiten von Gen-3 und Apple Vision Pro demonstriert.
Frühe Experimente zur Darstellung von Gen-3 auf dem Apple Vision Pro, erstellt von @Nymarius_ pic.twitter.com/SiUNR0vX0G
– Cristóbal Valenzuela (@c_valenzuelab) 15. September 2024
Das Video zeigt einen Großraumbüroraum mit einer generierten Überlagerung, die den Raum wie tiefe Dschungelruinen erscheinen lässt. Einige Nutzer waren noch immer nicht von der Glaubwürdigkeit des Videos überzeugt, aber dem Beitrag zufolge wurde es von jemandem erstellt, der tatsächlich bei Runway arbeitet .
Der Twitter-Nutzer und Content-Ersteller Cosmo Scharf zeigte in seinem Beitrag ähnliche Effekte und lieferte zusätzliche visuelle Beweise , um seine Behauptungen zu untermauern.
Gen-3 Alpha Video-to-Video ist bemerkenswert!
Hier ein Test vom Vision Pro.
Eines Tages wird dies in Echtzeit auf einer Mixed-Reality-Brille laufen und Ihre Welt wird nie mehr wie zuvor aussehen. #VisionHack pic.twitter.com/GTgartg5ry
– Cosmo Scharf ᯅ (@cosmoscharf) 15. September 2024
Runway kündigte am Montag die Veröffentlichung einer neuen API an, die es Entwicklern ermöglichen wird, Videogenerierungsfunktionen zu einer Vielzahl von Geräten und Apps hinzuzufügen. Berichten zufolge gibt es jedoch einige Einschränkungen, wer tatsächlich auf die API zugreifen kann. Zum einen ist es im Moment nur in limitierter Auflage verfügbar, aber Sie können sich hier für eine Warteliste anmelden . Sie müssen außerdem entweder Abonnent des Build- oder Enterprise-Plans sein. Sobald Ihnen Zugriff gewährt wird, können Sie nur noch die Gen-3-Alpha-Turbo-Modellversion nutzen, die etwas weniger leistungsfähig ist als das Flaggschiff des Unternehmens , Gen-3-Alpha .
Das Unternehmen plant, für die Nutzung des Dienstes einen Cent Guthaben pro Generation zu verlangen. Zum Vergleich: Eine einzige Sekunde Videogenerierung kostet fünf Credits, sodass Entwickler im Grunde 5 Cent pro Videosekunde zahlen. Entwickler müssen außerdem in jeder Schnittstelle, die die API aufruft, ein „Powered by Runway“-Banner „prominent sichtbar“ anzeigen, das auf die Website des Unternehmens verweist.
Während der Bereich der kommerziellen Videoerzeugung immer dichter wird – mit Adobes Firefly , dem kommenden Sora von Meta, dem AI-Videogenerator von Canva, Kling von Kuaishou Technology und Video-01 von Minimax, um nur einige zu nennen – zeichnet sich Runway dadurch aus, dass es einer der besten Anbieter ist war der erste Anbieter, der seine Modelle als API anbot. Ob dies ausreichen wird, um die exorbitanten Schulungskosten des Unternehmens wieder hereinzuholen und es in die Gewinnzone zu führen, bleibt abzuwarten.