Das war eine riesige Woche für KI. Hier sind die 5 größten Ankündigungen, die Sie kennen müssen
Der Wettlauf um die Erreichung von AGI (künstliche allgemeine Intelligenz) ging mit einer gefühlten monumentalen Woche in der rasanten Entwicklung der KI weiter.
Von Apple, der uns einen Vorgeschmack auf seine Intelligenz gibt, bis hin zu riesigen Fortschritten bei KI-generierten Videos – werfen wir einen Blick auf einige der wichtigsten KI-Geschichten dieser Woche.
Soft-Launches von Apple Intelligence
Es war eine ereignisreiche Woche für den in Cupertino ansässigen Gerätehersteller. Wir sahen das öffentliche Debüt von iOS 18 , WatchOS 11 und MacOS 15 , unmittelbar gefolgt vom Verkaufsstart des iPhone 16 und der Apple Watch 10 sowie der Einführung des ersten Updates für das neue Betriebssystem durch Apple mit 18.1 Beta .
Die Beta bietet nicht den gesamten Funktionsumfang der KI – wir erwarten dies erst mit der offiziellen Veröffentlichung von 18.1 im Oktober – aber sie reicht aus, um interessierten Benutzern einen Vorgeschmack darauf zu geben, wozu der generative KI-Agent bald fähig sein wird .
Allerdings wird Apple Intelligence, wie wir bereits bei den digitalen Trends gesehen haben , wahrscheinlich noch weiter verfeinert und verfeinert werden müssen, bevor es für die Öffentlichkeit bereit ist.
Lionsgate arbeitet mit Runway zusammen, um KI-Videomodelle zu trainieren
Seltsam, ich hätte schwören können , dass der Streik der Hollywood-Autoren im letzten Sommer speziell gegen Hollywoods unüberlegte Hinwendung zur generativen KI stattfand. Diese kollektive Aktion hat offenbar wenig dazu beigetragen, Lionsgate davon abzuhalten, direkt wieder auf den KI-Zug aufzuspringen, das diese Woche bekannt gab , dass es mit Runway, dem Hersteller des Gen-3-Alpha-Videogenerationsmodells, zusammenarbeitet.
Die Vereinbarung sieht vor, dass die beiden Unternehmen zusammenarbeiten, um ein Videogenerierungsmodell zu entwickeln und zu trainieren, das den umfangreichen Katalog an Film- und Fernsehinhalten von Lionsgate nutzt. Die beiden planen, damit „modernste, kapitaleffiziente Möglichkeiten zur Erstellung von Inhalten zu entwickeln“, was, wie wir alle wissen, das Markenzeichen großartigen Kinos ist und kein schlecht durchdachter Versuch, den Tausenden von Storyboard-Künstlern, Licht- und Effektdesignern das Recht zu entziehen. Schauspieler, Musiker und andere, die die eigentliche Arbeit der Produktion von Filmen und Fernsehserien übernehmen, indem sie diese durch eine zusammengewürfelte generative KI ersetzen.
Snap bringt neue, gigantische Spectacles AR-Brillen auf den Markt
Snap versucht weiterhin, AR-Brillen zu einer Sache zu machen. Diese Woche veröffentlichte das Unternehmen die fünfte und neueste Version seiner Spectacles AR-Brillenlinie . Die neue Hardware bietet ein breiteres Sichtfeld und ein Display, das „einem 100-Zoll-Display in 10 Fuß Entfernung“ ähnelt, während SnapOS und die zugehörige Smartphone-App beide im Vergleich zu ihren Vorgängerversionen erhebliche Verbesserungen erhalten haben. Berichten zufolge arbeitet Snap auch mit OpenAI zusammen, um „in der Cloud gehostete multimodale KI-Modelle“ auf die Datenbrillen zu bringen.
Die neuen Spezifikationen wiegen außerdem satte 226 Gramm, das sind über 100 Gramm mehr als die letztjährige Ausgabe, und sehen aus wie etwas, das Edna Mode tragen würde. Sie stehen derzeit nur Entwicklern zur Verfügung, die 99 US-Dollar pro Monat für den Programmzugriff ausgeben, und es gibt noch keine Informationen darüber, wann eine Verbraucherversion veröffentlicht wird.
Die neuen KI-Tools von YouTube erledigen den Großteil des Inhaltserstellungsprozesses für Sie
Um die Eintrittsbarriere für neue Content-Ersteller zu senken und besser mit Kurzvideoplattformen wie TikTok zu konkurrieren, hat YouTube diese Woche eine Reihe neuer KI-gestützter Produktionstools eingeführt . Google gab am Mittwoch auf seiner Made on YouTube-Veranstaltung in New York City bekannt, dass das Veo-Videogenerierungsmodell von DeepMind in YouTube Studio integriert wird. Das Modell kann aus nur einer Textaufforderung sechs Sekunden lange Clips in 1080p-Auflösung und einer Vielzahl von Filmstilen generieren.
Das Unternehmen stellt diese neuen Funktionen als „Brainstorming“-Assistenten in Rechnung, der Themen für das Video vorschlagen sowie einen Titel, ein Miniaturbild und die ersten paar Zeilen des Skripts generieren kann. Benutzer können Veo auch in Verbindung mit Dream Screen verwenden, das KI-Hintergrundbilder generiert. Sie können mit Dream Screen einen statischen Hintergrund erstellen und ihn dann mit Veo animieren.
Wussten Sie zufällig, dass das Schreiben einer E-Mail mit 100 Wörtern durch einen Chatbot das Äquivalent von drei Flaschen Wasser und 14 LED-Glühbirnen verbraucht, die eine Stunde lang laufen? Versuchen Sie vielleicht, mit Ihrem Wissen ein paar originelle Ideen zu sammeln, anstatt Seen zum Kochen zu bringen und sich die rekursiven Vorschläge eines großen Sprachmodells anzuhören.
Der Gen-3 Alpha von Runway bietet jetzt Video-zu-Video-Generierung
Runway Gen-3 Alpha ist gerade mit Video-to-Video aufgestiegen
Jetzt können Sie den Stil jedes Videos ändern, indem Sie nur Textansagen in erstaunlicher Qualität verwenden.
10 wilde Beispiele dafür, was möglich ist: pic.twitter.com/onh12zCzpI
– Min Choi (@minchoi) 15. September 2024
Bevor Runway seine Partnerschaft mit Lionsgate bekannt gab, startete das Unternehmen die Woche mit der Einführung einer neuen Funktion für sein Gen-3-Alpha-Videogenerationsmodell: die Möglichkeit, den Filmstil jedes Videos durch Textansagen zu ändern. KI-Enthusiasten haben mit dem neuen Tool großen Spaß.
Im obigen Social-Media-Beitrag können Sie die Technologie in Aktion sehen. Runway stellte diese Woche außerdem eine API vor, die es Drittentwicklern ermöglicht, das Videomodell in ihre eigenen Apps, Systeme und Geräte zu integrieren.