Die besten KI-Tools für iOS 18 kommen im Dezember, aber Siri muss länger warten

Das Apple Intelligence Toolkit hat eine erstaunliche Mischung aus verzögerten Funktionen und enttäuschenden Vorteilen erlebt. Aber es scheint, dass der vielversprechendste Satz dieser KI-Tools, den Apple Anfang des Jahres auf der WWDC vorgestellt hat, unmittelbar bevorsteht.

In der neuesten Ausgabe seines PowerOn-Newsletters schreibt Mark Gurman von Bloomberg, dass das iOS 18.2-Update in der ersten Dezemberwoche über den stabilen Kanal eingeführt wird.

Die oben erwähnte Version von iOS befindet sich bereits in der Beta-Testphase und hat drei der interessantesten KI-Upgrades für das iPhone eingeführt. Dazu gehört die Integration von Siri mit ChatGPT von OpenAI , die komplexe Abfragen nahtlos an den Chatbot auslagert.

Dann haben wir Visual Intelligence , mit der Benutzer die Kamera ihres Telefons auf die Welt um sie herum richten und wertvolle Informationen über alles, was im Bild erscheint, extrahieren können. In der aktuellen Version kann es Aufgaben wie die Identifizierung einer Hunderasse oder das Erfassen von auf einem Poster aufgeführten Details erledigen.

Angesichts des hohen Integrationsgrads mit dem OpenAI-Stack wird es jedoch nicht überraschen, dass Visual Intelligence die gleichen Funktionen wie die neueste Version von ChatGPT und seine eigenen multimodalen Verständnisfähigkeiten erhält.

Siri verlagert Benutzeranfragen an ChatGPT.
Nadeem Sarwar / Digitale Trends

Mit der Betaversion von iOS 18.2 wurden auch Tricks wie die eigenständige Image Playgrounds-App eingeführt, mit der Benutzer lustige Bilder basierend auf ihren eigenen Bildern erstellen können. Das benutzerdefinierte Genmoji-System steht ebenfalls auf dem Update-Tisch.

Gurman fügt hinzu, dass Siri mit dem iOS 18.4-Update endlich die Form erreichen wird, die Fans auf die wahre Wiedergeburt des virtuellen Assistenten im KI-Zeitalter freut. „Damit sollte der digitale Assistent auf die Daten der Menschen zugreifen und auf der Grundlage der Informationen auf ihren Bildschirmen auf Anfragen antworten“, schreibt er.

Derzeit ist Gemini von Google in der Lage, lokale Text- und Mediendateien zu analysieren und auf der Grundlage der aus diesen Dateien erfassten Informationen zu reagieren. Durch die tiefe Integration mit Workspace kann die KI einen Blick auf Dateien in Google Drive und anderen wichtigen Tools wie Docs werfen.

Das Notebook LM-Tool ist ebenfalls in der Lage, das Gleiche zu tun und kann sogar YouTube-Videos sowie Webseiten-URLs von Drittanbietern interpretieren, ohne Benutzer um ein Abonnement zu bitten.

Im Fall von Apple wird Siri – unterstützt durch den Tech-Stack von OpenAI – in der Lage sein, Fragen zu beantworten, indem es Informationen aus Dateien und Daten abruft, die lokal auf dem Telefon gespeichert sind. Stellen Sie sich Szenarien wie das Abrufen von Reiseinformationen aus E-Mails, Planungsdetails aus Kalendereinträgen und Geschäftsdaten aus PDFs und Tabellen vor.

Visuelle Intelligenz auf dem iPhone.
Jesse Hollington / Digitale Trends

Die nützlichste dieser Funktionen wird jedoch eine tiefere Integration mit Apps von Drittanbietern sein. Dies würde es dem virtuellen Assistenten ermöglichen, Aufgaben in Drittanbieter-Apps ausschließlich auf Basis von Sprach- oder Textbefehlen auszuführen.

Insbesondere wird Apple den Benutzern künftig auch die Möglichkeit geben, das Potenzial anderer Tools von Drittanbietern wie Gemini auszuprobieren . Darüber hinaus wird Siri auch in der Lage sein, Antworten basierend auf den Bildschirminhalten zu geben.

iOS 18.4 wird voraussichtlich irgendwann im April nächsten Jahres erscheinen. Das ist das gleiche Zeitfenster, in dem Apple voraussichtlich das iPhone SE der nächsten Generation auf den Markt bringen wird, mit neuem Design, schnellerem Silizium und Unterstützung für Apple Intelligence.