Apple bestätigt lange Verzögerung für den KI-gestützten Siri-Assistenten

Die Bemühungen von Apple, fortschrittliche KI-Funktionen in seinem gesamten Ökosystem einzusetzen, so wie Google sie mit Gemini implementiert hat, haben noch viel zu tun. Darunter ist der virtuelle Assistent Siri, der ein Nachzügler geblieben ist und immer noch nicht die Funktionen erhalten hat, die Apple letztes Jahr auf seiner Entwicklerkonferenz vorgestellt hat.

Jetzt hat das Unternehmen offiziell bestätigt, dass ein überarbeitetes Siri, das auf lokal gespeicherte Benutzerdaten zugreifen und mit Apps interagieren kann, auf nächstes Jahr verschoben wurde. Intern als „LLM Siri“ bekannt, wird die Überarbeitung der nächsten Generation möglicherweise erst im nächsten Jahr vollständig umgesetzt, die Verzögerung könnte sich jedoch bis weit ins Jahr 2027 hinein erstrecken .

„Wir haben auch an einem personalisierteren Siri gearbeitet, der ihm mehr Aufmerksamkeit für Ihren persönlichen Kontext verleiht und ihm die Möglichkeit gibt, innerhalb und über Ihre Apps hinweg Maßnahmen für Sie zu ergreifen.“ Es wird länger dauern, als wir dachten, diese Funktionen bereitzustellen, und wir rechnen damit, sie im kommenden Jahr einzuführen“, wurde ein Apple-Sprecher von Daring Fireball zitiert.

Siri auf einem iPhone beschwören.
Nadeem Sarwar / Digitale Trends

Berichten zufolge plant Apple die Einführung des aktualisierten Siri-Erlebnisses im April, das voraussichtlich mit dem iOS 18.4-Update verfügbar sein wird. Top-Führungskräfte von Apple – darunter Craig Federighi, Senior Vice President of Software Engineering – haben Bedenken hinsichtlich der Fehlfunktion der geplanten Funktionen bei internen Tests geäußert, berichtet Bloomberg .

Anscheinend glauben einige Mitarbeiter, dass die geplante Roadmap komplett zunichte gemacht werden könnte, was Apple dazu zwingt, ganz von vorne anzufangen. Als Überbrückungslösung hat Apple einen Vertrag mit OpenAI unterzeichnet, um ChatGPT-Funktionen auf iPhones und Macs anzubieten und diese in Siri als Teil des Apple Intelligence-Stacks zu integrieren.

Obwohl ChatGPT erweiterte Sprach- und multimodale Funktionen wie Bildgenerierung und Dateianalyse bietet, fehlen Siri noch einige entscheidende Funktionen, die das Funktionserlebnis wirklich verbessern könnten. Es kann beispielsweise immer noch keinen Blick auf Benutzerdaten werfen und kontextbezogene Antworten bieten, noch ist es in der Lage, tiefgreifend mit installierten Anwendungen zu interagieren.

ChatGPT- und Siri-Integration auf dem iPhone.
Siri nutzt derzeit ChatGPT als Huckepack. Nadeem Sarwar / Digitale Trends

Gemini von Google, das jetzt nativ auf Android-Geräten der Spitzenklasse verfügbar ist, kann auf die in seinen Workspace-Produkten wie Gmail, Docs, Maps und sogar YouTube gespeicherten Daten zugreifen. Darüber hinaus kann es mithilfe eines Erweiterungssystems Sprachbefehle in umsetzbare Schritte für verschiedene Apps umwandeln, einschließlich Apps von Drittanbietern wie Spotify.

Apple hat den Zug eindeutig verpasst und die jüngsten Verzögerungen zeichnen kein besonders gutes Bild der Innovationssträhne des Unternehmens. An anderer Stelle macht es jedoch einige Fortschritte. Das Unternehmen hat kürzlicheine Partnerschaft mit Alibaba und Baidu in China geschlossen, um die Entwicklung von Apple Intelligence für den lokalen Markt zu beschleunigen.