Apples Pläne für eine Weiterentwicklung von Siri werden immer weiter in die Zukunft geschoben

Die größte Erkenntnis aus Apples aufsehenerregendem WWDC-Event Anfang dieses Jahres war die nächste Weiterentwicklung von Siri im Zeitalter der KI. Leider sind viele dieser vielversprechenden Upgrades noch nicht für die breite Masse verfügbar, und was bereits verfügbar ist, ist nicht wirklich bahnbrechend.

Der Weg, der vor uns liegt, sieht nicht allzu düster aus, auch wenn die Erlösung noch in weiter Ferne scheint.

Laut Bloomberg arbeitet Apple intern an LLM Siri, das auf einem fortschrittlichen KI-Stack basiert, der es dem Assistenten ermöglicht, hin und her Gespräche zu führen und komplexere Anfragen zu bearbeiten.

LLM, die Abkürzung für Large Language Model, ist die geheime Zutat, die Konversationsprodukte wie ChatGPT von OpenAI und Gemini von Google antreibt. Apples Absicht mit LLM Siri geht nicht zu weit, da das Unternehmen möchte, dass es sich in etwa genauso verhält wie Gemini.

Rufen Sie Siri auf dem Sperrbildschirm des iPhone auf.
Nadeem Sarwar / Digitale Trends

„Das überarbeitete Siri wird sich auf neue Apple-KI-Modelle verlassen, um mehr wie ein Mensch zu interagieren“, heißt es in dem Bericht und fügt hinzu, dass eine Ankündigung irgendwann im Jahr 2025 erfolgen wird, gefolgt von einer Veröffentlichung im Frühjahr 2026.

Nun, das reicht nicht, um mit der Konkurrenz mitzuhalten. Sie können diese Vorteile bereits in großem Umfang auf iPhones erleben. Die Siri-ChatGPT-Integration, die jetzt für iOS-Testversionen verfügbar ist, kann dies ermöglichen.

Google hat kürzlich die eigenständige Gemini-App für iPhones veröffentlicht, die auch den Gemini Live-Konversationsmodus auf Apple-Smartphones bringt. Das wirft eine wichtige Frage auf: Warum über ein Jahr warten, wenn Konkurrenzprodukte diesen Komfort bereits bieten?

Erwähnenswert ist hier auch, dass Apple im Rahmen des Apple Intelligence-Bundles offiziell die Unterstützung weiterer Sprachmodelle von Drittanbietern wie ChatGPT hinzufügen wird. Laut Bloomberg steht die Gemini-Integration von Google bereits in der Warteschlange.

ChatGPT- und Siri-Integration auf dem iPhone.
Nadeem Sarwar / Digitale Trends

Zum jetzigen Zeitpunkt sind die Versuche von Apple, mit der Konkurrenz der virtuellen Assistenten gleichzuziehen, erschreckend schleppend. Google hat Gemini bereits viele Aufgaben des Google Assistant übertragen, und die Integration mit Tools wie Gmail und Docs ist bereits recht lohnend.

OpenAI hat außerdem die ChatGPT-Suche eingeführt , die es Benutzern einfacher macht, Informationen im Web zu finden, allerdings auf viel gesprächigere Weise als die Google-Suche. Aber das ist noch nicht alles. Der nächste Schritt für das von Microsoft unterstützte Unternehmen ist ein Webbrowser . Perplexity hat außerdem eigene Such- und Shopping-Produkte auf den Markt gebracht .

Das bemerkenswerteste Upgrade für LLM Siri wird angeblich seine Fähigkeit sein, mit Apps zu interagieren. „Außerdem wird es einen erweiterten Einsatz von App Intents geben, die eine präzisere Steuerung von Drittanbieter-Apps ermöglichen“, heißt es im Bloomberg-Bericht.

Gemini Live auf einem iPhone.
Gemini Live auf einem iPhone 16 Pro. Nadeem Sarwar / Digitale Trends

Siri Aufgaben über verschiedene Apps hinweg ausführen zu lassen, ist aus Benutzersicht seit langem der Mondstoß. Diese Zukunft scheint nun unmittelbar bevorzustehen, obwohl sie noch über ein Jahr entfernt ist. Aber auch hier wird Apple nicht der Einzelkämpfer sein.

Android Authority berichtet, dass Gemini in Android 16 (für das es bereits eine Entwicklervorschau gibt) die Möglichkeit erhalten könnte, Aufgaben über Drittanbieter-Apps hinweg auszuführen. Bisher beschränkten sich die Aktivitäten von Gemini unter anderem auf Workspace-Tools wie Gmail, Docs und Calendar.

Es scheint, dass Apple mit seinen Plänen für LLM Siri definitiv die richtigen Fortschritte macht. Aber bis all diese Prophezeiungen wahr werden, wird die Konkurrenz mit einer nachgewiesenen Erfolgsbilanz solider Konversations-KI-Kenntnisse weit vorne liegen.