Apples am meisten unterschätzte App könnte sich bald ändern, und Sie werden es lieben
Apples Kurzbefehle-App ist der Traum eines jeden Power-Users . Ich halte sie für eine der am meisten unterschätzten Funktionen auf iPhones und sogar Macs. Falls ihr sie noch nicht nutzt: Sie ermöglicht es euch, mehrstufige Aufgaben in einem Rutsch auszuführen oder sogar bestimmte Aktionen automatisch auszulösen. Einer meiner Lieblingskurzbefehle ist die sofortige Generierung eines QR-Codes für ein WLAN-Netzwerk, anstatt ein komplexes Passwort einzugeben.
Ich habe noch ein weiteres Programm, das Screenshots nach 30 Tagen automatisch löscht. In meiner Bibliothek gibt es einige, die den „Nicht stören“-Modus für eine bestimmte Zeit aktivieren, jede Webseite in ein PDF umwandeln, sogar Mac-Fenster einrasten lassen und meine Smart-Geräte aktivieren, wenn ich nach Hause komme.
Das klingt zwar praktisch, aber die Erstellung dieser Verknüpfungen ist kein Kinderspiel. Der UI-Flow und die Aktionsvorgaben können technisch versierte Benutzer überfordern, wenn es darum geht, eigene Automatisierungen zu erstellen. Apple könnte dank KI eine benutzerfreundliche Lösung anbieten, die Sie vielleicht noch dieses Jahr erhalten.
Apple hat die Grundlage bereit
Laut Bloomberg bereitet Apple eine aktualisierte Version der Shortcuts-App vor, die KI einbezieht. „Mit der neuen Version können Nutzer diese Aktionen mithilfe von Apple Intelligence-Modellen erstellen“, heißt es in dem Bericht.
Die KI-Modelle könnten von Apple selbst stammen und eignen sich daher besser für die Integration mit Systemtools und Apps als KI-Modelle von Drittanbietern. Ein Beispiel hierfür ist die Siri-ChatGPT-Integration.
Der Chatbot von OpenAI kann eine Vielzahl von Aufgaben erledigen, die Siri nicht erledigen kann. ChatGPT kann jedoch nicht mit anderen Apps und Systemtools auf Ihrem iPhone interagieren. Das bedeutet, dass er Sie auch nicht beim Erstellen appübergreifender Verknüpfungen unterstützen kann.
Gerüchten zufolge will Apple auf der WWDC 2025 seine eigenen KI-Modelle vorstellen und diese auch für App-Entwickler zugänglich machen. Die Idee dahinter ist, dass Entwickler KI-basierte Funktionen nativ in ihre Apps integrieren können, ohne sich um Sicherheitsbedenken sorgen zu müssen.
Microsoft nutzt bereits eigene KI-Modelle für eine Vielzahl von Copilot-Erlebnissen auf Windows-PCs. Darüber hinaus bietet das Unternehmen Entwicklern seine Phi-Familie offener KI-Modelle für die Entwicklung von App-Erlebnissen an.
Apple muss nur in die Fußstapfen von Microsoft treten. Wenn Entwickler Apples KI-Grundlagen übernehmen und das Unternehmen diese auf die Shortcuts-App ausweitet, wäre es deutlich einfacher, mehrstufige Workflows zu erstellen. Wie das geht? Schauen Sie sich einfach Gemini auf Android-Smartphones an.
Shortcuts braucht eine KI-Überarbeitung
Stellen Sie sich vor, Sie erzählen Siri einfach einen Arbeitsablauf, und dieser wird zu einer Verknüpfung. KI-Tools sind im Großen und Ganzen bereits dazu in der Lage. Doch anstatt eine Regel für die Zukunft zu erstellen, führen sie die anstehende Aufgabe sofort aus. Mit KI in Verknüpfungen sollte es so ablaufen:
„Hey Siri, erstelle eine Kurzbefehl-Funktion, die automatisch auf alle Nachrichten antwortet, die ich am Wochenende bezüglich meiner Abwesenheit erhalte, und sag ihnen, dass sie mich am Montag wieder erreichen sollen. Löse die Aktion aus, wenn ich „ Ich bin nicht da“ sage.“
Mit natürlicher Sprachverarbeitung auf KI-Modellen ist das möglich. Sehen Sie sich an, wie Gemini auf Android-Geräten funktioniert, insbesondere auf Geräten mit integrierter Gemini Nano-Verarbeitung. Per Sprachbefehl kann Gemini auf Ihre Arbeitsbereichsdaten zugreifen und Aufgaben in Gmail, Docs und anderen verbundenen Apps erledigen.
Es unterstützt sogar Workflows über Drittanbieter-Apps wie WhatsApp und Spotify. Die Liste wächst ständig, und mit der Einführung von Funktionen wie Project Mariner und Astra über Gemini Live eröffnen sich neue Möglichkeiten.
Mit einer überarbeiteten Shortcuts-App muss Apple lediglich die Sprachverarbeitung optimieren und die Eingabeaufforderungen in umsetzbare Befehle umwandeln. Apples Partner OpenAI bietet bereits eine Funktion namens Operator an , die Aufgaben im Web autonom erledigen kann.
Das Erstellen einer Befehlskette für lokal ausgeführte mobile Apps sollte im Vergleich zum Surfen auf Websites einfacher und weniger riskant sein. Da die Sprachkompetenz von ChatGPT bereits in Apple Intelligence integriert ist, wäre ich nicht überrascht, wenn die Shortcuts-App der nächsten Generation diese voll ausschöpft.
Oh hey, hier ist ein Beispiel
Apropos ChatGPT und dessen Integration in iOS: Es gibt bereits ein Open-Source-Projekt, das eine grobe Vorstellung davon vermittelt, wie Sprachbefehle auf einem iPhone in Aktionen umgewandelt werden. Rounak Jain, iOS-Ingenieur bei OpenAI, hat einen KI-Agenten entwickelt, der Audioanweisungen auf einem iPhone in Aktionen umwandelt.
Jain sagt, das Demo-Video basiere auf dem GPT-4.1-KI-Modell von OpenAI und könne mit einem einzigen Sprachbefehl Aufgaben in mehreren Apps erledigen. So könne man beispielsweise die Taschenlampe steuern, indem man das Kontrollzentrum nach unten wischt, ein Bild anklickt und an einen seiner Kontakte sendet oder Reisedetails per SMS sendet und ein Taxi bestellt.
Jains Demo ist ein klares Zeichen dafür, dass die Integration eines KI-Modells auf Systemebene oder die Ausführung von Aufgaben über verschiedene Apps hinweg möglich ist. Eine ähnliche Pipeline kann integriert werden, um diese Sprachbefehle in Verknüpfungen umzuwandeln, anstatt sie sofort auszuführen.
Ich hoffe nur, dass Apple, wenn es KI in Shortcuts implementiert und Benutzern ermöglicht, ihre eigenen Routinen mit natürlichen Sprachbefehlen zu erstellen, einen Ablauf bietet, bei dem Benutzer die Flexibilität haben, diese nach Belieben zu ändern.
Ich glaube, der beste Ansatz wäre, den Benutzern die Befehlskette anzuzeigen und sie Anpassungen vornehmen zu lassen, bevor die Eingabeaufforderung in eine Verknüpfung umgewandelt wird.
