Bald können Sie Ihr iPhone und iPad mit Ihren Augen steuern
Apple hat eine Reihe neuer Barrierefreiheitsfunktionen angekündigt , die noch in diesem Jahr für iPhone- und iPad-Besitzer verfügbar sein werden. Besonders hervorzuheben ist die Möglichkeit, mithilfe von Augenbewegungen mit iOS- und iPadOS-Schnittstellen zu interagieren, was bei einem ähnlichen System auf Mac-Hardware der Fall ist.
Das Unternehmen nennt es Eye Tracking und es ist ein System, das auf den Grundlagen von Dwell Control aufbaut. Bisher war Dwell Control als Teil der Barrierefreiheitstastatur unter macOS verfügbar und ermöglichte es Benutzern, Mausaktionen mithilfe von Augen- und Kopfgesten auszuführen.
Auf dem iPhone und iPad benötigt Eye Tracking lediglich wenige Sekunden zur Kalibrierung und funktioniert über die Frontkamera. Sobald es aktiviert ist, können Benutzer mit körperlichen Behinderungen Wisch- und Tastengesten mit ihren Augenbewegungen ausführen.
Verweilaktionen sind auch für das Vision Pro-Headset verfügbar. Auf dem teuren XR-Gerät sind sie als Teil des Assistive Touch-Systems in den Barrierefreiheitseinstellungen gebündelt. Auf Mac-Computern ermöglichen Augen- und Kopfgesten Mausklick, Drag & Drop und andere zentrale Gesten zur Steuerung der Benutzeroberfläche.
Für Benutzer mit Hörproblemen fügt Apple auf iPhones eine Funktion namens Music Haptics hinzu. Sobald die Taptic Engine im iPhone aktiviert ist, erzeugt sie synchron zur Musikwiedergabe Vibrationen mithilfe einer Mischung aus rhythmischen Klopfbewegungen, sanften Vibrationen und Texturen.
Diese Funktion wurde bereits für die Millionen Songs in der Apple Music-Bibliothek zertifiziert. Entwickler können außerdem die Anwendungsprogrammierschnittstellen (APIs) nutzen, um vibrationsbasiertes Feedback zur Barrierefreiheit zu ermöglichen und so ihre Apps integrativer und funktional lohnender für Menschen mit Hörproblemen zu gestalten.
Für Menschen mit Sprachschwierigkeiten fügt Apple seinen Telefonen und Tablets einige neue Funktionen hinzu. Das erste ist Atypical Speech, das auf maschinellem Lernen basiert, um die einzigartige Sprachsignatur einer Person zu identifizieren, damit diese mithilfe von Sprachbefehlen Aufgaben ausführen kann.
Als nächstes kommt Vocal Shortcuts. Damit können Benutzer benutzerdefinierte Audiohinweise aufzeichnen und diese dann als Verknüpfungen für verschiedene Aufgaben auf dem Gerät zuweisen, die ein- oder mehrstufiger Natur sein können. Laut Apple wurden diese Funktionen „für Benutzer mit erworbenen oder fortschreitenden Erkrankungen entwickelt, die die Sprache beeinträchtigen, wie z. B. Zerebralparese, Amyotrophe Lateralsklerose (ALS) oder Schlaganfall.“
Eine weitere verwandte kommende Funktion ist Personal Voice. Menschen, denen es schwerfällt, lange Sätze zu sagen oder zu lesen, können mit kürzeren Sätzen eine persönliche Stimme erstellen.
Apple hat außerdem eine Wellness-Funktion entwickelt, die Reisekrankheit bei Situationen im Fahrzeug berücksichtigt. Die betreffende Funktion heißt Vehicle Motion Cues und zeigt nach der Aktivierung animierte Punkte auf dem Bildschirm an, die dynamisch an der Richtungsbewegung eines Fahrzeugs ausgerichtet sind. Die Idee besteht darin, sensorische Konflikte zu reduzieren und den Benutzern das Lesen von Bildschirminhalten zu erleichtern.