Apple kündigt brandneue Eingabehilfen für seine Produkte an
Apple ist seit Jahren sehr gut darin, Eingabehilfen in seine Technologie zu integrieren – sei es der VoiceOver-Bildschirmleser oder FaceTime, mit dem Benutzer mit Hör- oder Sprachschwierigkeiten ein Werkzeug für die nonverbale Kommunikation mit Gebärdensprache und Gesichtsausdruck erhalten.
Am Mittwoch baute Apple dieses wichtige Erbe weiter aus und kündigte eine Reihe neuer Barrierefreiheitsfunktionen für seine Produkte an.
Einführung in SignTime
Die erste davon, die am Donnerstag, dem 20. Mai, veröffentlicht werden soll, ist eine neue Funktion namens SignTime. Es wurde entwickelt, um Kunden beim Chatten mit AppleCare und der Kundenbetreuung im Einzelhandel zu unterstützen, indem die amerikanische Gebärdensprache (ASL) in den USA, die britische Gebärdensprache (BSL) in Großbritannien oder die französische Gebärdensprache (LSF) in Frankreich verwendet werden. Dies kann direkt über den Webbrowser auf Apple-Geräten erfolgen.
Kunden, die Apple Store-Standorte besuchen, können auch remote auf Gebärdensprachdolmetscher zugreifen, um ihr Einkaufserlebnis zu verbessern. Während die Funktion zunächst nur in den USA, Großbritannien und Frankreich verfügbar sein wird, wird sie laut Apple in Zukunft auf andere Märkte ausgeweitet.
In einer Pressemitteilung von Apple sagte Sarah Herrlinger, Senior Director für Global Accessibility Policy and Initiatives bei Apple:
"Wir bei Apple sind seit langem der Meinung, dass die weltweit beste Technologie auf die Bedürfnisse aller reagieren sollte, und unsere Teams arbeiten unermüdlich daran, die Zugänglichkeit für alles, was wir herstellen, zu verbessern. Mit diesen neuen Funktionen erweitern wir die Grenzen der Innovation mit der nächsten Generation." Technologien, die noch mehr Menschen den Spaß und die Funktion der Apple-Technologie bieten – und wir können es kaum erwarten, sie mit unseren Benutzern zu teilen. "
AssistiveTouch, Eye-Tracking und darüber hinaus
Eine weitere neue Apple-Funktion heißt AssistiveTouch. AssistiveTouch wurde für watchOS entwickelt und nutzt die integrierten Sensoren der Apple Watch sowie ein wenig Magie des maschinellen Lernens, um Benutzern mit Gliedmaßenunterschieden die Möglichkeit zu geben, mit Handgesten auf einem Cursor zu navigieren. Dies kann unter anderem auch zur Beantwortung eingehender Anrufe verwendet werden.
Darüber hinaus gibt es eine Eye-Tracking-Unterstützung für das iPad, mit der Benutzer ihre Tablets mit Eye-Tracking-Geräten von Drittanbietern steuern können. Diese verbesserte VoiceOver-Funktion kann den Inhalt von Bildern beschreiben, unterstützt bidirektionale Hörgeräte auf dem iPhone und bietet neue Memoji-Anpassungen repräsentieren Benutzer mit "Sauerstoffschläuchen, Cochlea-Implantaten und einem weichen Helm für Kopfbedeckungen" und mehr. Diese werden in den kommenden Software-Updates eingeführt.
Eine weitere beliebte Funktion ist eine neue Hintergrundsound-Funktion, die weißes Rauschen liefert, damit Benutzer konzentriert, ruhig oder ausgeruht bleiben können. Dazu gehören Meeres-, Regen- oder Stromgeräusche sowie "ausgeglichenes, helles oder dunkles Rauschen". Apple stellt fest, dass die Funktion zur "Unterstützung der Neurodiversität" entwickelt wurde.