Per Rückseite bedienen und VoiceOver vorlesen

Wie Apple einen "Knopf" erfand, um zwei andere zu ersetzen

03.12.2020
Von 
Halyna Kubiv ist Content Managerin bei der Macwelt.
Nach dem Welt-AIDS-Tag am Dienstag begeht Apple heute den Internationalen Tag der Menschen mit Behinderungen.

Mit dem Start von iOS 14 im September hat sich eine besondere Funktion zu DEM Geheimtipp bei den Nutzern entwickelt: In den Einstellungen kann man nun einrichten, dass das iPhone auf ein Doppelt- oder Dreifachtippen der Rückseite reagiert und eine bestimmte Aufgabe erfüllt. Wie dies genau funktioniert, haben wir hier beschrieben. Um die Funktion zu erreichen, wechselt man in den allgemeinen Einstellungen zu den "Bedienungshilfen".

Voice Over vorlesen
Voice Over vorlesen
Foto: Apple

Das Team bei Apple, das sich um die Funktionen für die Menschen mit Behinderungen kümmert, wurde wohl in diesem Herbst zum heimlichen Star in den Social Media. Die Rückseitetipp-Funktion ist nicht umsonst in dem Accessibility-Team bei Apple entstanden, damit wollte der Hersteller kompensieren, was man einer bestimmten Zielgruppe der Nutzer genommen hat, nämlich den Home-Button.

Wir erinnern uns an das Jahr 2017: Mit dem iPhone X wurde die Bedienung des iPhones etwas anders, der Wisch nach oben hat den Home-Button in den meisten Fällen ersetzt, nur bei den Screenshots musste man sich umstellen. Statt Home- und Power-Button zu drücken, muss man nun Lauter/Leiser- und Einschaltknopf betätigen. Die neue Methode hatte jedoch die Menschen mit motorischen Einschränkungen benachteiligt, die Zielgruppe tat sich deutlich schwieriger mit dem gleichzeitigen Drücken der beiden Seiten des iPhone.

Der Doppel- oder Dreifachtipp auf der Rückseite war eigentlich eine Idee, die Screenshots für Menschen mit bestimmten Behinderungen leichter zu machen, die Verknüpfung mit Siri-Kurzbefehlen brachte einen Mehrwert für alle Nutzer. Im Hintergrund ist vor allem der Beschleunigungssensor eines iPhones dafür zuständig, die Erschütterungen des Geräts wahrzunehmen, die Algorithmen des maschinellen Lernens tun das Übrige: Offenbar ist das Bewegungsmuster beim Doppeltippen so markant, dass die Software leicht den bewussten Befehl des Nutzers von einer zufälligen Bewegung unterscheiden kann. Je mehr man die Funktion nutzt, desto genauer wird sie.

iPhones Lupe mit Lidar wird zum virtuellen Auge

Die aktualisierten Bedienungshilfen von iOS 14 bieten noch deutlich mehr, Apple hat extra dafür eine Webseite mit den relevanten Informationen zusammen gestellt. Leider geraten nur die wenigen davon an die Oberfläche des allgemeinen Publikumsinteresses, obwohl sich manche Funktionen selbst 2020 wie Science Fiction lesen. Das beste Beispiel dafür ist die Personenerkennung der Lupen-Funktion auf dem iPhone 12 (Pro und Pro Max). Kurz um: Das Smartphone kann nicht nur die Personen in der näheren Umgebung erkennen und den Abstand zu ihnen messen, mit der aktuellen Version von iOS 14 ist es möglich, per VoiceOver sich die gesamte Umgebung beschreiben zu lassen. Um dies zu bewerkstelligen, waren mehrere neue und alte Bausteine aus Apples Entwickler-Kiste notwendig.

Die Idee entstand auf Anfrage sehbehinderter Nutzer, Hilfe bei Alltagssituationen wie in der Schlange beim Einkaufen zu bekommen. Sich gegen einen Bordstein mit dem Stock zu orientieren, ist kein großes Problem, bei den Mitmenschen stößt diese Orientierungshilfe an ihre Grenzen. Apples ARKit konnte schon seit iOS 12 die Abstände messen, die App "Maßband" kann man sich aus dem App Store seitdem laden. Der Lidar-Sensor im iPad Pro und in iPhone 12 Pro (Max) stellt diese virtuelle Messung auf ein neues Niveau: Abstände von null bis vier Metern sind messbar, auch Personen in Bewegung werden erfasst.

Und woher weiß die Software, dass es sich um Menschen handelt? Die Lösung dieses Problems lieferten höchstwahrscheinlich die Spiele- bzw. AR-Entwickler bei Apple: Bereits mit iOS 13 und ARKit 3 wurde die sogenannte People Occlusion vorgestellt, die Einschließung einer realen Person in die virtuelle Realität. Eine der lustigsten Illustrationen dafür liefert übrigens Clips, die Video-App von Apple, dort kann man sich in eine virtuelle Welt versetzen, beispielsweise in einen Western.

Mit iOS 14 hat Apple seinem Bilderkennungs-Algorithmus ein weiteres Update spendiert, das System kann nun Bilder in kohärenten Sätzen beschreiben. Momentan funktioniert dies auf Englisch, die Erkennung findet jedoch auf dem Gerät statt. Dafür muss man einige Dateien auf das iPhone laden, die Funktion aktiviert man in den Einstellungen -> Bedienungshilfen -> Voice Over -> VoiceOver-Erkennung -> Bildbeschreibungen.

Die Lupe, mit der sich auf dem iPhone 12 die Personenerkennung einschalten lässt, kann man ebenfalls in dem Bereich "Bedienungshilfen" aktivieren. Die Funktion ist ebenfalls über das Kontrollzentrum zu erreichen. Das iPhone kann den Nutzern über sich nähernde oder entfernende Personen nicht nur per Sprachausgabe warnen, möglich sind auch Vibrationsmuster und ein Piepton. Der Nutzer kann in der App ebenfalls einen Radius festlegen, ab welchem das Gerät warnen soll, wenn jemand diese Grenze überschreitet – besonders in Zeiten von Sozialdistanz eine nützliche Funktion.

Apples Mission, Geräte für alle zu erstellen

Das sind nur zwei von vielen Funktionen, die Apple für Menschen mit Behinderungen zur Verfügung stellt. Deutlich mehr sind auf der neuen Seite zu finden, die die Features nach den Einsatzbereichen gliedert. Denn was sich für einen Otto Normalverbraucher als eine Nichtigkeit darstellt, kann einen behinderten Menschen vor ein Problem stellen.

Dave Steele, auch als "The Blind Poet" bekannt, hat dies trefflich zusammengefasst: "Personenerkennung und andere Bedienungshilfen auf dem iPhone 12 Pro sind eine große Hilfe für mich und andere in der Blinden-Community. Einhalten von Distanz in Zeiten von Covid-19 und die Orientierung in manchen Orten sind für die meisten eine Selbstverständlichkeit, für uns würde dies eine Unsicherheit bedeuten, die diese Geräte uns nehmen." (Macwelt)