Apple bietet bereits seit Jahren ein umfangreiches Paket an Bedienungshilfen für seine Geräte an: Die Funktion «Voice Over» etwa ermöglicht blinden Menschen die Bedienung des Touchscreens auf iPhone oder iPad, eine integrierte Geräuscherkennung meldet Menschen mit Höreinschränkungen per Displayanzeige automatisch, wenn bestimmte Geräusche erkannt werden – etwa ein Alarm, die Türklingel, laufendes Wasser oder ein weinendes Baby. Die Liste der gebotenen Bedienungshilfen ist sehr lang.
Jetzt hat Apple einige neue Funktionen vorgestellt, die die Bedienung der Geräte erleichtern oder iPhone und iPad zum aktiven Hilfsmittel machen sollen. Einige der Funktionen können überdies auch für einen grossen Teil der restlichen User hilfreich sein. Die spannendsten Neuerungen im Überblick.
Neu ist etwa die Türerkennung. Hier richten Nutzer die iPhone-Kamera auf ihre Umgebung. Das Handy erkennt automatisch Türen, liest per Sprachausgabe vor, was auf oder neben der Tür steht, sagt ob die Tür offen oder geschlossen ist und ob ein Türknauf, eine Klinke oder ein Griff zum Drücken vorhanden sind. Ausserdem soll die Funktion den Nutzer auch präzise zur Tür navigieren können.
Die Türerkennung wird bereits vorhandene Funktionen ergänzen, wie Personenerkennung oder Bildbeschreibung. Ist die Screen-Reader-Funktion Voice Over aktiviert, bietet Apple Karten etwa auch akustisches und haptisches Feedback um den Startpunkt für eine Navigation zu finden.
Our teams merged technologies like our advanced camera system, LiDAR Scanner, and machine learning to create accessibility features like Door Detection. We hope these powerful new features will make a difference in the lives of people with disabilities. pic.twitter.com/EEy590eK06
— Greg Joswiak (@gregjoz) May 17, 2022
Die Funktion «Assistive Touch» erlaubt es schon länger, bestimmte Bedienungsgesten – etwa das Aufrufen des Kontrollzentrums, das Wechseln von Apps oder auch das Einstellen der Lautstärke, über einen besonderen Touch-Knopf zu steuern, der beliebig auf dem Bildschirm platziert werden kann. Auch Mehrfingergesten, die für manche Menschen nicht oder nur schwer umzusetzen sind, lassen sich so mit nur einem Finger meistern.
Als Erweiterung bietet Apple für Träger einer Apple Watch auch einfache Handgesten, über die bestimmte Funktionen gesteuert werden können. Durch das zweimalige Zusammendrücken der Finger oder das Ballen einer Faust kann dann ein Anruf angenommen oder beendet, ein Foto aufgenommen oder das Abspielen eines Inhalts gestartet werden.
Die Apple Watch selbst liess sich bislang aber nicht vereinfacht steuern. Bald kann die Uhr aber komplett auf das iPhone gespiegelt werden und dort dann per Sprach- oder Schaltersteuerung oder via Headtracking bedient werden.
Für gehörlose oder schwerhörige Menschen ist die Nutzung vieler typischer Smartphone- und Desktopanwendungen unmöglich oder nur sehr schwer umsetzbar, da dort Informationen per gesprochener Sprache übermittelt werden. Noch im Laufe dieses Jahres will Apple deshalb App-übergreifend automatische Live-Untertitel für iPhone, iPad und Mac einführen.
Ein Telefonat wird dann automatisch untertitelt, ein Facetime-Anruf ebenso. Bei einem Gruppen-Anruf auf Facetime sollen die Untertitel automatisch dem jeweiligen Sprecher zugeordnet werden.
Das klappt genauso auch für Social Media Inhalte oder auch ein Gespräch, das man mit einer Person am selben Tisch im Café führt. Wer Live-Untertitel auf dem Mac bei einem Anruf verwendet, kann seine Antworten direkt eintippen, sie werden dann für den Gesprächsteilnehmer vom Mac laut vorgelesen.
Darüber hinaus hat Apple noch einige kleinere Anpassungen angekündigt:
Die neuen Funktionen stehen aktuell noch nicht zur Verfügung, werden im Laufe des Jahres aber nach und nach durch Updates für alle Plattformen zur Verfügung gestellt, verspricht Apple.
(t-online)