Apple stellt Live Speech, Personal Voice und weitere Accessibility-Funktionen vor
Das Unternehmen aus Cupertino ist seit längerem bekannt dafür, auch ein besonderes Auge auf diejenigen Nutzern zu haben, welche mit Schwierigkeiten im Umgang mit technischen Geräten haben. Sei es mit sehr schlechter bis nicht vorhandener Sehkraft oder ohne Hörvermögen, in den "Bedienungshilfen" gibt es eine Vielzahl an Hilfsmitteln. Auch auf MacTechNews gibt es beispielsweise aktive Nutzer, die zwar blind sind, dennoch mit Mac und iPhone wunderbar zurechtkommen. Anlässlich des Welttags der Barrierefreiheit kommen mit den nun vorgestellten Funktionen viele nützliche Erweiterungen auf die verschiedenen Geräte des iPhone-Konzerns.
Live Speech und Personal Voice Zu den vorgestellten Neuerungen zählen unter anderem zwei wichtige Funktionen für Menschen mit eingeschränkten Sprachfähigkeiten und auch denjenigen, denen ein Sprachverlust bevorsteht. Live Speech schafft beispielsweise die Möglichkeit, bei Anrufen und Unterhaltungen zu tippen, um zu sprechen. Beliebte Phrase lassen sich speichern, um bei einer Diskussion nicht zu schnell abgehängt zu werden. Personal Voice wurde entwickelt, um eine synthetische Stimme zu erzeugen, die der eigenen sehr nahekommt. Hierzu wird ein Sprachprofil direkt auf dem Telefon erzeugt. Bei drohendem Stimmverlust bewahrt man somit einen Teil seiner Persönlichkeit. Beide Funktionen lassen sich zudem kombinieren, sodass persönliche Gespräche keine Probleme für Betroffene mehr darstellen. Verfügbar sind diese Funktionen zunächst für den englischen Sprachraum.
Quelle: Apple
Point and SpeakEine weitere nützliche Funktion für blinde oder sehbehinderte Personen ist der Erkennungsmodus innerhalb der Lupen-App. Deutet der Nutzer mit der Kamera des iPhones beispielsweise auf den Knopf am Geschirrspüler, erkennt der LiDAR-Sensor in Verbindung mit der Kamera und des maschinellen Lernens auf dem Gerät den dort vorhandenen Text. Eine Sprachausgabe folgt. Die Bedienung von Haushaltsgeräten kann somit für diesen Personenkreis enorm erleichtert oder gar erst erschlossen werden.
Assistive AccessDie Benutzeroberfläche aktueller Smartphones ist komplex – und viele Menschen sind damit überfordert. Daher bietet Apple noch in diesem Jahr "Assistive Access" an. Hier werden diverse, hauseigene Apps (Telefon, Nachrichten, Kamera, Fotos und Musik) auf die essentiellsten Bedienelemente reduziert, um die Oberflächen so zugänglich wie möglich zu machen:
Weitere Funktionen Außerdem können Gehörlose bald ihre Made-for-iPhone Geräte mit dem Mac koppeln und das Hörerlebnis dort anpassen. Zudem beinhaltet die Sprachsteuerung zukünftig phonetische Vorschläge, mit denen Nutzer, welche mit der Stimme tippen, aus ähnlich klingenden Optionen wählen können. Diese sind zunächst in Englisch, Spanisch, Französisch und Deutsch verfügbar. Viele weitere Neuerungen finden sich auf der entsprechenden News-Seite des Unternehmens (siehe
).
Verfügbarkeit der Funktionen- Personal Voice: iPhone, iPad und Mac mit Apple-Chips erstellt werden, vorerst nur Englisch
- Point and Speak: iPhone und iPad Geräten mit LiDAR-Scanner, Englisch, Französisch, Italienisch, Deutsch, Spanisch, Portugiesisch, Chinesisch, Kantonesisch, Koreanisch, Japanisch und Ukrainisch
- Die phonetischen Vorschläge der Sprachsteuerung: Englisch, Spanisch, Französisch und Deutsch Sessions in Gebärdensprache: USA und Kanada in Amerikanischer Gebärdensprache (ASL), in Großbritannien in Britischer Gebärdensprache (BSL), in Frankreich in Französischer Gebärdensprache (LSF), in Japan in Japanischer Gebärdensprache (JSL) und in Australien in Australischer Gebärdensprache (Auslan).
- Ab 18. Mai: In Deutschland mit der Deutschen Gebärdensprache (DGS), in Italien mit der Italienischen Gebärdensprache (LIS), in Spanien mit der Spanischen Gebärdensprache (LSE) und in Südkorea mit der Koreanischen Gebärdensprache (KSL)