Google entwickelt Touch-Screen für Menschen mit Sehbehinderung
Der durchschnittliche Anwender macht sich wenig Gedanken darüber, wie wohl ein Mensch mit Sehbehinderung ein Touch-Screen steuern könnte. Google-Ingenieur T.V. Raman, der selbst blind ist, hat sich diesem Problem zusammen mit Charles Chen, der sehen kann, angenommen. Sie haben das Eyes-Free-Projekt gestartet und eine erstaunliche intuitive Lösung entwickelt, ein Touch-Screen-Gerät für Menschen mit Sehbehinderung zugänglich zu machen. Dabei erscheinen die Touch-Screen-Buttons nicht mehr in Relation zum Bildschirm und damit zum Gerät, sondern in Relation zu Berührung. So erscheint beispielsweise
ein Nummernfeld zum Wählen einer Telefonnummer bei Berührung zentriert unter dem Finger, so dass der Finger automatisch zunächst über der Fünf liegt. Anschließend muss der Finger in eine der möglich Richtungen bewegt werden, um eine andere Taste zu erreichen. Nimmt der Anwender den Finger vom Display, wird der Tastendruck ausgelöst. Bewegt der Anwender den Finger über den Display-Rand hinaus, wird der Eingabevorgang abgebrochen. Neben dieser Wählfunktion namens "Talking Dialer" haben Raman und Chen noch drei weitere Funktionen entwickelt. "Knowing Your Location" erklärt die aktuelle Position mittels Google-Maps, mit Richtungsangabe und einer Aufzählung der umgehenden Straßen. "Device State" gibt Informationen über den Gerätezustand preis und nennt unteranderem den Batterie-Status, Signal-Stärke und mögliche Wireless-LAN-Netzwerke. Schließlich gibt es mit "Date And Time" noch eine Funktion, um sich das aktuelle Datum und Uhrzeit ansagen zu lassen. Noch sind diese Funktionen nicht ausgereift, sollen aber nach abgeschlossener Entwicklung ihren Weg in die iPhone-Konkurrenz-Plattform Android finden. Die veröffentlichten Videos auf YouTube geben bis dahin bereits einen ersten Vorgeschmack auf die Möglichkeiten.
Weiterführende Links: