Apple kündigt erste Funktionen für iOS 18 an – unter anderem Augenbedienung des iPhones
Es gibt eine ganze Reihe an Hilfsmitteln im System, um Funktionen sowie allgemeine Bedienung auch solchen Menschen zur Verfügung zu stellen, die mit bestimmten körperlichen Einschränkungen zu kämpfen haben. Die Liste wuchs über die Jahre erheblich an und enthält neben Voice Over oder bestimmten Grafikoptionen zudem vielfältige Angebote, die mitunter für alle Nutzer interessant sein können. Zu finden sind besagte Settings in den "Bedienungshilfen" der Systemeinstellungen. In einer
Pressemitteilung kündigte Apple jetzt an, ab Herbst noch weitere große Schritte gehen zu wollen.
iPhone und iPad nur mit den Augen bedienenOhne iOS 18 namentlich zu erwähnen, wird ein "kommendes System" unter anderem Augensteuerung mitbringen. Durch Erfassung der Augen soll es möglich werden, ein iPhone oder iPad per Blickkontakt zu bedienen. Hierzu kommt die normale Front-Kamera zum Einsatz, welche innerhalb weniger Sekunden für den neuen Einsatzbereich zu kalibrieren sein soll. Die Berechnung der Daten erfolgt ausschließlich lokal auf dem Device, wie Apple betont. Leider geht aus der Ankündigung nicht hervor, ob das Feature für alle iPhones und iPads zur Verfügung steht, die iOS 18 bzw. iPadOS 18 unterstützen – denn ansonsten wäre jetzt bereits die Kompatibilitätsliste bekannt.
Musik spüren, wenn man sie nicht hörtEine andere Funktion bezeichnet Apple als "Music Haptics". Grob umrissen will Apple damit Musik auch solchen Nutzern zur Verfügung stellen, die nicht oder kaum Musik "hören" können. Die Taptic Engine des iPhones sorgt dafür, den kompletten Musikkatalog von Apple Music als Vibrations-Version auszugeben. Eine spezielle API ermöglicht es Entwicklern, ebenfalls auf die Technologie zu setzen.
Weitere BedienungshilfenSolchen Passagieren, denen es im Auto bei der Nutzung eines Smartphones schlecht wird, stellt Apple mit iOS 18 die "Vehicle Motion Cues" zur Verfügung. Übelkeit entsteht meist dann, wenn es eine Diskrepanz aus gespürter und visuell wahrgenommener Beschleunigung gibt. Ein animiertes Punktemuster auf dem Display setzt die Bewegung jedoch direkt um – womit Apple Forschungsergebnisse in die Tat umsetzt. Unter visionOS halten bald hingegen "Live Captions" Einzug, welche gesprochenes Wort direkt im Sichtbereich anzeigen. Spezielle Neuerungen für macOS nennt Apple indes nicht.