ARKit 1.5: So sollen AR-Apps besser werden
Die Beta von iOS 11.3 liefert einige neue Features, darunter die auf Version 1.5 aktualisierte Augmented-Reality-Schnittstelle ARKit. Das AR-Update enthält einige Verbesserungen. Zu den wichtigsten Erweiterungen zählen die Erkennung von vertikalen Flächen und die Optimierung des Zusammenspiels mit unregelmäßig geformten Ebenen wie runden Tischen.
Dazu passend hat Apple die
Richtlinien, an denen sich die Benutzeroberfläche von iPhone- oder iPad-Apps während der ARKit-Nutzung orientiert, auf den neuesten Stand gebracht.
Offscreen-Objekte leichter findenApple weist Entwickler darauf hin, Nutzer besser auf die Position von virtuellen und für die jeweilige App relevanten Objekten aufmerksam zu machen, die sich außerhalb des aktuell angezeigten Bereichs der Benutzeroberfläche befinden. Dazu sollen akustische oder visuelle Indikatoren wie Pfeile verwendet werden, die Anwendern den richtigen Weg vorgeben.
Aus realen Objekten virtuelle Elemente herleitenDas Unternehmen beschreibt zudem, wie Entwickler virtuelle AR-Elemente besser präsentieren können. Gut geeignet dazu sind reale Objekte, über die AR-Inhalte erscheinen. Im Eingangsbereich eines Geschäfts könnte die App beispielsweise Poster erkennen, die an der Wand hängen, und daran orientiert einen virtuellen Assistenten erscheinen lassen, der den Kunden bei Einkaufsfragen berät. Oder die AR-Software nimmt das Plakat eines Science-Fiction-Films wahr und lässt darauf virtuelle Raumschiffe erscheinen, die von der Posteroberfläche aus starten und im Raum herumfliegen.
Zusätzlich zu den Richtlinien gibt Apple auch Hinweise dazu, wie sich Probleme vermeiden lassen. ARKit liefert zum Beispiel die beste Leistung, wenn die jeweilige Anwendung in der Umgebung nach maximal 25 verschiedenen Fixpunkten sucht. Entwickler sollen es zudem vermeiden, Nutzer wegen einfacher Aufgaben – wie den Farbwechsel eines Sofabezugs – aus der aktuellen AR-Oberfläche zu einem anderen Bereich der Benutzeroberfläche weiterzuleiten.