Neues Apple-Patent: Wie Finger auf AR-Ebenen noch genauer erkannt werden
Augmented-Reality-Anwendungen spielen für Apple seit der Vorstellung von ARKit (als Bestandteil von iOS 11) eine große Rolle. Seit der Präsentation hat das Unternehmen die Schnittstelle stetig weiterentwickelt und um einige Features erweitert. In Zukunft soll das Zusammenspiel zwischen AR-Objekten und tatsächlich vorhandenen Gegenständen weiter optimiert werden, sodass Nutzer mit beiden Arten von Objekten gemeinsam interagieren können. Das geht aus einem neu genehmigten Apple-Patent hervor.
Fingerposition im AR-Bereich genau erkennenIm angesprochenen
Patent geht es darum, die Entfernung der Fingerspitze des Nutzers vom jeweiligen Objekt besser berechnen zu können. Bisher besteht das Problem darin, dass ARKit-Anwendungen zwar bereits relativ genau erkennen, ob eine Berührung stattgefunden hat oder nicht – aber eben nicht ausreichend präzise, um die im Patent beschriebenen Funktionen umzusetzen. Die neue Technologie soll alleine über die verwendete Kamera und darin integrierte Sensoren des jeweiligen Gerätes funktionieren. Daraus ergeben sich mehrere Vorteile gegenüber traditionellen Sensor-Methoden, da Tiefeninformationen so optimal verwertet werden.
Quelle: US-Patentamt
Wenn Nutzer mit dem Finger beispielsweise auf einer Tischplatte entlangfahren, soll die jeweilige Kamera die Fingerbewegungen dynamisch nachvollziehen. Im Zuge dessen kann beispielsweise ein iPad oder iPhone in Echtzeit anzeigen, wenn der Anwender ein virtuelles Objekt berührt – und die Bewegung des Gegenstandes zulassen. Innerhalb der AR-Ansicht ließen sich auch reale Objekte integrieren, die auf dem Tisch platziert sind.
Time-of-Flight-Kamera mögliche VoraussetzungDie im Patent beschriebene AR-Erweiterung weckt Assoziationen mit einem weiteren Feature, das einige der 2020er iPhone-Modelle voraussichtlich bieten: die Time-of-Flight-Kamera. Bisherigen Meldungen zufolge bestückt Apple die Kamera des iPhone 12 Pro mit 3D-Sensoren. Zuvor gab es bereits Vermutungen, das Unternehmen setze auf eine Time-of-Flight-Kamera (ToF), über die iPhones exakte Tiefenmessungen durchführen können. Vor allem AR-Anwendungen – wie beispielsweise das im Patent beschriebene Feature – würden davon profitieren.