Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Face ID: Die 4 Linsen der TrueDepth-Kamera sind jetzt ein Apple-Patent

Bekanntlich ist das iPhone X in der Lage, das Gesicht des Nutzers zu erkennen und anhand dieser biometrischen Daten das Smartphone zu entsperren (Face ID). Dazu muss es dem Gerät jederzeit möglich sein, ein 3D-Abbild des nahen Bereichs vor der Frontkamera zu erstellen. Dies geschieht bekanntlich über die TrueDepth-Kamera, zu der auch ein Punktprojektor, ein Infrarotbeleuchter und eine Infrarotkamera gehören. Ein heute bewilligtes Patent beschreibt die Funktionsweise des Infrarotsensors genauer und schützt die Technik gewerblich vor Kopien der Konkurrenz.



Nahes Infrarot
Der Sensor, der die zurückgestrahlten Infrarotstrahlen empfängt und erlaubt, aus den Intervalldaten das 3D-Objekt zu berechnen, besteht aus vier Linsen vor einem Bandfilter und einer Bildebene. Optimiert ist er auf »nahes Infrarot«, also elektromagnetische Wellen im Spektralbereich zwischen 800 und 1.300 Nanometern. Dieses wird unter anderem auch von medizinischen Geräten, zur Lebensmittelkontrolle und für Nachtsichtgeräte verwendet.


Vier Linsen für ein 3D-Abbild
Die äußerste Linse (im Bild die Nummer 20) besteht aus einem ersten Material mit einer bestimmten optischen Dichte und positiver Lichtbrechung. Die folgenden beiden Linsen (24 & 26) bestehen aus dem identischen Material und haben eine Meniskusform; das bedeutet, die beiden Längsseiten sind »möndchenförmig« einmal konkav und einmal konvex gearbeitet. Die vierte Linse (28) ist aus einem anderen Material mit geringerer Brechkraft. Hier ist die Form asphärisch (weder gerade noch kugelförmig) mit mindestens einem Wendepunkt. Auf diese Weise wird erreicht, dass die Infrarotstrahlen nicht wieder reflektieren, sondern durch den Bandfilter (34) auf der Bildebene (36) aufschlagen. Das Gesamtdesign stellt eine F/2.0-Blende dar und erlaubt einen Sichtwinkel von über 80 Grad.

Aus dem zeitlichen Abstand zwischen ausgesendeten und reflektierten Strahlen berechnet das System den Abstand zu dem Objekt vor der Kamera. Im Gesamten entsteht eine dreidimensionale Punktewolke, ein 3D-Abbild. Das nun bewilligte Patent wurde bereits im Februar 2016 eingereicht. Als Bevollmächtigten nennt das Papier Apple, die eingetragenen Erfinder sind Miodrag Scepanovi, Yoshikazu Shinohara und Yuhong Yao.

Weiterführende Links:

Kommentare

Phil Philipp
Phil Philipp16.01.18 17:32
Einverstanden - das ist wirklich mal patent-wert.
Im täglichen Gebrauch bin ich immer wieder überrascht, wie gut Face-ID funktioniert: morgens nach dem aufstehen, die Haare wirr und eine Hand reibt noch den Schlafsand aus dem Auge ... und trotzdem erkennt mich mein auf dem Tisch liegendes iPhone X aus einem halben Meter Abstand halb seitlich.
+4
coffee
coffee16.01.18 17:45
Phil Philipp

Bei mir genauso. Nur wundere ich mich nicht so wie du. Weil: ich bin an jedem Morgen ein True Depp . Da hat's der Sensor leichter.
Simplicity is the ultimate Sophistication (Steve Jobs)
+3
darkov
darkov16.01.18 18:33
Phil Philipp
Einverstanden - das ist wirklich mal patent-wert.
Im täglichen Gebrauch bin ich immer wieder überrascht, wie gut Face-ID funktioniert: morgens nach dem aufstehen, die Haare wirr und eine Hand reibt noch den Schlafsand aus dem Auge ... und trotzdem erkennt mich mein auf dem Tisch liegendes iPhone X aus einem halben Meter Abstand halb seitlich.

Face Id ist nicht schlecht. Touch Id war aber beim mir genauer und schneller. Schade kann Apple kein Touch Id unters Display verbauen...
0
PythagorasTraining
PythagorasTraining16.01.18 18:38
Ein etwas hängendes Augenlid und schon klappt Face ID nur noch sporadisch
Und, wenn man die Augen nun aufreißt, hängt das Augenlid trotzdem ... Face ID .. ERROR
😭

Was soll nun die Daumen runter Bewertung?

Face ID - hängendes Augenlid 50% ERROR
ist nun mal Tatsache!
a² + b² = c² ist nicht der Satz des Pythagoras!
-4
PythagorasTraining
PythagorasTraining16.01.18 18:49
... erlebe ich bei jedem Entsperrversuch aufs Neue!

---
aah ... da sind schon wieder Daumen hoch.
a² + b² = c² ist nicht der Satz des Pythagoras!
-1
MetallSnake
MetallSnake16.01.18 19:12
Phil Philipp
Im täglichen Gebrauch bin ich immer wieder überrascht, wie gut Face-ID funktioniert: morgens nach dem aufstehen, die Haare wirr und eine Hand reibt noch den Schlafsand aus dem Auge ... und trotzdem erkennt mich mein auf dem Tisch liegendes iPhone X aus einem halben Meter Abstand halb seitlich.

Gleichzeitig denkt sich das iPhone "*gääähn, es ist noch so früh, und da ist irgendso eine hässlich verpennte Fratze, kann den zwar nicht erkennen, aber bevor mich mein Meister wieder misshandelt mach ich mal lieber auf. Bekommt er ja auch gar nicht mit wenn ich wem anders aufmachen würde."

Das Schöne an der KI ist, dass wir endlich einen Weg gefunden haben, wie die Wirtschaft weiter wachsen kann, nachdem sie jeden Einzelnen von uns getötet hat.
+1
Bitsurfer16.01.18 19:19
PythagorasTraining
Ein etwas hängendes Augenlid und schon klappt Face ID nur noch sporadisch
Und, wenn man die Augen nun aufreißt, hängt das Augenlid trotzdem ... Face ID .. ERROR
😭

Was soll nun die Daumen runter Bewertung?

Face ID - hängendes Augenlid 50% ERROR
ist nun mal Tatsache!
Machst halt einen neuen scan.
Dann klappts auch mit dem hängenden.
+5
PythagorasTraining
PythagorasTraining16.01.18 19:25
Ich werde es mal probieren...
a² + b² = c² ist nicht der Satz des Pythagoras!
+3
iGod16.01.18 20:52
Also ich kann ein Auge zukneifen, ich kann mir sogar eine Hand vors Auge halten und Face ID funktioniert noch immer (mit Aufmerksamkeitsprüfung).
+3
coffee
coffee16.01.18 20:58
iGod
Also ich kann ein Auge zukneifen, ich kann mir sogar eine Hand vors Auge halten und Face ID funktioniert noch immer (mit Aufmerksamkeitsprüfung).

Kann ich nur bestätigen.
Für mich ist Face ID um Klassen besser (vor allem schneller und zuverlässiger) als Touch ID. Lediglich in gleißendem Sonnenlicht gibt es manchmal kleinere Erkennungsprobleme.
Simplicity is the ultimate Sophistication (Steve Jobs)
+1
PythagorasTraining
PythagorasTraining16.01.18 21:14
Reset ist gemacht.
Werde es jetzt etwas testen.
Berichte dann morgen Vormittag
a² + b² = c² ist nicht der Satz des Pythagoras!
+1
Bitsurfer16.01.18 21:35
PythagorasTraining
Reset ist gemacht.
Werde es jetzt etwas testen.

Und, hängts nicht mehr?
+2
PythagorasTraining
PythagorasTraining17.01.18 13:35
So, das Entsperren mit Face ID klappt jetzt tatsächlich besser. 👍🏼
Noch keine 100% aber doch schon mal besser als vorher.
Hätte nicht gedacht, dass ein Reset soviel bringt. 🤔
Mal sehen wie es sich im Langzeittest schlägt. ... Bin noch skeptisch, bedingt durch die vorherige Erfahrung.
a² + b² = c² ist nicht der Satz des Pythagoras!
0
sierkb17.01.18 13:47
heise (17.01.2018): Face ID: iPhone X kann Gefühlslage des Betrachters in Echtzeit überwachen
Ein Hackerteam hat eine App entwickelt, die über die TrueDepth-Gesichtskamera ermittelt, ob der Benutzer gerade traurig, überrascht oder sauer ist. Werbetreibende lecken sich nach solchen Möglichkeiten die Finger.
+1
ilig
ilig17.01.18 14:26
sierkb
Werbetreibende lecken sich nach solchen Möglichkeiten die Finger.[/i]
Bevor ein Tool wie Loki tatsächlich zur Anwendung kommt, müsste Apple Entwicklern dies jedoch zuerst erlauben. Aktuell verbieten die Developer-Bedingungen des Konzerns die Nutzung des 3D-Erkennungsmoduls (TrueDepth-Kamera) für Marketingzwecke.
Hast Du auch einen Idee – besser eine Quelle – wie die Werbetreibenden über ihre Anzeige im Internet Zugriff auf Face-ID bekommen? Also, wie können die mittels ihrer Werbung Face-ID einschalten bzw. Zugriff auf Face-ID bekommen?
-1
sierkb17.01.18 14:30
ilig:
heise
Apple selbst stellt Entwicklern aber eine Schnittstelle (API) bereit, über die 52 Mikrobewegungen des Gesichtes ausgewertet können – auch über diese ließen sich Rückschlüsse auf die Gefühlslage des Benutzers ermitteln.

Rinat Khanov, Entwickler des Tools MeasureKit , das die Schnittstelle nutzt, hatte im Dezember befürchtet, dass solche Apps womöglich im Review-Prozess "durchrutschen" könnten. Allerdings betont Apple, dass man sich solcherlei Anwendungen genau ansehen will.
0
ilig
ilig17.01.18 14:35
sierkb
An welcher Stelle Deines Zitates wird/werden meine Fragen beantwortet? Ich kann da nichts finden und von Dir kommt gar nichts. Und MeasureKit braucht Face-ID nicht, da reicht die normale Kamera. Es hat auch nichts mit der Auwertung eines Geichtsausdrucks nichts zu tun.
-1
sierkb17.01.18 14:43
ilig:

Stelle Dich bitte nicht so begriffsstutzig an. Du hast nach dem Wie gefragt, das Wie ist: es gibt eine offiziell nutzbare und erlaubte API dazu, die das und Live-Zugriff erlaubt (schon allein für Virtual Reality / Augment Reality, bei dem Apple auch mitmischen will, notwendig). Und die wird bereits genutzt bzw. kann genutzt werden.
Es hängt allein am Review-Prozess bei Apple, ob so eine App durchkommt oder nicht. Und der Review-Prozess bei Apple ist löchrig, teilweise fragt man sich an mancher Stelle, ob er überhaupt vorhanden ist.

Weiteres Beispiel für eine App, die mittels dieser offiziellen API drauf zugreift bzw. auf die Scanner-Daten zugreift und ein Datenmodell fertig fürs 3D-Printing des eingescannten Gesichts erstellt:

GitHub: iOS app that uses the face scanning feature of the iPhone X to create a STL file that can be used for example for 3D printing

Das hier ist übrigens nicht der erste Artikel, der sich damit und mit dem Frohlocken der Werbeindustrie darüber beschäftigt.
-2
ilig
ilig17.01.18 14:59
sierkb
Begriffsstutzig scheinst Du zu sein. Hier nochmals meine Frage.
Also, wie können die Werbetreibenden mittels ihrer Werbung im Internet Face-ID einschalten bzw. Zugriff auf Face-ID bekommen?

Das eine App auf Face-ID zugreifen kann, das wusste ich schon vorher. Aber wie ist es möglich, dass die Werbung auf dem Display einen Zugriff auf Face-ID bekommt? Ich klicke z.B. auf eine Werbung und diese Werbung müsste jetzt über Face-ID die Möglichkeit bekommen, meinen Gesichtsausdruck auszuwerten. Wie macht diese Werbung das? Wie kommuniziert die Werbung auf dem Display mit Face-ID.
Frage jetzt begriffen?
-1
sierkb17.01.18 15:05
ilig:

Wie macht Apples beispielhaft grinsender emoji-Kackhaufen das, dass er sich live nach Deinem Gesichtsausdruck formt?
Software kann aufgrund solcher Mimik abgesehen vom Alter, Geschlecht etc. u.a. auch den Gemütszustand einer Person erkennen und auswerten. Für Werbetreibende eine hochinteressante Sache, um zu erfassen, ob die betreffende Werbung beim Betreffenden positiv oder negativ verfangen hat bzw. in welchem Gemütszustand der Betreffende ist, um ihm ggf. passende Werbung einzublenden.

Ein Beispiel, das jüngst von sich reden machte und wegen anhaltender Negativschlagzeilen dann zurückgezogen wurde:

heise (25.11.2018): Medikamenten-Empfehlung per Gesichtserkennung
In zwei österreichischen Apotheken testet der Pharma-Konzern Bayer Austria eine Gesichtserkennung: Kunden können sich scannen lassen und bekommen dann passend zu Alter und Geschlecht Arzneien empfohlen.
-1
ilig
ilig17.01.18 15:15
sierkb
Software kann aufgrund solcher…
Das eine Softwre das kann habe ich doch schon geschrieben. Eine Anzeige auf dem Display ist aber keine Software. Oder hast Du Quellen, die zeigen, wie man aus einer Anzeige auf dem Display eine Software machen kann?
In zwei österreichischen Apotheken testet der Pharma-Konzern Bayer Austria eine Gesichtserkennung: Kunden können sich scannen lassen und bekommen dann passend zu Alter und Geschlecht Arzneien empfohlen.
Kunden können sich scannen lassen – aber Anzeigen auf dem Display können mich nich scannen.
Kannst Du oder willst Du meine obigen Fragen nicht beantworten?
0
sierkb17.01.18 15:21
ilig:

Kannst oder willst Du nicht verstehen, dass es möglich ist, Apps zu bauen, die Dir nebst solcher Erkennung und Auswertung Werbung aufs Display bringen können (erst recht, seitdem Apple auf diesem Feld (um z.B. Apps im AppStore besser bewerben zu können) selber rührig geworden ist und Werbung erlaubt und fördert und Entsprechendes anbietet) und die man entweder ganz legal und mit Apples explizitem Einverständnis oder eben illegal an Apples Review-Kontrolle vorbei in den AppStore bringen kann oder könnte? Und vor allem um Letzteres geht es, eben weil Apples Review-Prozess löchrig ist, die Eingangskontrollen schon mehr als einmal regelmäßig unterlaufen worden sind und werden und es Apps mit eigentlich unerlaubten Aktionen und Zugriffen in den AppStore geschafft haben, die da eigentlich nicht reingehören und die bei der Eingangskontrolle gleich hätten rausgefischt werden müssen von Apple, es aber nicht wurden.
-1
ilig
ilig17.01.18 16:22
sierkb
Kannst oder willst Du nicht verstehen, dass es möglich ist, Apps zu bauen, die Dir nebst solcher Erkennung und Auswertung Werbung aufs Display bringen können
Kannst oder willst Du nicht lesen? Dass ich auch ohne Dein Dazutun schon wusste, dass dies mit einer App/Software geht, das habe ich jetzt schon mehrfach geschrieben und damit bestätigt.

In dem von Dir verlinkten Artikel geht es aber um…
Werbetreibende und Marketingleute wünschen sich schon seit langem, automatisiert und ohne Zeitverzug erkennen zu können, wie ihre Reklame beim Benutzer ankommt.
Das impliziert für mich, das die Werbetreibenden mit Loki etwas in die Hand bekommen, womit sie meine Emotionen beim Betrachten einer Anzeige beobachten und auswerten können.

Aber etwas Wesentliches wird in dem Artikel nicht gesagt/verschwiegen.
Loki stellt dem Benutzer einen News-Feed zur Verfügung, ähnlich wie andere beliebte Social-Networking-Apps. Im Hintergrund verwendet es jedoch iOS ARKit, um die Gesichtsdaten des Benutzers zu erfassen. Diese Daten werden durch ein neuronales Netzwerkmodell geleitet, das trainiert wurde, um Gesichtsdaten auf Emotionen abzubilden.

Gut, dass ich diesen Link gefunden habe. Das heißt für mich, dass ich explizit Loki installieren muss. Das bedeutet für mich im Umkehrschluss aber auch, dass nicht die Werbetreibenden es in der Hand haben, meine Emotionen beim Betrachten einer Anzeige zu beobachten und auszuwerten, sondern ich.

Der Titel Deines Artikels »iPhone X kann Gefühlslage des Betrachters in Echtzeit überwachen« ist also mal wieder ein typischer Fall für eine fiktive Nachricht – sowas scheint Dir zu gefallen.

Aber immer schön den Apple-Teufel an die Wand malen.

Nicht das iPhone X kann die Gefühlslage des Betrachters in Echtzeit überwachen. Das kann die Software Loki. Warum sollte jemand diese Software auf seinem iPhone X installieren? Wer so einen News-Feed braucht, der hat ganz andere Probleme.
0
sierkb17.01.18 16:34
The Verge (02.11.2017): Apple will share face mapping data from the iPhone X with third-party app developers
Developers need explicit user permission according to Apple guidelines

Reuters (02.11.2017): App developer access to iPhone X face data spooks some privacy experts


Wenn etwas unterlaufen, ausgenutzt und missbraucht werden kann, einfach weil es vorhanden ist und weil es technisch möglich ist, wird es in der Regel auch unterlaufen, ausgenutzt und missbraucht. Früher oder später. Nur was gar nicht erst vorhanden ist, kann auch nicht unterlaufen, ausgenutzt und missbraucht werden. Das ist nicht den Teufel an die Wand malen. Sondern eine Spur von Realismus statt allzu technikgläubig und vertrauensselig die Augen davor zu verschließen nach dem Motto, "was nicht sein darf, das nicht sein kann".

Die Bedenken kommen ja nicht allein von mir (ich gebe sie hier nur wieder).
+1
ApfelRookie18.01.18 15:53
Mir sind Phones mit Fingerabdruck am liebsten - diesen "Prototyp der Zukunft" lasse ich erstmal aus. Ich will erstmal nicht dass meine Visage vollständig analysiert wird und auf dem Tablet ist die Frontkamera bei mir mit dem Preissticker abgeklebt
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.