Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Apple Vision Pro: Foveated Rendering – Tricksen für gefühlte Performance – was ist das?

Apple stellte am gestrigen Abend "Vision Pro" vor – ein Virtual-Reality-/Augmented-Reality-Headset. Mit der Brille lassen sich iOS- und iPad-Programme völlig frei im Raum positionieren und auch die Darstellung von kompletten Virtual-Reality-Welten ist laut Apple möglich. Das Headset kommt laut dem Konzern mit zwei getrennten Bildschirmen mit kombiniert insgesamt 23 Millionen Pixeln daher. Zum Vergleich: Ein einzelner 4K-Bildschirm mit einer Auflösung von 3840x2160 Pixeln bringt es auf 8,3 Millionen Pixel.


Das Apple Vision Pro bringt einen M2-Chip mit – aber Apple hat bislang noch nicht verraten, ob es sich hier um einen normalen M2-Chip handelt oder ob dieser mit einer stärkeren Grafikeinheit versehen ist. Zwar bieten Apples M-Chips, verglichen mit den integrierten Grafikeinheiten der vorherigen Intel-Chips, deutlich mehr Grafik-Power – dennoch stellt sich die Frage, wie ein M2 insgesamt 23 Millionen Pixel mit flüssiger Grafik füllen will.

Augen-Tracking
Apple Vision Pro kann erkennen, wohin der Nutzer gerade blickt. Dies wird durch zwei Komponenten ermöglicht: Das Headset erleuchtet den Raum zwischen dem Gesicht des Nutzers und dem Headset mit Licht im Infrarot-Bereich. Das ist nicht mit dem Auge sichtbar, aber eine spezielle Kamera kann so erkennen, wohin der Nutzer den Blick richtet. Den Umstand nutzt Apple unter anderem für die Bedienung: Blickt der Nutzer auf ein Kontrollelement, erkennt visionOS das und löst eine bestimmte Aktion aus.

Nur in der Mitte scharf
Doch Apple macht sich die Information, wohin der Träger gerade schaut, noch auf eine andere Weise zunutze. Das menschliche Auge kann nur in einem sehr begrenzten Bereich scharf sehen – andere Bereiche sind verschwommen. Daher ist es nicht sinnvoll, wenn das Headset den gesamten Inhalt in voller Auflösung rendert. Es genügt vollständig, wenn ein kleiner Bereich, auf welchen der Nutzer gerade blickt, mit höchster Auflösung gezeichnet wird.

Dieses Verfahren nennt sich "Foveated Rendering" und steht bereits auf anderen Headsets zur Verfügung, um Rechenleistung zu sparen und so die Darstellungsqualität zu erhöhen. Über besagtes Verfahren kann Apple beim Headset sehr viel Rechenleistung der Grafikeinheit einsparen.

Konkurrenzfähig?
Ob allerdings die Rechenleistung ausreichend ist, um es beispielsweise mit Meta Quest 3 oder PlayStation VR2 bezüglich immersiver 3D-Welten aufzunehmen, werden erst Hands-On-Berichte zeigen. Es ist unerlässlich, möglichst hohe Bildraten im Bereich von 90 bis 120 Hz zu erzeugen, da ansonsten mit Übelkeit des Nutzers zu rechnen ist. Brillen anderer Hersteller tricksen hier oftmals: Die Bildrate eines Spiels liegt meist deutlich niedriger – und es wird beispielsweise nur jedes zweite oder dritte Bild tatsächlich gezeichnet. Die übrigen Frames werden durch eine Technik namens "Reprojektion" erzeugt: Hier nimmt man das letzte Bild als Grundlage und verschiebt es leicht in die Richtung, in welche der Träger seinen Kopf gerade bewegt. So entsteht die Illusion einer sehr hohen Bildrate – ohne wirklich alle Zwischenbilder tatsächlich errechnen zu müssen.

Kommentare

maculi
maculi06.06.23 09:47
Im Prinzip hat man da zwei 24-Zoll iMacs vor den Augen (4480 by 2520 pixel, insgesamt 11 289 600). Im iMac steckt ein M1, und der kann sowohl den internen Moni mit 4,5k als auch einen externen mit 6k füttern, warum sollte dann ein M2 nicht reichen?
-1
Scrembol
Scrembol06.06.23 10:01
Das macht die Playstation VR2 auch und es funktioniert dermaßen gut, dass man quasi gar nicht wahrnimmt.
Gaming Podcast DADDY ZOCKT von Ex-PiranhaBytes Entwickler. Meine Single YOUR EYES - Eric Zobel überall streamen!
+4
typneun06.06.23 10:07
Scrembol
Das macht die Playstation VR2 auch und es funktioniert dermaßen gut, dass man quasi gar nicht wahrnimmt.

... aber da steckt die Rechenpower hauptsächlich in der PS5 - und nicht im Headset - oder irre ich mich?
+4
marcel15106.06.23 10:11
typneun
... aber da steckt die Rechenpower hauptsächlich in der PS5 - und nicht im Headset - oder irre ich mich?
Dann halt die Quest Pro. Die macht das auch, und die Rechenleistung steckt im Headset. "Bahnbrechend neu" ist das also nicht. Sinnvoll ist es natürlich trotzdem.
+3
jmh
jmh06.06.23 10:13
was brillentraegerinnen und brillentraeger betrifft, hat das konzept schwaechen.

nach den mir bisher bekannten informationen muss man vor dem aufsetzen dieser minion-maske seine eigene brille abnehmen. ach ja, zusaetzlich zu erwerbende, angepasste zeiss-linsen (wie die vision pro selbst sicher ein schnaeppchen!) sollten natuerlich auch im geraet installiert sein.

warum kann man seine eigene brille nicht an lassen? und warum erfolgt eine sehstaerkenkorrektur z. b. nicht ueber eine software bzw. die grafik des betriebssystems?
wir schreiben alles klein, denn wir sparen damit zeit.
-5
Nebula
Nebula06.06.23 10:19
Die eigene Passt nicht darunter und würde vor allem Lücken erzeugen, wo Licht eindringt. Das dürfte die Sensorik stören. Auch Brillengläser dürfte das Ganze Beeinträchtigen. Dass man den Fokus nicht direkt einstellen kann, wundert mich auch, kann ja sogar das Mini-Linsensystem im iPhone.
»Wir werden alle sterben« – Albert Einstein
+3
Robby55506.06.23 10:28
jmh
was brillentraegerinnen und brillentraeger betrifft, hat das konzept schwaechen.

nach den mir bisher bekannten informationen muss man vor dem aufsetzen dieser minion-maske seine eigene brille abnehmen. ach ja, zusaetzlich zu erwerbende, angepasste zeiss-linsen (wie die vision pro selbst sicher ein schnaeppchen!) sollten natuerlich auch im geraet installiert sein.

warum kann man seine eigene brille nicht an lassen? und warum erfolgt eine sehstaerkenkorrektur z. b. nicht ueber eine software bzw. die grafik des betriebssystems?

Als Träger eine Gleitsichtbrille werde ich vermutlich kaum in den Genuss kommen diese VR Brille vernünftig zu nutzen. Und darüber was die passenden Zeiss Gläser kosten sollen wurde auch nicht gesagt. Vermutlich kann man sich zu dem Preis zwei normale Brillen kaufen weil es keine Konkurrenz gibt.
+1
Mendel Kucharzeck
Mendel Kucharzeck06.06.23 10:29
maculi
Im Prinzip hat man da zwei 24-Zoll iMacs vor den Augen (4480 by 2520 pixel, insgesamt 11 289 600). Im iMac steckt ein M1, und der kann sowohl den internen Moni mit 4,5k als auch einen externen mit 6k füttern, warum sollte dann ein M2 nicht reichen?

Es kommt darauf an, WAS du zeichnest. Ein paar Fenster sind meist kein Problem, aber eine komplette 3D-Welt besteht aus VIELEN Dreiecken, oftmals mit aufwändigen Shader-Effekten versehen, schon.
+2
teorema67
teorema6706.06.23 10:35
jmh
... warum kann man seine eigene brille nicht an lassen? ...

Weil die Brillenbügel die Vision Pro seitlich vom Kopf abheben.

Die Kosten für die Aufsatzgläser werden über denen für normale Brillengläser liegen, und was normale Brillengläser von Zeiss kosten, ist bekannt
Rassismus ist, überall Rassismus zu wittern, wo keiner ist, und damit echten Rassismus zu bagatellisieren. (Dieter Nuhr)
+4
Mendel Kucharzeck
Mendel Kucharzeck06.06.23 10:36
jmh
warum kann man seine eigene brille nicht an lassen?

Die Linsen solcher Headsets sind SEHR teuer – und Brillen bergen die Gefahr dass man diese verkratzt. Bei PSVR2 darfst du die auflassen – aber schaut man z.B. auf Reddit, tummeln sich dort viele Leute mit verkratzten Linsen.
jmh
und warum erfolgt eine sehstaerkenkorrektur z. b. nicht ueber eine software bzw. die grafik des betriebssystems?

Weil du dazu die Linsen verformen müsstest, um deine Sehstärke zu korrigieren. Über Software kannst du das nicht regeln – wie auch, du kannst ja die Pixel nicht umgekehrt unscharf zeichnen
+4
jmh
jmh06.06.23 10:44
Mendel Kucharzeck
jmh
und warum erfolgt eine sehstaerkenkorrektur z. b. nicht ueber eine software bzw. die grafik des betriebssystems?

Weil du dazu die Linsen verformen müsstest, um deine Sehstärke zu korrigieren. Über Software kannst du das nicht regeln – wie auch, du kannst ja die Pixel nicht umgekehrt unscharf zeichnen
ich bin da kein experte, aber wenn sie so tolle dinge in das sichtfeld projizieren koennen, ginge das sicher auch sehstaerken-korrigierend. ein digitalzoom (als beispiel) funtioniert ja auch nicht physisch oder mechanisch.

nun ja, wir reden gerade ueber die erste generation des geraetes. es wird sicher in den naechsten jahren noch kleiner, vielseitiger, dezenter und praktischer werden – vorausgesetzt, es wird ein erfolg. in boersennachrichten heute morgen wurde geaeussert, dass der hype um solche brillen eigentlich schon wieder abflaut. aber wer weiss – der ipod der ersten generation fuer um die 1000 dm wurde einst mit aehnlich gemischten reaktionen konfrontiert. und trotzdem wurde es ein grosser, geradezu kulturpraegender erfolg ...
wir schreiben alles klein, denn wir sparen damit zeit.
0
Mecki
Mecki06.06.23 10:59
Die Meta Quest 3 nutzt den Snapdragon XR2 von Qualcom. Der XR2 läuft mit 587 MHz und hat 1.267 GFLOPS Rechenleistung. Zum Vergleich: Schon der M1 läuft mit 1.278 MHz und hat 2.610 GFLOPS. Der XR2 hat 2 GPU Recheneinheiten und 512 Shader, der M1 hat 128 GPU Recheneinheiten und 1024 Shader.



Der XR2 ist also dem M1 schon hoffnungslos unterlegen (der M1 hat 367% besser Single Core und 596% bessere Multicore Performance) und in der Brille nutzt Apple aber einen M2! Der raucht den XR2 komplett in der Pfeife!

Und der XR2 muss in der Meta Quest 3 alles machen, bei Apple hingegen gibt es einen super starken Co-Prozessor, der sich um Sensoren, Kamerabilder und Mikrophone kümmert, d.h. das alles wird bereits verarbeitet, da ist die CPU noch komplett idle und hat noch gar nichts gemacht.
+4
Mendel Kucharzeck
Mendel Kucharzeck06.06.23 11:00
jmh
ich bin da kein experte, aber wenn sie so tolle dinge in das sichtfeld projizieren koennen, ginge das sicher auch sehstaerken-korrigierend. ein digitalzoom (als beispiel) funtioniert ja auch nicht physisch oder mechanisch.

Es wird nichts direkt ins Sichtfeld gemalt. Die hast zwei Bildschirme und davor Linsen. Die Linsen sind so geformt, dass du ein scharfes Bild für jedes Auge bei normaler Sehstärke siehst. Weicht deine Sehstärke ab, siehst du auch hier verschwommen.

Die Umgebung um dich herum siehst du durch Kameras – vereinfacht gesagt werden die Bilder der Kameras auf die Bildschirme in der Brille gemalt. So entsteht die Illusion, du könntest durchgucken.
+4
Mendel Kucharzeck
Mendel Kucharzeck06.06.23 11:02
Mecki
Bedenke, dass die Vision Pro aber 2,5 Mal mehr Pixel hat als die Quest 3 (9 Mio vs. 23 Mio).

Außerdem: Du hast hier einen Geekbench-Score der CPU gepostet. Über die CPU mach ich mir keine Sorgen, sehr wohl aber über die Fillrate der GPU des M2s bei 23 Mio. Pixeln.
+2
bit.trash
bit.trash06.06.23 11:04
Mecki
Die Meta Quest 3 nutzt den Snapdragon XR2 von Qualcom. Der XR2 läuft mit 587 MHz und hat 1.267 GFLOPS Rechenleistung. Zum Vergleich: Schon der M1 läuft mit 1.278 MHz und hat 2.610 GFLOPS. Der XR2 hat 2 GPU Recheneinheiten und 512 Shader, der M1 hat 128 GPU Recheneinheiten und 1024 Shader.



Der XR2 ist also dem M1 schon hoffnungslos unterlegen (der M1 hat 367% besser Single Core und 596% bessere Multicore Performance) und in der Brille nutzt Apple aber einen M2! Der raucht den XR2 komplett in der Pfeife!


für 3d sieht das alles aber nicht so rosig aus. Vermutlich hat Apple deswegen auch kaum was gezeigt, mit wirklich 3D.
Der M1 ist ca auf dem level einer uralten GTX970, der M2 in der Brille ist 30 % Schneller.
Für 3D mit VR willst du mindestens 90fps, im PC bereich willst du eine 3090, besser 4080/4090. Die alte 3090 ist schon schneller als ein m1 ultra, die 4090 quasi noch einmal doppelt so schnell ...
Da bleibt Apple lieber bei 2D mit etwas leichten 3D.
+5
Meddten
Meddten06.06.23 11:14
jmh
und warum erfolgt eine sehstaerkenkorrektur z. b. nicht ueber eine software bzw. die grafik des betriebssystems?

Das geht nicht.

Mag das jetzt aber nicht erklaeren. Dauert laenger wenn man es genau macht.
0
Mecki
Mecki06.06.23 11:23
Mendel Kucharzeck
Mecki
Bedenke, dass die Vision Pro aber 2,5 Mal mehr Pixel hat als die Quest 3 (9 Mio vs. 23 Mio).
Ein 3D Spiel muss nicht mit der nativen Auflösung gerendert werden. Wer daheim ein 8K Display hat, wird auch seine Spiele nicht mit nativen 8K rendern. Und Bilder hochrechnen, sogar mit intelligenter Interpolation, macht heutige Hardware so nebenbei. In einem 3D Spiel mit schnellen Bewegungen fällt so was gar nicht auf und sieht sogar teilweise recht gut aus, weil es wie natürlicher Motion Blur wirkt.

Außerdem kann man auch hier "Foveated Rendering" nutzen und theoretisch nur den Bildausschnitt, auf den der Nutzer gerade schaut in der höchsten Detailstufe rendern, den Rest kann man auch viel schlechter rendern (LoD je nach Bildbereich). Da Apples GPU alle massiv auf Tile Rendering setzen, sind sie für so etwas prädestiniert, da das Bild sowieso immer schon in einzelnen Tiles gerendert wurde, von denen jeder ein anderes LoD haben kann.

Und wenn Apple nur in der Auflösung rendert wie die Meta Quest 3, dann wird das Bild immer noch mindestens genauso gut wie bei der Meta Quest 3 aussehen, wahrscheinlich immer noch besser, da die Pixel feiner sind und das Bild interpoliert wird, aber dann müsste Apple die Performance der Meta Quest 3 immer noch deutlich schlagen. Die GPU im XR2 ist ein Adreno 650:

+1
Mecki
Mecki06.06.23 11:31
Ich sehe für das Produkt durchaus Potential, aber noch ist es zu globig, noch wird es technisch nicht ausgereift sein (erste Generation) und noch ist der Preis viel zu hoch. Computer Spiele und Kinofilme sind dabei eher eine nette Spielerei, aber dass man damit eine ganz Wand von Monitoren ersetzen kann, ist für Grafiker und Entwickler durchaus interessant und in der 3D Entwicklung für Spiele, Filme, aber auch wenn es um 3D Druck und Modelle geht, sowie in der Entwicklung neuer Produkt und Fertigungsanlagen sehe ich da durchaus sehr sinnvolle Einsatzzwecke. Denn das ist der Hauptgrund warum sich derartiges bisher nicht wirklich durchgesetzt hat: Es fehlte an brauchbaren Anwendungsmöglichkeiten. Und während die anderen hier immer ihren Fokus massiv auf Unterhaltung (Spiele, Filme, 3D Landschaften) und so etwas wie das Metaverse setzen (das es nicht mal im Ansatz gibt, das bisher mehr ein Konzept als ein Produkt ist), setzt Apple von Anfang auf sinnvollen Nutzwert, nämlich App Bedingung und 3D Desktops und eine möglichst nahtlose Integration in deren Ökosystem bis hin zu iOS Apps die out-of-the-box darauf laufen werden.
+3
Megaseppl06.06.23 11:39
maculi
Im Prinzip hat man da zwei 24-Zoll iMacs vor den Augen (4480 by 2520 pixel, insgesamt 11 289 600). Im iMac steckt ein M1, und der kann sowohl den internen Moni mit 4,5k als auch einen externen mit 6k füttern, warum sollte dann ein M2 nicht reichen?

Synchrones 3D, ohne Aussetzer bei >= 90FPS? Klar geht das, aber mit Abstrichen gegenüber einem Desktop-Rechner bei dem ich in der Regel 60fps auf einem Bildschirm habe, bei dem die Framerate aber auch mal ohne größere Probleme droppen kann. Bei VR darf nix droppen.
Es wird halt auf Texturen und Komplexität verzichtet bis das Ziel erreicht wird. Insgesamt dürfte der m2 da auf dem Niveau der Quest Pro liegen, bei gleichzeitig besserer Auflösung.
+1
MrChad06.06.23 12:25
Robby555
jmh
was brillentraegerinnen und brillentraeger betrifft, hat das konzept schwaechen.

Als Träger eine Gleitsichtbrille werde ich vermutlich kaum in den Genuss kommen diese VR Brille vernünftig zu nutzen.

Da du im Prinzip auf zwei Bildschirme guckst und die Geräte-Optik dir eine fixe Fokus-Ebene im Abstand von +- 60 cm (oder so) vorgaukelt, sollte ein Einstärkenglas eigentlich reichen.

Das Problem mit dem Schwindel entsteht wohl dann, wenn man auf Realobjekte schaut, die sehr viel weiter oder sehr viel näher als die 60 cm Fokus-Ebene sind. Dann stimmt die Fokusebene der Augen mit der wahrgenommenen Entfernung nicht überein und das Gehirn kommt durcheinander.
-2
Legoman
Legoman06.06.23 13:07
maculi
Im Prinzip hat man da zwei 24-Zoll iMacs vor den Augen
Nicht ganz.
Deine Idee bedeutet, dass du den Bildschirm starr vors Auge geschnallt hast.
Du drehst den Kopf, weil du in die obere Bildschirmecke gucken willst - aber der Bildschirm bewegt sich mit. Soll er aber nicht. Er soll (hier in der AR) immer schön an der gleichen Stelle virtuell im Raum bleiben.
0
teorema67
teorema6706.06.23 15:38
MrChad
... Da du im Prinzip auf zwei Bildschirme guckst und die Geräte-Optik dir eine fixe Fokus-Ebene im Abstand von +- 60 cm (oder so) vorgaukelt, sollte ein Einstärkenglas eigentlich reichen ...

Ob das Einstärkenglas in der VR-Brille beim Gleitsichtbrillengewöhnten nicht störend wirkt, wird er ausprobieren müssen. Eine Gleitsichtbrille verursacht Aberrationen, an die sich der Träger nach Stunden oder Tagen gewöhnt hat. Schaukeleffekte in den Randbereichen bleiben, wenn man genau beobachtet, stören aber meist nicht.
Rassismus ist, überall Rassismus zu wittern, wo keiner ist, und damit echten Rassismus zu bagatellisieren. (Dieter Nuhr)
0
MacKaltschale06.06.23 17:02
Mendel Kucharzeck
jmh
warum kann man seine eigene brille nicht an lassen?

Die Linsen solcher Headsets sind SEHR teuer – und Brillen bergen die Gefahr dass man diese verkratzt. Bei PSVR2 darfst du die auflassen – aber schaut man z.B. auf Reddit, tummeln sich dort viele Leute mit verkratzten Linsen.
jmh
und warum erfolgt eine sehstaerkenkorrektur z. b. nicht ueber eine software bzw. die grafik des betriebssystems?

Weil du dazu die Linsen verformen müsstest, um deine Sehstärke zu korrigieren. Über Software kannst du das nicht regeln – wie auch, du kannst ja die Pixel nicht umgekehrt unscharf zeichnen

Die Brille würde wohl das Tracking der Augen ruinieren.
+1
MacKaltschale06.06.23 17:31
Was mich am Konzept stört ist, dass man eben, ohne Tracking der Akkommodation nichts virtuell fokussieren kann, was unnatürlich ist. Dadurch ist dann ein riesiger virtueller Bildschirm gefühlt auch kein riesiger Bildschirm, sondern ein normalgroßer Bildschirm in 60 cm Entfernung.

Genial wäre es, wenn ein sich an den aktuellen Fokus des Nutzer anpassendes Linsensystem verbaut wäre und die Software die Tiefenschärfe der Inhalte auf den Bildschirmen entsprechend setzen würde und bei der Optik der Kameras für den Raum ebenso verfahren. Also die Linsen sich egal was der Nutzer gerade fokussiert immer so einstellen, dass dennoch die Displays scharf bleiben und die Software den Rest mit Blur simuliert.

Wenn das dann noch mit einem natürlichen FOV funktioniert, so leicht ist, dass es durch normale Ohrhalterungen, statt einem frisurzerstörenden Tragebandkonzept getragen werden kann, dann fängt es an mich zu wirklich richtig zu interessieren. Ohne das gibt es zwar ein gigantisches „Ich will es uuuuuuunbedingt ausprobieren“ aber ich weiß auch, dass es mich nur kurz beschäftigen wird, weil es viel zu umständlich ist und mir in meinen Anwendungsgebieten keinen Nutzen bringt. Ähnlich wie andere total interessante Spielzeuge, die bei mir nur im Regal verstauben. Von der 3D Brille über VR-Spielereien bis zum Neural Impulse Actuator.

Ein iPhone war sinnvoll, nicht umsonst hat die Keynote von Steve Jobs 2007 bei der Präsentation des iPhones damit begonnen, mehrfach aufzuzählen, welche Geräte durch das iPhone ersetzt werden. Insofern kann man die Chancen der Geräte überhaupt nicht miteinander vergleichen.
Die meisten Menschen haben ihre bequemsten Sitzmöbel im Wohnzimmer vor dem Fernseher. Entsprechend sitzt man mit der Brille dann vor dem TV und blockiert dabei den Rest der Familie, falls die klassisch gesellig ist. Aber künftig tragen dann alle permanent die Dinger auf dem Kopf, braucht es auch keine Faltencreme mehr, die eh nicht wirkt, weil die meisten Falten erst um die Augen entstehen und die sieht ja keiner mehr.

Aber für Singles schon OK.

Interessant ist allerdings, dass die nach unten gerichteten Kameras für die Gesten sehr sinnvoll eingesetzt werden könnten. Aber das lässt Apple ja angeblich jetzt schon nicht zu, dass irgendwie auf die Sensorik direkt zugegriffen werden könnte. Denn für photorealistische 3D Pornogames wäre es natürlich phantastisch, wenn der virtuelle Fick rhythmisch perfekt den Handbewegungen der masturbierenden Person folgt. Gut, dass Apple bald den App Store öffnen werden muss und diesen Schritt in eine großartige Zukunft deshalb doch nicht verbaut.
+2
Peter Longhorn07.06.23 08:30
Mendel Kucharzeck
Mecki
Bedenke, dass die Vision Pro aber 2,5 Mal mehr Pixel hat als die Quest 3 (9 Mio vs. 23 Mio).

Außerdem: Du hast hier einen Geekbench-Score der CPU gepostet. Über die CPU mach ich mir keine Sorgen, sehr wohl aber über die Fillrate der GPU des M2s bei 23 Mio. Pixeln.

Wobei man auch sagen muss, dass laut allem was man so bisher gesehen hat keine reine VR da drin Standard sein wird, sondern AR.
Heißt der Großteil des Bildes ist in Wirklichkeit "nur" ein Stream der Kameras. Nur ein kleiner Teil der Pixel wird tatsächlich mit dynamischem Inhalt gefüllt. Wobei es doch eher unwahrscheinlich ist, dass Apple zulässt dass das Bild bei richtigen VR-Spielen anfängt zu ruckeln... andererseits: Wer sagt dass da überhaupt was kommt in die Richtung?
Hab ich was verpasst oder wars nicht so, dass sie eigentlich nichts davon gezeigt haben? Jede App war "nur" in "2D" vor einem platziert. Egal ob Spiel oder Programm. Wirklich immersiv war "nur" wenn man Filme ansieht (was wieder um einiges effizienter zu rendern ist als Spiele) und da mit dem Rädchen die Umgebung ausblenden lässt. Aber auch hier wird dann eben nur ein vorgefertigter Film rund um den angesehenen Film angezeigt (und das dank foveated rendering auch noch unscharf).

Mit anderen Worten: Der Anwendungsfall von bisherigen Headsets und dem was Apple da auf den Markt bringt ist komplett ein anderer. Und es sind gar nie so viele Grafik-Berechnungen notwendig wie bei anderen Headsets, da Apple kein vollwertiges VR damit anbieten will.
+1
Megaseppl07.06.23 09:15
MacKaltschale
Was mich am Konzept stört ist, dass man eben, ohne Tracking der Akkommodation nichts virtuell fokussieren kann, was unnatürlich ist. Dadurch ist dann ein riesiger virtueller Bildschirm gefühlt auch kein riesiger Bildschirm, sondern ein normalgroßer Bildschirm in 60 cm Entfernung.
Nee, eigentlich nicht.
Die Entfernung lässt sich bei jeder VR-Brille und schon immer wunderbar simulieren. Das ist schlicht dem 3D-Effekt geschultet den die Displays simulieren und der meist vorhandenen leichten Eigenbewegung des Kopfes.
Du kannst problemlos und sofort unterscheiden, ob ein Bildschirm (bei gleichem Bogenmaß) 1 Meter, 3 Meter oder 10 Meter entfernt ist. Erst bei großer Distanz braucht man Objekte in Relation, das ist in der Realität aber auch nicht anders.

Ich schaue in der Virtualität am liebsten auf einer 30 Meter-Leinwand in entsprechendem Abstand. Da kommen Filme und Serien viel besser rüber als bei einer virtuellen 3-Meter-Leinwand mit weniger Abstand, trotz gleicher Pixelgröße in der VR-Brille.
Genial wäre es, wenn ein sich an den aktuellen Fokus des Nutzer anpassendes Linsensystem verbaut wäre und die Software die Tiefenschärfe der Inhalte auf den Bildschirmen entsprechend setzen würde und bei der Optik der Kameras für den Raum ebenso verfahren.
Ich kann mir vorstellen, dass Apple hier noch nachliefern wird. Die Tiefeninformationen des Raumes sollten die haben, in der 3D-Welt eh. Ist nur die Frage, ob der m2 dafür reicht.
0
eyespy3907.06.23 20:14
Kommentar eines Augenarztes:
Es ist EINE Sache, für ein normalsichtiges Auge ein Bild durch geschickte Optik so zu projizieren, dass die virtuelle "Leinwand" z.B. eben in 30m Abstand wahrgenommen wird. Das hat mit 3D- oder 2D-Inhalten nichts zu tun.
Es hat auch auf der Produkt-technischen Seite wiederum nichts damit zu tun, dass wir (als 3D-sehende Menschen jedenfalls) die Achsen unserer Augen auf ein gemeinsames foveal abgebildetes Ziel ausrichten (=konvergieren). Wohl gibt es Reflexbahnen die die Konvergenz und die Naheinstellung beider Augenlinsen sinnvoll aufeinander abstimmen.
3D-Filme funktionieren im Kino, auf dem Fernseher oder per Beamer auch unabhängig davon, dass die Ebene, auf welcher das Bild projiziert wird, während der Vorführung immer den gleichen Abstand behält. Kein Grund, warum das mit einer virtuellen Projektionsfläche anders sein sollte. Und auch im Kino oder beim TV/Beamer spielt die Gleitsichtbrille keine Rolle, einfache Fernbrille genügt. Gleitsicht könnte sogar stören, weil beim Abblick der Leseabstand scharf abgebildet würde, die Leinwand aber weiter weg ist.
Dass die Nah-Akkomodation (hier im Forum oft als Fokussierung bezeichnet) keine wesentliche Rolle spielt, wird auch dadurch offensichtlich, dass Menschen jenseits 45 bis 50 Jahren Lebensalter sehr wohl 3D-Projektionen genießen können, obwohl ihre Akkomadation deutlich eingeschränkt ist.
Welche neurosensorischen Leistungen für das Stereo-Sehen erbracht werden und welche Mechanismen dabei angesprochen werden, füllt Bücherregale...
0
teorema67
teorema6708.06.23 10:50


300 bis 600 USD pro Gläserpaar. Ein Schnäppchen!

Natürlich keine Gleitsicht möglich in dieser Preisregion, wozu auch.
Rassismus ist, überall Rassismus zu wittern, wo keiner ist, und damit echten Rassismus zu bagatellisieren. (Dieter Nuhr)
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.