Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

OpenGL in Mac OS X bald Multi-Core-optimiert?

Einem Bericht auf Inside Mac Games zufolge, besitzt das mit den Mac Pro ausgelieferte Mac OS X ein verbessertes OpenGL. Dabei soll es sich um eine Multi-Core-optimierte Version handeln, die nicht mehr mit dem Programm in einem Prozessorkern abgearbeitet sondern separat auf einem zweiten Prozessorkern ausgeführt wird. In einem sehr bekannten Online-Rollenspiel, gemeint ist vermutlich World of Warcraft, erreicht der Mac Pro mit der neuen OpenGL-Version in manchen 3D-Szenen statt 60 stolze 130 Bilder je Sekunde. Inside Mac Games geht davon aus, dass die Multi-Core-optimierte OpenGL-Version schon mit Mac OS X 10.4.8 in allen Macs Einzug halten könnte. Allerdings könnte sich Apple diese Version auch bis zum Erscheinen von Mac OS X 10.5 Leopard aufsparen. Weiterhin ist unklar, welche Anforderungen an die Grafikkarte gestellt werden, um in den Genuss der neuen OpenGL-Version zu gelangen. Im Gegensatz zu normalen OpenGL-Versionen müssen in diesem Fall aber auf jeden Fall die Programme angepasst werden, was laut Inside Mac Games bereits bei mehreren Entwicklern geschieht.

Weiterführende Links:

Kommentare

borny8816.08.06 12:08
wow klngt geil
0
Michael Lang16.08.06 12:17
Naja, zumindest scheint sich in Punkto Grafik/3D ja mal endlich was zu bewegen. Wäre wirklich schön, wenn OGL und damit §D-Anwenungen und in erster Linie Spiele von MultiCore profitierten würden.

Dann hätten die Pros doch endlich einen Sinn!!
- Das größte Maul und das kleinste Hirn,wohnen meist unter derselben Stirn. - Hermann Oscar Arno Alfred Holz, (1863 - 1929), deutscher Schriftsteller
0
Lolipoldie16.08.06 12:30
Spielen auf dem MacBook und dem INTEÖ Core DUO - jucheee!
0
flippidu16.08.06 12:34
Ich fände es aber auch gut, wenn Apple sich auch um die OpenGL Optimierung bei PPC Single kümmern würde.
0
thomas scherer
thomas scherer16.08.06 12:44
und wenn dann noch cad-programme wie solidworks endlich für mac angeboten würden.
0
PowerPC
PowerPC16.08.06 12:45
flippidu: Würd ich auch aber beim Stand der Graphikleistung vom Mac OS muß man wohl schon zufrieden sein wenn es auf überhaupt irgendeinem Rechner akzeptabel läuft. Möglicherweise tut sich ja mal was wenn wir die Phase des künstlichen Schlechmachens des PPCs zur Switch Rechtfertigung endlich hinter uns haben aber das ist wohl genauso Wunschdenken wie die Hoffnung das ATI irgendwann mal mit Treibern rauskommt die wenigstens einen Teil der Leistung entfalten wie die für Win32
0
jogoto16.08.06 13:18
Darf ich als absoluter Nicht-Spieler mal vorsichtig fragen, was Bilder jenseits von 25 pro Sekunde eigentlich bringen, wenn der Mensch sie nicht verarbeiten kann?
0
Agrajag16.08.06 13:24
jogoto: Ich hatte dazu schon mal in diesem Thread javascript:comment('14140') was geschrieben.
0
shakebox16.08.06 13:25
@jogoto:
oha, vertue Dich da nicht. Der Mensch kann sehr wohl hoehere Frameraten 'verarbeiten'. Nicht umsonst gibt es nirgends 25fps! Im Fernsehen laeuft Video mit 50fps (zeitlich versetzte Halbbilder)!

Im Kino laeuft Film mit 24fps (eigentlich 48fps, weil jedes Bild zur Flickerreduktion 2x gezeigt wird), das sieht man dann aber dementsprechend auch. Schnelle Schwenks und Bewegungen, wie sie gerade in grafikintensiven Spielen ja oft vorkommen, ruckeln im Kino heftigst! Von daher sind hoehere Frameraten sehr hilfreich, vor allem wenn man nicht nur konsumiert wie bei Kino/Video, sondern selbst agieren/reagieren muss wie bei Spielen.
0
Agrajag16.08.06 13:26
Na, dann eben so: In den Kommentaren zu dieser News
0
shakebox16.08.06 13:38
und noch ne Ergaenzung:

es geht bei den Werten ja nicht um die Minimalleistung in nem Spiel. Die Werte zeigen halt wieviele Reserven die Karte noch hat. Und es gibt in solchen Spielen sehr wohl auch immer wieder kurze, sehr aufwaendige Momente wo der Wert dann deutlich unter diese Mittelwerte rutscht. Und gerade in solchen oft hektischen Momenten mit vielen Objekten/Gegnern will man ja dann nicht ploetzlich nur noch 5-10fps haben.
0
jewi
jewi16.08.06 13:41
wird ja auch irgendwie zeit...
0
jewi
jewi16.08.06 13:43
hatte letzt in wow 5-7 bilder... das macht laune... wie im daumenkino XD allerdings auf nem g4 800
0
Mr BeOS
Mr BeOS16.08.06 14:17
Evtl.
http://www.youtube.com/watch?v=ggCODBIfWKY ..... “Bier trinkt das Volk!“ - Macht Claus Nitzer alkoholfrei
0
randfee16.08.06 15:00
das mit dem Ruckeln hat noch keiner richtig beschrieben. Es stimmt, dass ab so 25 Bildern pro Sekunde, der Mensch kein Flackern mehr erkennt, daran gibt es nix zu rütteln.
Was ihr (die Spieler, die nach 1000fps lechzen) nicht versteht ist Folgendes:

Wichtigster Unterschied: Motion Blur!
Ein Film mit 25fps kommt jedem vollkommen flüssig vor, aber es besteht ein Unterschied zur Realität. Fährt ein schneller Zug an dir vorbei und schaust du auf den Boden, so sieht der Zug genauso aus, wie er von Kamera aufgenommen im Film aussieht, durch Motion Blur verwischt in Richtung der Bewegung. In der Realität kannst du aber das Auge mit dem Zug bewegen und somit den Zug scharf sehen, unverwischt, solange er nicht auch noch viel schneller wird als deine Reaktionsfähigkeit. Das kannst du beim Film versuchen, aber die einzelnen frames sind immer noch verwischt, also siehst du den Zug nie wieder scharf.

Bei einem Computerspiel ist das anders. Es werden x fps gezeichnet, die alle 100% scharf sind. Gedankenexperiment. Der Rechner schafft 25 Bilder pro Sekunde. 25 Bilder pro Sekunde heißt, ein jedes Bild ist 40ms (=0.04Sekunden) lang zu sehen. Bewegt sich ein Objekt nun schnell oder bewegt sich die Kamera schnell relativ zu einem Objekt, sagen wir 1000 pixel in der Sekunde, so bewegt sich das Objekt pro Bild 40 Pixel weit über den Monitor. Die Bilder sind aber scharf, d.h. wenn ein Punkt sich mit der Geschwindigkeit über den Monitor bewegt so werden nur 25 Punkte auf einer gedachten Linie von 1000 Pixel länge ausgegeben. Das Gehirn sieht diese Punkte einzeln, weil dazwischen halt nie ein Punkt war auf dem Monitor. Hier kommt Motion Blur ins Spiel.
Wird auf einem Bild nicht nur ein Punkt sondern ein 40 Pixel langer Strich abgebildet, so kann das Gehirn nicht sagen, ob der Punkt dort entlang geflogen ist oder ob es Striche sind.... ergo: das Bild ruckelt nicht!

AABER, wie ich schon sagte, man könnte sich ja in der Realität dazu entscheiden sein Auge mit dem Objekt mitzuführen, was wiederum das Motion Blur auf den Hintergrund übertragen würde und wir würden wieder den Punkt statt der Linie sehen. Dies kann man also nciht in einem Computerspiel machen, weil der Rechner nicht wissen kann, worauf man gerade schaut.

Folglich ist die beste Lösung wie in der Realität auch, quasi unendlich viele Frames pro Sekunde darzustellen, jedenfalls so viele, dass das schnellste Objekt/Bewegung sich maximal 1Pixel pro frame über den Monitor bewegt.

Viele Spiele werden ja demnächst Motion Blur einsetzen, was auch ein cooler Effekt ist, welcher z.B. sehr gut vertuschen kann, dass die Grafikkarte nicht hinterherkommt, aber ich bin noch skeptisch, ob man dadurch nicht unnötig Kopfschmerzen bekommt, eben weil man nicht selber entscheiden kann, was man scharf sieht!


Zum Thema:
Ich hoffe sehr, dass Apple an der Verbesserung der 3D Performance arbeitet. Wenn es nach mir ginge, würde dem MacBook Pro auch ne X1800 verpasst, weil ich mir nach dem Merom update eins kaufen will und damit auch spielen will.j
0
shakebox16.08.06 15:14
> Es stimmt, dass ab so 25 Bildern pro Sekunde, der Mensch kein Flackern mehr erkennt, daran gibt es nix zu rütteln.

Sorry, aber so stimmt das nun wirklich absolut nicht. "Flackern" sieht der Mensch noch viel mehr! Sonst wuerden nicht so viele Leute sich beschweren wenn sie an nem Roehrenmonitor sitzen der z.B. nur 60Hz hat. Das flackert deutlich!

Ums Flackern geht es aber bei den Spielen ja auch gar nicht, sondern um fluessige Bewegung. Ab 20-25fps etwa faengt der Mensch an, Einzelbilder nicht mehr aufloesen zu koennen und ne kontinuierliche Bewegung zu sehen.

Aber selbst mit dem Motionblur den ne Film/Videokamera ja aufzeichnet reichen die 24fps von Kino oft nicht aus, was ich hier taeglich beim Job oft genug erlebe. Und Fernsehen hat wie erwaehnt nicht umsonst 50fps (wenn man zaehlt wie oft ein neuer Bildinhalt kommt). Das haette man sicher nicht gemacht wenn der Mensch abrupt bei mehr als 25fps keinen Unterschied mehr sehen wuerde!
0
shakebox16.08.06 15:42
@randfee
ok, an einer Stelle hast du natuerlich recht, da war ich zu voreilig. Film im Kino ruckelt bei schnellen Bewegungen trotz 24fps natuerlich deshalb noch, weil beim Dreh ja zwar mit 24fps gedreht wird, aber aufgrund des Shutters nur ne 1/48s belichtet wird. Und damit hat man natuerlich auch nicht den vollen Motionblur von 1/24 sondern viel weniger.

Trotzdem gibt es natuerlich nen Unterschied zwischen Bewegungs-Ruckeln und Flackern.
0
randfee16.08.06 15:56
@ shakebox

Ja, das Flimmern-Flackern meinte ich nicht. Der Röhrenmonitor tastet halt die Leuchtschicht mit nem Elektronenstrahl ab und regt diese zum Leuchten an. Zieht er weiter zum nächsten Punkt usw. usw. verliert der erste Punkt immer weiter an Leuchtkraft, das Bild "flimmert". Das kann man natürlich noch erkennen.
Bei einem Video oder Spiel ist das aber nicht der Fall! Das Flimmert nur, wenn die Auszeit zwischen den Frames hoch ist. Eine Leuchtstoffröhre ohne Hochfrequenzteil flimmert auch mit 50Hz vor sich hin. Ist es eine gute, sieht man das auch kaum, nimm dann aber mal ein Seil, mach ein Gewicht dran und schleudere es im Kreis. Du wirst sehen, dass du das Teil am Ende abschnittsweise definiert siehst, die Linie der Umlaufbahn ist zerhackt. Es ist alles eine Frage der Geschwindigkeit. Bei konstanter Ausleuchtung ist die Wiederholrate allerdings total egal zum Nicht-Flimmern.

Zum Thema Interlaced... das mit den 50 Halbbildern wurde nur gemacht, weil man nicht genug Bandbreite hatte um 25 Vollbilder schnell genug zu übertragen... gg

25fps sind für Menschen immer flüssig, da ruckelt garnix... nur scharf sind sie bei Bewegung nicht, bzw. Computerspiele sind zu scharf. Man lese, was ich vorher schrieb.
0
Dieter16.08.06 20:15
130 Bilder / sekunde bei einer Bildwiederholrate von wie viel hat ein CRT und wie sind die Schaltzeiten beim TFT? ... (?)(?)
0
randfee17.08.06 02:09
CRTs haben variable Wiederholraten, Standard ist 100Hz, das ist dann wirklich sehr gut...

TFTs machen alle 60 und das ist auch völlig ausreichend. Irgendwann, wenn man einfach nicht mehr weiß wohin mit der Leistung, dann kann man die Displays flotter machen! gg
0
morpheus
morpheus17.08.06 08:05
Die 25 Bilder beim TV sind in Europa entstanden, weil die Strom in einer 50 Hz Frequenz fliesst! In den USA z.b. mit 60 Hz, deshalb hat NTSC auch 60 (Halb)Bilder pro Sekunde.
Das nur mal so nebenbei. Im übrigen scheint mir das Argument 1 Pixel pro Frame einleuchtend, wenn der Bildschirm das mitmacht. Ich kenne Gamer die schwören auf die "Röhre".
Coffee is always the solution
0
jogoto17.08.06 09:00
Danke für die vielen Antworten. Nun sehe ich ein bisschen "schärfer".
0
Thomasgo17.08.06 10:27
Danke auch von mir für diesen sehr informativen Thread.

Man lernt ja noch eine ganze Menge auf MTN
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.