Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Nvidia arbeitet an ersten GPGPUs für den Mac

Wie AppleInsider in Erfahrung gebracht haben will, arbeitet Nvidia momentan an ersten GPGPUs für den Mac. Bei den GPGPUs handelt es sich um eine neue Generation von Grafikprozessoren, die Aufgaben übernehmen können, die normalerweise von der CPU ausgeführt werden. Somit lassen sich auch Programme beschleunigen, die vorher nicht von einer Grafikkarte profitieren konnten, sofern die Entwickler entsprechende Optimierungen vorgenommen haben. Um die Rechenpower nutzen zu können, müssen Anwender auf die mitgelieferte C-basierte CUDA-Entwicklungsumgebung zurückgreifen. GPGPUs sind zum Beispiel in den Bereichen Raytracing, Number Crunching, wissenschaftliche Anwendungen, Kryptografie, Physiksimulationen sowie Video-, Audio- und Bildbearbeitungen sehr sinnvoll und bringen teils beachtliche Geschwindigkeitssteigerungen. Je nach Anwendungsbereich sind Steigerungen um Faktor 400 möglich, wobei es sich dabei natürlich nur um ganz bestimmte Aufgaben handelt. Wenn Angebote wie diese für den Mac erscheinen, ist es recht wahrscheinlich, dass Apple eine neue BTO-Option für den Mac Pro bietet, da GPGPUs in erster Linie auf den professionellen Markt abzielen. Wann die ersten fertigen Produkte auf den Markt kommen, kann momentan noch schwer abgeschätzt werden. Dem Bericht zufolge arbeitet Nvidia aber gerade daran, Kartentreiber für OS X zu erstellen.

Weiterführende Links:

Kommentare

locoFlo24.01.08 21:18
Wirklich um den Faktor 400?
Oder etwa um 400%?
Nobody dies as a virgin, life fucks us all. KC
0
Fenvarien
Fenvarien24.01.08 21:23
Das sind dann ganz spezialisierte Anwendungsbereiche; man wird nicht einen Film in einer Sekunde statt 400 rendern können
Up the Villa!
0
SK8T24.01.08 21:25
irgendwie,
mir machts den anschein, als wird die Grafikkarte die CPU bald völlig ersetzen wenn das so weitergeht Oo
0
locoFlo24.01.08 21:37
Also doch Faktor 400. Krasse Sache.
Nobody dies as a virgin, life fucks us all. KC
0
Trystan
Trystan24.01.08 21:45
Wirklich interessant wäre meiner Meinung nach, welche Aufgaben denn von so hohen Leistungssteigerungen profitieren. Eine 3D Szene rendern wäre wahrscheinlich zu allgemein, aber wäre es möglich, dass beispielsweise ein Algorithmus für die Lichtbrechung schneller berechnet werden könnte?
0
planetexpress69
planetexpress6924.01.08 21:52
So neu ist die Idee nicht, die GPU komplexe Dinge außerhalb von Grafik berechnen zu lassen: http://www.nvidia.com/object/cuda_home.html
0
pixler24.01.08 21:52
Ich denke das ist keine neue Idee. Sowas gabs schon als DSP Chips auf PCI Karten, für Audio und Videoapplikationen. Ich erinnere mich da an eine Karte namens ICE die einzelne AfterEffects Effekte um das 10 x beschleunigte.
Ich habe hier immer noch einen Renderdrive rumstehen...einen PC mit 16 Render CPU's welche auf einer PCI Karte untergebracht sind. Gab es eine weile lag auch als PCI Karte für den Mac.

Neu ist sicher das dies nun von verschiedenen Apps genutzt werden kann...aber eine heftige Softwareanpassung wird das mit Sicherheit nach sich ziehen.

Nun kommt es auf den Preis an. Bisher waren solche "CPU/DSP-Karten" sehr teuer....ich musste leider feststellen das sich die spezial renderlösung für mich nicht lohnte...ich hätte das geld besser in paar billige "standard" renderknechte investiert....die sind nämlich flexibler per software upzudaten als solche speziallösungen.
0
Tirex24.01.08 22:11
also für spiele bringt das eher weniger?
0
Johloemoe
Johloemoe24.01.08 22:35
imho schiesst der Artikel n bisschen übers ziel hinaus.
GPGPU sind genau das, was der Name verrät. Grafikprozessoren die für andere Zwecke missbraucht werden... Das Framework von nVidia (CUDA) respektive ATi (CTM) gibt es schon länger. Dafür sind auch keine neuen Chips notwendig, verschiedene GPGPU-Programme laufen auf aktuellen Grafikkarten. Zum Beispiel gibt es für das Projekt Folding@Home einen Client, der bestimmte Operationen auf einer ATi-Grafikkarte durchführt.. Natürlich bedeutet ein neuer Grafikchip auch mehr Rechenpower sowie meist auch mehr unterstützte Befehle, was die GRafikkerne noch besser nutzbar macht.

Stovao
Doch für Spiele hat das auch sinn, z.B. ATi wirbt z.Zt. heftig für Physiksimulationen auf der Grafikkarte. Dabei soll man dann (entsprechendes Kleingeld vorrausgesetzt) im Crossfire-Verbund 2 Grafikkarten zur Grafikberechnung benutzen, während sich eine nur um Physik kümmert.
0
phijen
phijen24.01.08 23:51
finde ich ehrlich gesagt komisch, dass das ding im extremfall 400 mal schneller ist als ne cpu.
0
Namedrop25.01.08 07:57
Klar doch, an der ersten GPGPU für Mac. Die meinen wohl für x86 mit MacTreibern....
0
gnorph25.01.08 09:13
Sorry, aber der Bericht ist so falsch!

GPGPU ist keine GPU, GPGPU steht für "General-Purpose Computation using the GPU", d.h. es ist eine Methode, wie man die GPU für allgemeine Anwendungen verwenden kann. Das kann mit OpenGL/GLSL sein, CUDA, CTM, Cg, oder was es sonst noch so gibt. Ich mache GPGPU auf dem Mac mit GLSL schon seit 2 Jahren ...
0
iMike
iMike25.01.08 09:47
Die Idee gibt es seit die ersten Physikkarten angekündigt wurden. Profitieren kann man bei Erscheinen dieser Karten wahrscheinlich noch nicht davon. Das dauert bis die Softwareentwickler das auch unterstützen. Man kann -meines Erachtens- getrost die 1. Generation auslassen.
0
blutaermer25.01.08 09:58
in gewisser weise hat sogar apple damit angefangen GPU power auch fuer andere berechnungen bereitzustellen. sicherlich war apples ansatz nie soweit gefasst, so generalisierend und naeher am eigentlich aufgabengebiet der GPU, aber sie haben zuerst einen framework dafuer bereitgestellt und damit 'massentauglich' gemacht.
0
Johloemoe
Johloemoe25.01.08 10:34
blutaermer
wär schön wenn du uns sagst was du meinst

gnorph
Naja, der Begrifff kann durchaus zweideutig aufgefasst werden. Ich kenn ihn eigentlich als "General Purpose Graphics Processing Unit". Und dann passt der Name wieder.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.