Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Intel sieht das Ende von Grafikkarten kommen

Wie Ron Foster, Intel-Entwickler für Grafik, im Gespräch mit TG Daily erklärt, sind die Tage von Grafikkarten gezählt. Den Grund dafür sieht er in den Multi-Core-Prozessoren, welche dank ausreichender Leistungsreserven seiner Meinung nach die Multi-Core-GPUs der Grafikkarten ablösen werden. Dadurch werde es in Zukunft vermutlich keinen Bedarf mehr für Grafikkarten geben. Dies demonstriert er auch sogleich mit einer 3D-Simulation, in der KI, Grafik und Physik von einem Nehalem-Prozessor mit insgesamt vier Prozessorkernen berechnet wird. In diesem Zusammenhang stellt er auch die ökonomischen Vorteile dieser Variante der 3D-Berechnung hervor, da der Prozessor hier dank vieler Prozessorkerne effizienter zu Werke gehe als eine Grafikkarte, was sich besonders bei komplexen Szenerien bemerkbar mache.

Weiterführende Links:

Kommentare

trixter04.04.08 10:54
Da muss sich Nvidia ja was einfallen lassen. AMD/ATI ist da besser dran
0
Inqui04.04.08 10:54
Solange die FPS nicht den Wert einer nativen Grafikkarte übertrifft, ist es nur für Officerechner und den 0815-Wald-und-Wiesen-Surfer interessant. Und letztere kaufen eh nur nach "Preis" :
0
Inqui04.04.08 10:55
wo kommt das dumme smiley her ?
0
RA/pdx
RA/pdx04.04.08 10:56
Also wenn ich mir den dazugehörigen Film ansehe welcher eine Demo mit durchschnittlicher Grafik und nur 17-18 fps zeigt (und das trotz 8 Kernen), dann ist es mit dem Ende der Grafikkarten wohl noch ein bischen hin.
Wobei ich mir diese Entwicklung über einen mittel- bis langfristigen Zeitraum durchaus vorstellen kann, wenn den Grafikkartenherstellern nicht etwas bahnbrechendes einfällt.
0
Gooch
Gooch04.04.08 10:59
hä? diese meldung kam schon vor ein paar tagen bei PCGH.de ()
naja... manche leben eben in eine höhle.
life is better in racesuits
0
_schäfchen04.04.08 11:07
Das schreibt ja der richtige...
0
void
void04.04.08 11:07
Ich hab schon vor einiger Zeit ne Aussage von AMD gelesen, die im Prinzip das gleiche andeutet. Plan ist es je nach Bedarf x/n Kerne der Grafik und (n-x)/n Kerne der "regulären" Arbeit nachgehen zu lassen. So würden die meisten Kerne in Spielen als Pseude-GPU dienen, während beim Encoding der Großteil als normale CPU funktioniert.
Meiner Meinung nach eine gute Entwicklung, die die Leistung von Computern dynamischer macht.
Developer of the Day 11. Februar 2013
0
Christian Fries04.04.08 11:12
Dann wird es statt Grafikkarten eben Prozessorkarten geben mit denen man die Anzahl der Kerne erweiteren kann - so wie man es für manche Anwendung jetzt schon mit Grafikkarten tut...
0
teorema67
teorema6704.04.08 11:19
Rückkehr zu den Ursprüngen. Meine Macs hatten bis Ende der 1990er Jahre (PB 1400) keine Grafikkarten und jetzt (MBA) wieder keine.
Rassismus ist, überall Rassismus zu wittern, wo keiner ist, und damit echten Rassismus zu bagatellisieren. (Dieter Nuhr)
0
Gerhard Uhlhorn04.04.08 11:22
Schon heute ist die Onboard-Grafik besser als ihr Ruf. Das neue Tomb Raider läuft entgegen aller Erwartungen ziemlich gut auf den MacBooks und Mac minis. Noch einen kleinen Schritt, und die Onboard-Grafik erreicht die Leistung von nativen Grafikkarten, bzw. wird sie überflügeln.
0
Alanin04.04.08 11:31
ich sehe den großen vorteil darin, dass man jeweils nach bedarf die power bekommt, die man braucht - codiert man medien - rechnen halt alle CPU dort mit, braucht man sound, springt eine cpu für den sound ein, mit der grafik das gleiche - ein spiel mit guter physik nimmt sich einfach ein oder zwei cpu für die physik und so weiter...
0
ts
ts04.04.08 11:40
Wenn man sich die momentane Leistung von integrierten Grafikchips anschaut wird deutlich, dass diese keineswegs mit modernen GraKas messen können.

Die GraKas sind schneller, weil sie sich auf bestimmte Anwendungen beschränken. Auf dem Beispielvideo sieht man z.B. gut, dass ohne Texturen und nur mit wenigen Polygonen gerade mal 15 Bilder pro Sekunde geschafft werden (Zeitindex 2:42) und angesichts dieser Demo glaub ich die Aussage kaum.

Anders sieht es natürlich aus, wenn in ferner Zukunft von OpenGL auf Strahlenverfolgung umgestellt wird. aber bis diese Polygonzahlen erreicht werden, dauert es wohl noch eine ganze Weile.
0
iMike
iMike04.04.08 11:44
Man kann es auch anders sehen. Eine niedriger getaktete GPU leistet mehr als 4 Prozessoren mit jeweils 2 Kernen. Zu beachten ist auch das detaillierte Wireframe- Modell
0
trixter04.04.08 11:48
noc imike, schau mal wie das monster 9800gtx aussieht, wieviel strom und welche umgebung man dafür braucht um die power zu bekommen, das ist bald kaum zu bezahlen (strom)


0
Alanin04.04.08 11:51
ich denke das ganze ist eher ein prove of concept - wie viel haben denn grafikkarten am anfang ihrer entwicklung geleistet? doch wohl auch nicht mehr als die multicore cpu im grafikbereich im moment...

ich finde das konzept gut und wirklich interessant und hoffe, dass daraus mehr werden kann...
0
Alanin04.04.08 11:52
aus "kann" wird "wird"...
0
vadderabraham04.04.08 11:55
Das ist ungefähr genauso eine blödsinnige Behauptung wie DSPs werden von CPUs abgelöst. ICh weiß nicht was sich Intel bei so einem Schmarrn denkt. GPUs sind auf Ihre Aufgabe hochspezialisierte Rechenwerke, genauso wie DSPs etc. Eine CPU ist ein Allrouns-Talent kommt aber nicht an die Leistung solcher Spezialchips heran. Totaler Quatsch!
0
DerOwie
DerOwie04.04.08 11:56
Es werden auf jeden Fall weniger Grafikkarten gebraucht, da alles immer integrierter wird. Von daher ist die Strategie gut und begrüßenswert.

Aber im großen Spiele/Videoschnitt-Computer wird uns noch viele Jahre eine Grafikkarte beehren, da bin ich mir recht sicher.
0
Resistance04.04.08 11:57
War klar das Intel das so sieht.

Besonders, nachdem AMD ja nun ATi an der Backe hat.

Bei aller Prozessorpower sollte man eine Sache nicht vergessen (eigentlich den Hauptgrund, warum es Grafikkarten gibt):
Die Speicheranbindung ist (bisher jedenfalls) ein erheblicher Flaschenhals wenn man diese mit der Archtitektur vergleicht, die man auf einer Grafikkarte vorfindet.

Das Grafikkarten nun inzwischen echte eigene Prozessoren sind ("GPUs") liegt nur daran, daß diese durch die komplexeren Aufgaben wie 3D viel mehr können muß, daß man sonst (huch!) wieder die Daten von der CPU berechnen lassen müßte und dann via Systembus in die Grafikkarte bringen müßte.

Das ein Prozessorhersteller das Ende der Grafikkarten herbeibetet um diese durch CPUs zu ersetzen ist völlig klar...

Amüsant ist die Blickrichtung von der anderen Seite. Hier sehen die GPU-Hersteller (wen wunderts) das Abwandern von Aufgaben auf die GPUs die ja viel Leistungsstärker für bestimmte Spezialanwendungen sind (bieten beide an, ATi + Nividia).

Fazit: Viel heiße Luft um nix. Absolut gesehen macht weder das eine noch das andere Sinn und es bleibt so wie es - zumindest auf absehbare Zeit...
0
macfreakz04.04.08 11:59
cool, dann werden meine Macbooks & die Mac minis zum Zocker ...
0
bluefisch20004.04.08 13:00
Ich will sehen wie jemand mit nem Nehalem Crysis spielt
0
SignorRossi04.04.08 13:12
Ich hab schon vor 2 Jahren zu meinen Schulkollegen gesagt, dass die CPU in Zukunft auch die Grafikkarte ersetzen wird und hab mir aus Protest ein MB statt einem MBP gekauft (außerdem waren mir 15 Zoll zu groß ) Mein nächstes Notebook wird ein MBA...
0
Andreas Hofmann04.04.08 14:40
Leider habt ihr etwas zum Hintergrund vergessen, was Intels Meinung nicht mehr so sehr als reines Marketing-Gewäsch erscheinen lässt.

http://www.heise.de/newsticker/Intel-entwickelt-Raytracing-Engine-fuer-Computerspiele--/meldung/94619/

Intel hat nämlich eine Echtzeit-Raytracing-Engine für Spiele entwickelt. Beim Raytracing wird ganz anders vorgegangen als beim qualitativ schlechteren Shading, es ist die Stärke von CPUs. Mehr noch, mit zunehmender Detailtreue gewinnt Raytracing immer mehr. Intel könnte also recht behalten, und wenn Grafikkartenhersteller kein anderes Feld finden, könnte ihnen in der Tat bald die Geschäftsgrundlage wegbrechen. Glücklicherweise ist Apple da ja mit Core Image/Video/Animation und Vista enthält auch Technik in der Richtung. Grafikkarten-Hersteller tun gut daran, sich dem mehr zuzuwenden, als bisher.
0
pj304.04.08 14:49
solange apple die treiber nicht optimiert, bleibt das alles zukunfsmusik.
onboard grafik ist grauenhaft
0
Thomasgo04.04.08 15:47
Nun, wer sich ansieht, was beispielsweise das OpenRT-Projekt der Uni Saarbrücken macht und was allgemein die Raytracing-Entwicklung angeht, der kann schon auf den Gedanken kommen, dass

1. Raytracing in Zukunft die 3D-Welt beherrschen wird, weil es wesentlich effizienter ist, wenn ein gewisser Detailgrad erreicht wird und

2. CPUs mit diesen RT Jobs deutlich besser zurecht kommen und folglich

3. die CPUs mit dem aufkeimen von RT einen deutlichen Wettbewerbsvorteil bekommen werden.
0
dan@mac
dan@mac04.04.08 16:45
An sowas hat IBM mit dem PPC übrigens schon länge gearbeitet: http://www.youtube.com/watch?v=lr-R4bUZIQw
0
iMike
iMike04.04.08 16:49
Wenn ich Raytracing höre denke ich immer etwa 10 Jahre zurück und hab das Bild vor Augen wie mein PC mehrere Stunden an einem Bild gerechnet hat.
0
SGAbi200704.04.08 17:08
Ich glaube ihr unterschätzt Intel ganz gewaltig, auch weil ihr in eurem OnBoard-Grafik-Hass gar nicht merkt, wie Leistungsfähig die Teile mittlerweile sind und dass Intel immerhin Marktführer bei Grafikchips ist. Eine gewaltige Menge Menschen brauchen nämlich schon heute keine hochgerüstete Grafikkarte...

Wenn man sich die Gesamtentwicklung der Computerchips anschaut, so ist schon immer ein ewig währender Trend hin zur größtmöglichen Integration bzw. dem OneChip-System zu erkennen. Intel kann ja auch die SSE-Befehle auf Grafikbefehle erweitern, dann werden aus den reichlich vorhandenen Prozessorkernen zunehmen ernstzunehmende Grafikkartenkonkurrenten.

Das ist natürlich keine Entwicklung, die in den nächsten zwei Jahren ablaufen wird, aber sie wird mittelfristig kommen, weil außer NVIDIA eigentlich kein Unternehmen mehr am Markt ist, dass ein Interesse an reinen GPUs hat.
AMD hat sich ja ATI eingekauft um zum einen eigene Chipsätze anbieten zu können und natürlich auch, um Grafik-Know-How zu haben, welches die Entwicklung von integrierten Grafiklösungen beschleunigt bzw. hilft den Rückstand auf Intel zu verringern.
0
Swentech04.04.08 18:04
Intel fragt sich wahrscheinlich; Wohin mit der ganzen Leistung?
Bisher war es ja immer so, das der Prozessor langsam war und die Grafikkarte Funktionen mit übernehmen musste, um die CPU zu entlasten.
Heute sind die CPU´s schneller und die Grafikkarten bremsen die gesamte Computer Leistung aus.
Ich denke auch, es geht schneller, wenn alles zusammen von der CPU übernommen wird.
Grafikkarten arbeiten immer noch mit langsamen stromfressenden GPU´s in 130 bezw. 90 nm Strukturen.
Alleine der Datenweg von der CPU zur Grafikkarte ist so lange, das die CPU warten muss bis sie wieder Daten schicken kann. ( Nadelöhr )

0
monstar-x04.04.08 18:07
@Gerhard Uhlhorn das von dir als "neu" bezeichnete Tomb Raider ist Grafisch auf einem Stand von vor ca. 5 jahren. Ich weis nicht genau welche engine Tomb Raider verwendet (vermutlich etwas eigenes von EA) doch es ist nicht mal in der Lage einen Kreis dazustellen, der sieht naemlich aus wie ein 16eck, die Texturen sehen matschig aus. In Crysis oder anderen neueren Spielen schaft die Intel Onboard Grafikkarte X3100 nicht mal ein Frame pro Sekunde. In 3Dmark sieht es nicht besser aus weniger um die 500 Punkte eine 8800 schaft 14.000 das ist mehr wie die 25x Leistung, ohne das die CPU Messungmit einfliesst sieht es noch schlechter aus.

Fazit: Nur weil ein Spiel das neu auf dem Mac ist allerdings eine derart geringe Polygone Anzahl hat das es nicht in der Lage ist einen Kreis darzustellen, heist es nicht das die Grafikkarte etwas taugt.
Von Antialiasing + Ansitropic Filtering will ich erst gar nicht anfangen.
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.