Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Hardware
>
Grafikkarten für Dummies: Wofür ist viel RAM gut?
Grafikkarten für Dummies: Wofür ist viel RAM gut?
Weia
25.08.18
11:51
Hallo an alle,
ich will meine Classic Mac Pros Mojave-fähig machen, muss sie also mit Metal-fähigen Grafikkarten aufrüsten. Die klare Empfehlung von Apple für diesen Zweck ist die Radeon RX 580.
Nun waren mir Grafikkarten immer relativ schnuppe, sie sollten leise sein und nicht frühzeitig ausfallen und gut. Daher habe ich keinen rechten Plan von den Dingern, sehe aber, dass es die RX 580 bei etlichen Herstellern mit 4GB oder 8GB RAM gibt.
Beim CPU-RAM gilt ja bekanntlich
Viel hilft viel
, aber wie sieht das beim GPU-RAM aus, bzw.
wobei
hilft das?
Ich spiele nicht, und 3D-Programme verwende ich alle Jubeljahre mal kurz. Bildbearbeitung und Grafik (
Affinity
,
Pixelmator Pro
& Co.), Video (
Final Cut Pro X
), Musik (
Logic Pro X
) und Mathematik (
Mathematica
) nutze ich hingegen regelmäßig und teils intensiv, und mein macOS-Windowserver schwitzt regelmäßig, weil bei mir fast immer etliche 100 Fenster geöffnet sind.
Gretchenfrage an die Hardware-Profis also: Würde ich von dem größeren RAM (8GB statt 4GB) merklich profitieren?
Vielen Dank im Voraus für alle Antworten!
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+3
Kommentare
1
2
>|
Aiyarree
25.08.18
12:06
Also GraKa RAM hat meistens Bezug zur Auflösung wegen Texturen und die fallen in erster Linie beim Spielen an.
8GB RAM sind bei 4k spielen eher unterkannte der verhandlungsbasis.
Für 2k völlig ok.
Verschiedene Cryptowährungen brauchen viel GraKa Ram zum minen. Und hochwertige CAD Programme freuen sich auch über potente GraKas. Aber wenn du bis jetzt an kein Limit gestossen bist... also dann kannst du vermutlich beruhigt die 4GB nehmen.
Hilfreich?
+2
sffan
25.08.18
12:14
Also ich hab mich noch nicht intensiv damit beschäftigt.. Denke aber die vier zusätzlichen GB sind vor allem für die Gamer interessant. Also bei vielen Texturen in hoher Auflösung (inkl. Kantenglättung?) und hoher Grafikauflösung bei Spielen.
Die Gaming Fraktion ist
der
Antriebsmotor in Sachen Grafikkarten. Auch wegen dem Potential bzgl. Stückzahl und der schnellen Erneuerung zu der die Kundschaft bereit ist. Auch die Preistoleranz ist zwar nicht so hoch wie im Profibereich, aber die Masse macht es..
Ob Deine oben aufgelistenen Anwendungen davon profitieren, kann ich nicht beurteilen. Vermutlich aber eher nicht. Höchstens bei sehr hoher Bildauflösung (Bilder) oder 4k Videos vielleicht.. Aber da können die Nutzer solcher Programme bestimmt mehr erzählen..
Wenn Du noch mitteilst:
a) Wie ist denn der Preisunterschied 4GB
8GB (würde mich interessieren)
b) Mit welcher Grafikkarte kommst Du bisher zu Rande (etwa der legendären GT120?
)?
Könnte man das vielleicht etwas besser einschätzen..
Hilfreich?
0
MikeMuc
25.08.18
12:18
Puh, das ist ja eine Gretchenfrage
Sofern Mathemathica die Karte für Berechnungen nutzt, könnte hier auch der Grundsatz „viel hilft viel“ gelten. Ich würde also die einschlägigen Programmhersteller fragen, die sollten es am besten Wissen.
Ansonsten fällt mir bei Grafikspeicher auch nur „Texturen und Spiele“ zu ein.
Hilfreich?
0
Weia
25.08.18
12:45
Aiyarree
Also GraKa RAM hat meistens Bezug zur Auflösung wegen Texturen und die fallen in erster Linie beim Spielen an.
8GB RAM sind bei 4k spielen eher unterkannte der verhandlungsbasis.
Für 2k völlig ok.
Ah, OK. Na gut, mit meinen 2560 × 1600-Cinema-Displays bin ich von 4k ja eher recht weit weg …
Verschiedene Cryptowährungen brauchen viel GraKa Ram zum minen. Und hochwertige CAD Programme freuen sich auch über potente GraKas.
Minen und CAD spielen bei mir auch keine Rolle.
Spräche so weit also für 4GB …
sffan
Wenn Du noch mitteilst:
a) Wie ist denn der Preisunterschied 4GB
8GB (würde mich interessieren)
Gute Frage!
Es gibt ja diverse Hersteller und da dann auch noch diverse Serien, ein fürchterliches Kuddelmuddel.
Bei Sapphire (Baureihe
Nitro+
, whatever this means …) kosten 4GB z.B. so um die 230€, 8GB 300€. (Kein allzu großer Unterschied, aber ich habe mehrere Mac Pros zu versorgen, und man muss ja nicht mit Gewalt unnötig Geld ausgeben.)
Bei MSI kostet die 4GB-Variante (Baureihe
Armor OC
) mit 365€ kurioserweise deutlich
mehr
als die 8GB-Variante (280€).
b) Mit welcher Grafikkarte kommst Du bisher zu Rande (etwa der legendären GT120?
)?
Radeon HD 5870 1GB (das war damals beim Kauf glaube ich die beste).
MikeMuc
Puh, das ist ja eine Gretchenfrage
Sofern Mathemathica die Karte für Berechnungen nutzt,
Tut es intensiv, ja.
könnte hier auch der Grundsatz „viel hilft viel“ gelten. Ich würde also die einschlägigen Programmhersteller fragen, die sollten es am besten Wissen.
Hm, das wäre eine Idee. Mal überlegen, ob ich so lange mit der Entscheidung warten will, bis ich von dort eine Antwort bekomme … (Ich habe zur Zeit diversen Nerv mit Supportanfragen, so à la
Frage an den Support:
Macht es ihrem Gerät etwas aus, aus dem Fenster des 3. Stocks geworfen zu werden?
Antwort (nach längerer Zeit):
Wir bedauern, Ihnen mitteilen zu müssen, dass unsere Geräte nicht für die Lagerung im Gefrierfach geeignet sind.
)
Wobei – wenn man
Mathematica
nicht wiederum zur Bild-/Videobearbeitung einsetzt (was ich nicht tue), kann ich mir schwerlich vorstellen, dass da Datenmengen im GB-Bereich anfallen …
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
Aiyarree
25.08.18
13:09
Die OC - OverClocking Karten kannst du im Prinzip ausschliessen. Selbst für Gamer ist das mehr augenwischerei als wirklicher mehrgewinn.
Die GraKa Prozessoren verwalten sich wie die CPU‘s inzwischen sehr gut selbst. Will man da noch ernsthaft mit OC was tun, braucht man ein potentes Netzteil und eine noch potentere Kühlung. Und das ganze dann wegen ein bis zwei stelligen Mhz gewinnen.
Und ob ein Programm die GPU bzw deren RAM brauchen kann, müste ein Blick in die empfohlenen System-Anforderungen doch sehr schnell klären. Die meisten nicht-profi-programme und selbst viele profi-programme verwenden die GPU erst sehr sehr zögerlich.
Und wie du sagst. Ne 580 und 4GB RAM sind ja schon ein Wort. Von irgendwelchen On-Chip-Lösungen sind wir da schon Lichtjahre weg. Und mit denen wird auch gearbeitet - und zwar nicht schlecht. Unter anderem im kleinen MacBook Pro.
Ich finde die 580er als empfehlung für ein Betriebssystem-Update ohnehin schon... recht... „üppig“. Um es mal vorsichtig auszudrücken.
Edit: Die High-End-Karte von AMD - die Vega - ist gerade mal doppelt so schnell wie die 580. Also nur mal so in relation. Über der 580 kommt jetzt nich mehr soo viel.
Hilfreich?
+1
sffan
25.08.18
13:14
Also ich hab aus Neugier mal Tante Google gefragt:
Wenn ich es richtig sehe, wird seit Version 8 von Mathematica cuda als gpu-Schnittstelle genutzt:
Ein Treffer:
Für den Spezialfall "neuronale Netze" wohl auch.
Mit "mathematica gpu accelation" kannst Du selbst weiter stöbern.
Und manche verwenden wohl auch "uraltversionen" von Mathematica. War zumindest früher nach meiner Erinnerung so. Viele haben keinen Nutzen vom ständigen Versionsmarathon und bleiben erst mal auf einer ausreichenden Version und sparen sich die Updategebühren. Aktuell ist wohl Version 11
Kann also auch Versionsabhängig sein. Also prüfen was die Version "kann", die Du einsetzt.
Also:
Wenn Du weiter auf der Ati-Schiene bleibst, kannst Du dieses (optionale) Feature nicht nutzen. Cuda ist m.E. nur über Nivida-Grafikkarten verfügbar.
Man kann das aber auch anders fomulieren: Du hast es bisher nicht vermisst (ATI), also..
Oder für Deine 4/8GB Entscheidung: 4GB sollten reichen, da keine spezielle Grafikkartennutzung (wie zb OpenCL) zu erwarten ist.
Du musst halt Dir klar werden wofür Du upgraden willst.
Nur
für Majave/Metal?
Ich würde das für die wichtigsten Programme analog machen und dann den Kassensturz durchführen..
Es sei denn die RX580 Entscheidung ist schon unwiderruflich gefallen.
Analog kannst Du das 4/8GB Problem versuchen aufzudöseln. Oft reichen die FAQ/Vorraussetzungen/Empfehlungen auf der Herstellersite (wenn dort nix steht, gibts wahrscheinlich keinen grossen Benefit) oder die richtige Suche für Deine Lieblingsanwendungen.
Hilfreich?
0
sffan
25.08.18
13:31
Ein update/Korrektur.. Kaum sucht man richtig:
Ati (OpenCL)
und
nvidia (CUDA) werden unterstützt..
Da kannst Du stöbern, in wie weit das für Dich relevant ist. Man kann ja auch selbst was an Mathematica "dranprogrammieren" und dann geht bestimmt mehr/ist das besonders interessant. Oder gibts vielleicht auch zusätzliche Plugins, die das nutzen. Das braucht aber bestimmt nicht jeder.
Hilfreich?
0
nane
25.08.18
13:47
Weia
Aus dem Stehgreif und vereinfacht ausgedrückt: Im Grafikkarten-Speicher werden je nach Betriebssystem, der genutzten Software und den damit verbundenen (genutzten) Bibliotheken 3 Verschiedene Dinge gespeichert. 1. "Buffer", 2. "Shader" und 3. "Daten".
1. Die "Buffer" unterteilen sich wiederum meist nur in Frame-Buffer und Z-Buffer. Frame-Buffer speichern grob vereinfacht die Bildschirmdarstellung also die Bildschirmauflösung und die damit verbundene Farbtiefe. Dazu kommen "antialising" Daten und auch verschiedene Buffer-Formen, wie etwa eine "double-buffering" - wieder grob formuliert, das soll die Darstellung je Anwendung und Grafikbibliothek fürs Auge "verschönern".
2. Die "Shader" sind dafür zuständig (grob formuliert) die "Tiefeninformation" der Farben pro Pixel in "aktuell" 24 oder 32 Bit Genauigkeit zu speichern. Dazu nutzen etwa Spielentwickler spezielle Bibliotheken um z.B. Schatten oder Spiegelungen "realistisch" fürs Auge darstellen zu können.
3. Die "Daten" unterscheiden sich (grob formuliert) in mathematische (geometrische) Daten, "meistens" sind das Dreiecke, Polygone sowie daraus resultierende Vektoren und "Bilder", sogenannte Texturen, die abhängig von Auflösung, Farbtiefe und der Anwendung in speziellen komprimierten Versionen gespeichert werden.
Es gilt damit die Theorie, je mehr optische "Finesse" und mathematische "Tiefe" genutzt wird, desto grösser muss der Grafikkarten-Speicher sein. Praktisch heisst das, der Grafikkarten-Speicher kann nie zu klein sein.
ABER:
Praktisch müssen diese Daten erstens berechnet werden, zweitens durch Bussysteme transportiert werden und drittens gespeichert werden. Schon hier wird klar, dass ein grosser Speicher ganz nett sein kann, praktisch aber nutzlos wird, wenn die Berechnung und der Transport der Grafikdaten zum Flaschenhals werden. Aktuell sind die Prozessoren zur Berechnung sehr ausgefeilt und bei modernen Grafikkarten der letzten 3 Jahre eher kein Flaschenhals mehr. Der Grafikkarten-Speicher ist ebenfalls in den letzten 3 Jahren günstig und superschnell geworden (GDDR4/5) und damit auch kein echter Flaschenhals mehr. Bleibt noch der Transport und hier liegt der Hase im Pfeffer. Der Transport der Daten berechnet sich aus:
x * y Pixel * xy Bit Farbtiefe * xy Bilder pro Sekunde = Datenrate in MBit/s
Da kommt also ganz schon was zusammen bei 4k Auflösungen
Unterm Strich, grösserer Grafikkarten-Speicher schadet kein Bisschen, vor allem wenn der Aufpreis minimal ist. Der Nutzen des Gesamtpaketes hängt allerdings nicht von der Grösse des Grafikkarten-Speichers ab sondern vom Betriebssystem, der Software und der damit genutzten Bibliotheken. Da die Betriebssysteme und die Software jährlich optimiert und stetig effizienter werden, spricht nichts gegen einen "zu grossen" Grafikkarten-Speicher
Ich hoffe die (grob formulierte) Darstellung der "wichtigsten" Parameter rund um den Grafikkarten-Speicher hilft etwas bei der Entscheidung.
„Das Leben ist ein langer Traum, an dessen Ende kein Wecker klingelt.“
Hilfreich?
+1
eyespy39
25.08.18
14:26
Nicht zu vergessen: Affinity z.B. nutzt metal intensiv, auch Bildbearbeitung profitiert in der Regel von mehr GraKa-RAM, da auch die gerade ausgeblendeten Bereiche eines (vergrößerten) Bildes mit gepuffert werden. Das merkt man dann schmerzhaft beim Scrollen.
Grundsätzlich gilt schon auch für Grafikkarten: „RAM ist durch nichts zu ersetzen außer durch mehr RAM“.
8 GB sind jedenfalls kein Overkill. Je nach Aufpreis würde ICH lieber etwas mehr bezahlen, wenn ich schon einmal dabei bin und das Ganze nicht nur eine Überbrückungslösung sein soll.
Hilfreich?
+1
sffan
25.08.18
18:24
Weia
Ich vermute Du hast jetzt jede Menge an Detailinfos bekommen, aber so richtig hilft das doch nicht weiter.
Oder vielleicht gräbst Du auch grad das I-net um, um Dir ein Bild über die wichtigsten Anwendungen zu machen...
Eine weitere Möglichkeit wäre erst mal eine Karte mit der präferierten Ausstattung anzuschaffen und zu sehen, wie die sich macht (Self Test).
Da Mojave noch im Beta Status ist, hast Du's es auch bis Mitte Sept. aufgeschoben.. In den Mojave Betas läuft grad was Interessantes. Die Freaks verfolgen Änderungen in der efi-Firmware des cMP5,1. Bei Interesse selbst mal schauen. Die RX580 spielt dabei auch ne Rolle.
"Probieren geht über studieren", und wenns keine Doktorarbeit werden soll, muss man dann doch den Bauch entscheiden lassen, wenn der genug Input hat. Sei es eine Flasche guten Rotweins oder ausreichend Hinweise/begründete Vermutungen. Das Erste könnte mehr Spass machen
Hilfreich?
+1
athlonet
25.08.18
18:28
Apple empfiehlt die Sapphire Radeon PULSE RX580
Da liegt der Preisunterschied zwischen dem 4GB und 8GB Modell je nach Händler bei unter 30 Euro.
4GB:
8GB:
Da würde ich nicht lange nachdenken und das 8GB Modell nehmen.
Hilfreich?
+3
gfhfkgfhfk
25.08.18
19:31
Weia
Gretchenfrage an die Hardware-Profis also: Würde ich von dem größeren RAM (8GB statt 4GB) merklich profitieren?
Sobald man die Grafikkarte als GPGPU Beschleuniger einsetzt, dann gilt je mehr RAM desto besser für die Aufgabe. Aufpassen muss man, da sowohl die aktuellen nVidia wie auch AMD Karten nur in SinglePrecision schnell sind. Die GPUs sind so konstruiert und nicht wie in der Vergangenheit per Firmware verkrüppelt. D.h. will man schnell mit Double Precision rechnen muss man auf spezielle Produkte zurückgreifen bei AMD wären dass die FirePro WX8100 oder WX9100 bei nVidia die Quadro GP100 oder GV100. Crossfire oder NVLink funktioniert unter macOS nicht.
Nachtrag: Wenn es um GPGPU Computing geht, dann sollte es eine AMD RX580 und eine nVidia Karte sein. CUDA wird sehr viel häufiger und besser unterstützt.
Hilfreich?
+1
Weia
26.08.18
07:23
alle
Danke für die vielen weiteren Hinweise & sorry, dass ich plötzlich nicht mehr geantwortet habe – aus irgendeinem Grund habe ich seit Samstag Mittag plötzlich keine Benachrichtigungs-Emails über neue Beiträge von MacTechNews mehr bekommen und war wegen Wochenende ansonsten selbst auch nicht mehr auf MacTechNews, so dass ich das schlicht nicht mitbekommen habe.
Ich melde mich später nochmal mit inhaltlichen Antworten.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
Weia
26.08.18
09:35
Aiyarree
Die OC - OverClocking Karten kannst du im Prinzip ausschliessen. Selbst für Gamer ist das mehr augenwischerei als wirklicher mehrgewinn.
Schon klar. Die MSI-Karten habe ich nur in keiner anderen Ausführung im Handel gefunden. Ist aber auch egal, da ich mich nach einigen Überlegungen eh für Sapphire entschieden habe (von Apple empfohlen & genauere technische Daten erhältlich, insbesondere was den beim Mac Pro kritischen Leistungsbedarf der Stromversorgung betrifft, der nicht über 225W liegen darf).
Ich finde die 580er als empfehlung für ein Betriebssystem-Update ohnehin schon... recht... „üppig“. Um es mal vorsichtig auszudrücken.
Mag sein, aber es ist ja nicht so, dass es aktuell im Handel preiswertere Karten gäbe, die auch Metal-fähig sind und out of the box auf dem Mac Pro laufen. Die Speichergröße ist da eigentlich wirklich die einzige Option, die Du wählen kannst.
Und verglichen mit dem, was früher (und auch jetzt noch für
gebrauchte
Karten!) für Mac-spezifische Grafikkarten (mit speziellem Mac-EFI) aufgerufen wurde, ist die 580 preislich ja ein absolutes Schnäppchen.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
Weia
26.08.18
10:02
sffan
Wenn ich es richtig sehe, wird seit Version 8 von Mathematica cuda als gpu-Schnittstelle genutzt
Ati (OpenCL)
und
nvidia (CUDA) werden unterstützt..
Ja, das ist schon klar. Sorry, vielleicht habe ich das in meiner Frage nicht deutlich genug geschrieben, aber ich habe nur Programme aufgeführt, von denen ich
weiß
, dass sie die GPU von AMD-Karten nutzen (sonst wäre die Speicher-Frage ja müßig), aber eben
nicht weiß
, wie weit sie dabei von
viel
Speicher profitieren.
Und manche verwenden wohl auch "uraltversionen" von Mathematica. War zumindest früher nach meiner Erinnerung so. Viele haben keinen Nutzen vom ständigen Versionsmarathon und bleiben erst mal auf einer ausreichenden Version und sparen sich die Updategebühren. Aktuell ist wohl Version 11
Yep, wobei ich wegen der Upgadegebühren auch noch bei der 10 bin. Der Sprung zur 10 war (für mein Bedarfsprofil) riesig, der zur 11 für mich vernachlässigbar. Das nächste Upgrade mache ich vermutlich erst, wenn Metal unterstützt wird.
Du musst halt Dir klar werden wofür Du upgraden willst.
Nur
für Majave/Metal?
Das ist jedenfalls der Anlass. Für jemanden wie mich, der über Grafikkarten normalerweise überhaupt nicht nachdenkt, lohnt es sich aber natürlich bei der Gelegenheit zu überlegen, inwieweit ich auch ansonsten von dem erforderlichen Wechsel profitieren könnte.
Ich würde das für die wichtigsten Programme analog machen und dann den Kassensturz durchführen..
Es sei denn die RX580 Entscheidung ist schon unwiderruflich gefallen.
Das ist sie mehr oder weniger. Was Billigeres gibt es eh nicht, Apple empfiehlt die Karte explizit für das Upgrade auf Metal, Apple empfiehlt die Karte explizit für
Final Cut Pro X
(ein wichtiges Programm für mich) – da gibt es eigentlich nicht viel zu überlegen.
Analog kannst Du das 4/8GB Problem versuchen aufzudöseln. Oft reichen die FAQ/Vorraussetzungen/Empfehlungen auf der Herstellersite (wenn dort nix steht, gibts wahrscheinlich keinen grossen Benefit)
Sowohl bei
Logic Pro X
als auch bei
Final Cut Pro X
stehen als Mindestvoraussetzung 256MB. Das hilft also nicht viel weiter, denn einerseits ist das VRAM also offenbar von Bedeutung, andererseits sind sowohl 4GB als auch 8GB weit jenseits von 256MB … Für
Final Cut Pro X
werden für 4K-Schnitt und 3D-Titel 1GB empfohlen.
Mathematica
macht keine Angaben.
sffan
Da Mojave noch im Beta Status ist, hast Du's es auch bis Mitte Sept. aufgeschoben..
Ich mache das Schritt für Schritt, erstmal ein Mac Pro, dann der nächste.
Eigentlich
wollte ich nächste Woche mit dem ersten anfangen. Kurioserweise ist aber das Spezialkabel, das man braucht, um eine handelsübliche Karte an die Stromversorgung im Mac Pro anzuschließen (2 Mini-6-Pin-Stecker an einen 8-Pin-Stecker, z.B.
oder
) nirgendwo in Deutschland zu bekommen und muss direkt aus China bestellt werden. Am Ende ist Mojave also schneller da als diese blöden Kabel …
In den Mojave Betas läuft grad was Interessantes. Die Freaks verfolgen Änderungen in der efi-Firmware des cMP5,1. Bei Interesse selbst mal schauen.
Da war ich natürlich auch schon.
Für die anderen hier: Apple stellt das Bootsystem in Mojave so um, dass man in Zukunft
keine
Mac-spezifischen Grafikkarten mehr braucht
, um neue Firmware-Updates zu machen. Vielleicht wirft das schon ein Licht auf den kommenden Mac Pro, in jedem Fall ist es aber eine Super-Nachricht für den Classic Mac Pro, der sich ab Mojave einfach aus den normalen PC-Grafikkarten bedienen kann.
"Probieren geht über studieren", und wenns keine Doktorarbeit werden soll, muss man dann doch den Bauch entscheiden lassen, wenn der genug Input hat. Sei es eine Flasche guten Rotweins oder ausreichend Hinweise/begründete Vermutungen. Das Erste könnte mehr Spass machen
Nicht für passionierte Cola-Trinker wie mich.
Ich habe aber bei einer Cola den salomonischen Entschluss gefasst, erstmal halbe/halbe zu machen, 4GB für den Mac Pro, auf dem praktisch ausschließlich Musik gemacht und damit
Logic Pro X
genutzt wird, von dem ich mir beim besten Willen nicht vorstellen kann, mehr als 4GB VRAM nutzen zu können (in meiner – kurzen – Forumssuche wurde nicht einmal klar, ob
Logic Pro X
über die GUI hinaus überhaupt OpenCL bzw. Metal nutzt) und 8GB für den Mac Pro, auf dem
Final Cut Pro X
und
Mathematica
laufen.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
Weia
26.08.18
10:43
nane
Aus dem Stehgreif und vereinfacht ausgedrückt: Im Grafikkarten-Speicher werden je nach Betriebssystem, der genutzten Software und den damit verbundenen (genutzten) Bibliotheken 3 Verschiedene Dinge gespeichert. 1. "Buffer", 2. "Shader" und 3. "Daten".
[…]
Praktisch müssen diese Daten erstens berechnet werden, zweitens durch Bussysteme transportiert werden und drittens gespeichert werden. Schon hier wird klar, dass ein grosser Speicher ganz nett sein kann, praktisch aber nutzlos wird, wenn die Berechnung und der Transport der Grafikdaten zum Flaschenhals werden.
Das ist ein interessanter Gesichtspunkt, was einen möglichen Unterschied hinsichtlich der Verwendung der GPU für ihren ursprünglichen Zweck (die Bildausgabe auf dem Monitor) und als zusätzliche Recheneinheit betrifft.
Denn (so stelle ich mir das als blutiger Laie zumindest vor) bei der Bildausgabe müssen die Daten ja nur
von
der CPU zur GPU fließen (und von dort dann auf den Monitor), bei der Verwendung als Recheneinheit müssen sie auch wieder zurück zur CPU. Solange man nicht Rechenaufgaben hat, die vom Buffern von Zwischenergebnissen im VRAM sehr profitieren können, gibt es bei letzterer Anwendung also den doppelten Flaschenhals.
Während andererseits (keine Ahnung, ob das wirklich so funktioniert) das Betriebssystem ja z.B. alle augenblicklichen Fensterinhalte im VRAM Buffern könnte und nur Veränderungen dieser Inhalte übertragen müsste; das Verschieben oder Nach-Oben-Holen der Fenster selbst könnte dann ausschließlich unter Verwendung der Daten im VRAM stattfinden, praktisch ohne Flaschenhals.
Läuft das so?
Falls ja: Meine Cinema-Displays haben 2560 × 1600 Pixel Auflösung und 8 Bit Farbtiefe, dann bräuchte das Buffern eines bildschirmgroßen Fensters 2560 × 1600 × 8 × 4 Bit ≈ 16MB. Nun sind natürlich nicht alle offenen Fenster gleich bildschirmgroß, andere haben dafür scrollbare Inhalte über den Rand hinaus, nehmen wir das also als überschlagsmäßigen Durchschnittswert (und da fehlt dann noch der von Dir unter Punkt 1 und ggf. Punkt 2 beschriebene Overhead). Dann könnte man in 8GB VRAM also 500 Fenster Buffern, in 4GB VRAM 250 Fenster. 500 offene Fenster bzw. Tabs schaffe ich auf meinem Arbeits-Mac Pro locker – sollte diese Rechnung also irgendeinen Sinn ergeben, so könnte ich 8GB VRAM ohne Flaschenhals CPU → GPU oder gar auch noch zurück
allein
durch die Bildschirmbufferung locker ausnutzen.
Für ein Retina-Display mit 10 Bit Farbtiefe kann man diese Werte getrost × 5 nehmen, dann wären also sogar 40GB VRAM noch allein für die Bildschirmbufferung zu gebrauchen.
Oder werden gar nicht alle Fensterinhalte gebuffert, sondern nur die gerade sichtbaren?
Dann
wären für die Bildschirmausgabe allein natürlich bereits 100MB VRAM selbst für Retina-Auflösungen genug.
Der ganze Einsatz der GPU als Recheneinheit bleibt bei diesen Überlegungen natürlich völlig außen vor, aber da kommt dann eben die angesprochene Flaschenhalsproblematik auf.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
Weia
26.08.18
11:16
eyespy39
Nicht zu vergessen: Affinity z.B. nutzt metal intensiv, auch Bildbearbeitung profitiert in der Regel von mehr GraKa-RAM, da auch die gerade ausgeblendeten Bereiche eines (vergrößerten) Bildes mit gepuffert werden. Das merkt man dann schmerzhaft beim Scrollen.
Grundsätzlich gilt schon auch für Grafikkarten: „RAM ist durch nichts zu ersetzen außer durch mehr RAM“.
8 GB sind jedenfalls kein Overkill. Je nach Aufpreis würde ICH lieber etwas mehr bezahlen, wenn ich schon einmal dabei bin und das Ganze nicht nur eine Überbrückungslösung sein soll.
athlonet
Da liegt der Preisunterschied zwischen dem 4GB und 8GB Modell je nach Händler bei unter 30 Euro.
4GB:
8GB:
Da würde ich nicht lange nachdenken und das 8GB Modell nehmen.
Tja, vermutlich habt Ihr recht, und ich hätte nicht lange nachdenken und einfach grundsätzlich die 8GB nehmen sollen. Nachdem ich aber die ganzen Beiträge ab gestern Mittag nicht mehr mitbekommen habe, habe ich für meinen „Musik-Mac Pro“ mit
Logic Pro X
jetzt die 4GB-Variante bestellt, denke aber immer noch, dass
Logic Pro X
von mehr nicht profitieren könnte (weiß es aber halt nicht).
Apple empfiehlt die Sapphire Radeon PULSE RX580
Dass Apple speziell die Sapphire-
PULSE
-Variante empfiehlt, hat übrigens einen wichtigen Grund:
Der Classic Mac Pro stellt Grafikkarten insgesamt 3 Stromversorgungen zur Verfügung: Die über den PCIe-Anschluss (natürlich pro PCIe-Karte eine) und 2 zusätzliche Stecker, an die Grafikkarten via Kabel angeschlossen werden können. Jeder dieser 3 Anschlüsse liefert maximal 75W.
Nutzt man
beide
zusätzlichen Anschlüsse, um sie
über ein Y-Kabel
in
eine
Grafikkarte zu speisen, so stehen insgesamt also 3 × 75W = 225W zur Verfügung.
Bei den RX580-Karten wird von Händlern in den technischen Daten oft unisono eine Leistungsaufnahme von 185W angegeben; das ist aber falsch, denn es bezieht sich nur auf die GPU selbst. Die Karten benötigen mehr Leistung, aber MSI z.B. gibt diese Leistung gar nicht genau an, sondern schwafelt nur pauschal etwas von einem „500W-Netzteil“. Sapphire hingegen publiziert dankenswerter Weise die genaue Leistungsaufnahme für jede ihrer Karten, und die liegt
nur
bei der
PULSE
-Version bei 225W, bei allen anderen Versionen wie
Nitro+
darüber (wenn auch „nur” 10W – 30W).
Viele Berichte im Netz über Mac-Pro-Upgrades mit der RX580 scheren sich um dieses Problem überhaupt nicht und meinen, im „Normalfall“ funktioniert es. Tut es ja auch, bis die Karte an ihre Leistungsgrenze kommt und mehr als 225W verbraucht. Dann geht der Mac Pro zwar dankenswerterweise nicht kaputt, aber er schaltet sich einfach sofort aus.
Mangelnde Zuverlässigkeit im Betrieb auch unter Volllast ist aus meiner Sicht allerdings ein No-Go.
Und deshalb kommt
nur die PULSE-Variante
der RX580 in Betracht.
Apple sieht das offenkundig genauso.
Wie schon weiter oben geschrieben: Jetzt, wo es endlich kein Problem mehr ist, eine aktuelle passende Grafikkarte für den Mac Pro zu bekommen (weil man ab Mojave keine spezielle Mac-Version mehr braucht), wird die Beschaffung des erwähnten erforderlichen Y-Kabels (2 Mini-6-Pin-Stecker an einen 8-Pin-Stecker, z.B.
oder
) zum logistischen Hauptproblem, da nur aus China mit entsprechender Lieferzeit erhältlich.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+1
Weia
26.08.18
11:28
gfhfkgfhfk
Aufpassen muss man, da sowohl die aktuellen nVidia wie auch AMD Karten nur in SinglePrecision schnell sind.
Hmmm, heißt das jetzt, sie sind in Double Precision
langsamer
oder
gar nicht
verwendbar?
Ich frage, weil
Mathematica
Double Precision voraussetzt
:
Mathematica
Um Mathematicas eingebaute GPU-Rechenfähigkeiten nutzen zu können, benötigen Sie eine Double-Precision-Graphikkarte, die OpenCL oder CUDA unterstützt (wie viele Karten von NVIDIA, AMD und anderen).
gfhfkgfhfk
Nachtrag: Wenn es um GPGPU Computing geht, dann sollte es eine AMD RX580 und eine nVidia Karte sein. CUDA wird sehr viel häufiger und besser unterstützt.
Das würde aus Gründen der Stromversorgung wie oben geschildert nicht gehen, es sei denn, die nVidia-Karte würde sich mit den 75W der PCIEe-Schnittstelle zufrieden geben, was ich kaum glaube.
Mir persönlich kann das aber egal sein, denn ich verwende kein einziges Programm, das von CUDA profitieren würde; alle setzen Metal bzw. OpenCL entweder voraus oder bieten es zumindest
auch
neben CUDA an.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
Weia
26.08.18
11:50
Weia
Während andererseits (keine Ahnung, ob das wirklich so funktioniert) das Betriebssystem ja z.B. alle augenblicklichen Fensterinhalte im VRAM Buffern könnte und nur Veränderungen dieser Inhalte übertragen müsste; das Verschieben oder Nach-Oben-Holen der Fenster selbst könnte dann ausschließlich unter Verwendung der Daten im VRAM stattfinden, praktisch ohne Flaschenhals.
Läuft das so?
Falls ja: Meine Cinema-Displays haben 2560 × 1600 Pixel Auflösung und 8 Bit Farbtiefe, dann bräuchte das Buffern eines bildschirmgroßen Fensters 2560 × 1600 × 8 × 4 Bit ≈ 16MB. Nun sind natürlich nicht alle offenen Fenster gleich bildschirmgroß, andere haben dafür scrollbare Inhalte über den Rand hinaus, nehmen wir das also als überschlagsmäßigen Durchschnittswert (und da fehlt dann noch der von Dir unter Punkt 1 und ggf. Punkt 2 beschriebene Overhead). Dann könnte man in 8GB VRAM also 500 Fenster Buffern, in 4GB VRAM 250 Fenster.
[…]
Oder werden gar nicht alle Fensterinhalte gebuffert, sondern nur die gerade sichtbaren?
Dann
wären für die Bildschirmausgabe allein natürlich bereits 100MB VRAM selbst für Retina-Auflösungen genug.
Was immer daraus auch folgern mag:
Ich habe im Augenblick ca. 300 Fenster bzw. Tabs offen, und
OpenGL Driver Monitor
sagt, von dem 1GB VRAM meiner HD 5870 sind 56% belegt, also 560MB …
Keine Ahnung, ob das System automatisch nach Größe des VRAMs skaliert, also auch bei viel mehr VRAM um die 50% belegen würde, oder ob das ein Absolutwert ist, also auch bei 8GB VRAM nur 560MB belegt würden.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
sffan
26.08.18
12:10
Weia:
Eigentlich wollte ich nächste Woche mit dem ersten anfangen. Kurioserweise ist aber das Spezialkabel, das man braucht, um eine handelsübliche Karte an die Stromversorgung im Mac Pro anzuschließen (2 Mini-6-Pin-Stecker an einen 8-Pin-Stecker, z.B. oder ) nirgendwo in Deutschland zu bekommen und muss direkt aus China bestellt werden. Am Ende ist Mojave also schneller da als diese blöden Kabel …
Also die Kabel sind idR bei ebay oder Amazon problemlos zu bekommen, folgend die zwei bei amazon Dtld.:
oder
Bei ebay auch einige Treffer bei Suche nach "Stromkabel mit PCIe-Stecker für Mac Pro Grafikkarte" sieht mir nach den gleichen Produkten/Anbietern wie bei amazon aus. Sind eher zu viele für mich, seit meinem Kauf vor Jahren scheint sich das Angebot mal wieder geändert haben.
Man muss natürlich aufpassen und genau hinschauen, falls man auf die chingpäng-Lieferzeiten keine Lust hat. Aber da sind definitiv welche mit Versand aus D. dabei (zb. "Versand durch amazon").
Mir ist auch nicht klar, ob die für die verschiedenen cMP-Ausgaben gleichermassen geeignet sind. Die Stecker sitzen m.E. an unterschiedlichen Stellen auf der Hauptplatine, je nach dem on 3,1 4,1 oder 5,1
. Damit evtl. auch unterschiedliche Entfernung zum Stecker an der Graka...
Hilfreich?
0
Weia
26.08.18
12:13
sffan
Also die Kabel sind idR bei ebay oder Amazon problemlos zu bekommen:
Vorsicht, die von Dir verlinkten Kabel sind
keine
Y-Kabel. Das ist das Problem. Normale Kabel gibt es überall, das stimmt.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
Weia
26.08.18
12:26
sffan
Mir ist auch nicht klar, ob die für die verschiedenen cMP-Ausgaben gleichermassen geeignet sind. Die Stecker sitzen m.E. an unterschiedlichen Stellen auf der Hauptplatine, je nach dem on 3,1 4,1 oder 5,1
. Damit evtl. auch unterschiedliche Entfernung zum Stecker an der Graka...
Mojave läuft doch eh nur auf dem 5,1, insofern ist der Rest müßig. Die Y-Kabel, die es gibt, wirken auch eher viel zu lang; das sollte das geringste Problem sein.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
sffan
26.08.18
12:37
Weia
sffan
Also die Kabel sind idR bei ebay oder Amazon problemlos zu bekommen:
Vorsicht, die von Dir verlinkten Kabel sind
keine
Y-Kabel. Das ist das Problem. Normale Kabel gibt es überall, das stimmt.
Also ich kenne eigentlich nur zwei Varianten..
Manche Karten sind mit einem oder zwei sechspoligen Kabeln zufrieden (Meine 7950 gehört zu letzteren).
Noch neuere brauchen einen sechs und einen achtpoligen Stecker (und noch mehr Strom).
Die Y-Kabel sind mir neu. Ich kenne die nur als Notbehelf wenn man zwei Grafikkarten einbauen will, die mehr als die insgesamt zwei verfügbaren Stromanschlüsse brauchen. Ich hätte da auch Bedenken, was das Netzteil dazu meint. So ne RX580 ist ja ein ordentlicher Stromschlucker..
Hilfreich?
0
gfhfkgfhfk
26.08.18
13:02
Weia
gfhfkgfhfk
Aufpassen muss man, da sowohl die aktuellen nVidia wie auch AMD Karten nur in SinglePrecision schnell sind.
Hmmm, heißt das jetzt, sie sind in Double Precision
langsamer
oder
gar nicht
verwendbar?
Die Karten sind in Double Precision dramatisch langsamer.
Beispiel: Quadro P6000 SP 11TFlops; DP 340GFlops; AMD RX580 SP 5,8TFlops; DP 360 GFlops.
Als Vergleich
Quadro GV100 SP 16,7TFlops; DP 8,3TFlops; AMD FirePro W9100 SP 5,2TFlops; DP 2,6TFlops.
Das würde aus Gründen der Stromversorgung wie oben geschildert nicht gehen, es sei denn, die nVidia-Karte würde sich mit den 75W der PCIEe-Schnittstelle zufrieden geben, was ich kaum glaube.
Wenn es wirklich um Numberchrunching geht, dann wäre es sinnvoller eine AMD RX 550 (die gibt es mit 75W TDP) und eine nVidia Karte zu nehmen. Denn die obige FirePro W9100 ist die schnellste DP Karte von AMD, und sie ist relativ alt.
Hilfreich?
+2
Weia
26.08.18
13:30
sffan
Also ich kenne eigentlich nur zwei Varianten..
Manche Karten sind mit einem oder zwei sechspoligen Kabeln zufrieden (Meine 7950 gehört zu letzteren).
Was, wenn ich Dich recht verstehe, eben bedeutet, dass Deine 7950
zwei
6-polige Stecker zur Stromversorgung hat, die sie auch beide nutzt, indem beide mit den entsprechenden Steckkontakten auf dem Mac-Pro-Motherboard verbunden werden, korrekt?
Sie zieht also aus
beiden
zusätzlichen Anschlüssen des Mac Pro Strom.
Genau dasselbe macht die RX580 auch, nur mit dem Unterschied, dass sie selbst lediglich
einen
(8-poligen) Steckkontakt besitzt. Und deshalb nur über ein Y-Kabel auf die
beiden
Steckkontakte auf dem Mac-Pro-Motherboard zugreifen kann.
Die Y-Kabel sind mir neu.
Den Händlern leider auch …
Ich kenne die nur als Notbehelf wenn man zwei Grafikkarten einbauen will, die mehr als die insgesamt zwei verfügbaren Stromanschlüsse brauchen.
Nene, das wäre ja genau andersrum: Die Grafikkarten hätten dann
mehr
Steckanschlüsse als der Mac Pro hergibt.
Hier ist das Problem ja, dass die
Grafikkarte
nur
einen
(potenten) Steckanschluss hat, der Mac Pro aber
zwei
(weniger potente), die daher zusammengelegt werden müssen.
Ich hätte da auch Bedenken, was das Netzteil dazu meint.
In der Y-Richtung, um die es hier geht, ist das kein Problem. Jeder Anschluss auf dem Mac Pro liefert 75W, zusammen ergibt das genau die 150W, die an dem 8-poligen Steckanschluss der RX580 benötigt werden.
So ne RX580 ist ja ein ordentlicher Stromschlucker..
Ja, eben – das hatte ich doch oben genau auseinandergedröselt, dass man deswegen nur die
PULSE
-Version nehmen darf, da nur die mit den 225W auskommt, die der Mac Pro insgesamt (Steckanschlüsse und PCIe-Stromversorgung) liefern kann.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
Weia
26.08.18
14:09
gfhfkgfhfk
Die Karten sind in Double Precision dramatisch langsamer.
Beispiel: Quadro P6000 SP 11TFlops; DP 340GFlops; AMD RX580 SP 5,8TFlops; DP 360 GFlops.
Als Vergleich
Quadro GV100 SP 16,7TFlops; DP 8,3TFlops; AMD FirePro W9100 SP 5,2TFlops; DP 2,6TFlops.
Das ist ja echt heftig.
Die AMD FirePro W9100 steht allerdings gar nicht auf Apples Liste
empfohlener Grafikkarten (für eine eGPU, aber das sollte auch ein guter Anhaltspunkt für den Mac Pro sein), und der offensichtliche Nachfolger AMD Radeon Pro WX 9100 hat ebenfalls diesen Leistungseinbruch bei DP (ist im Wesentlichen überall doppelt so schnell wie die RX580).
Weißt Du was über die Hintergründe, warum beide Hersteller DP neuerdings so stiefmütterlich behandeln?
Wenn es wirklich um Numberchrunching geht, dann wäre es sinnvoller eine AMD RX 550 (die gibt es mit 75W TDP) und eine nVidia Karte zu nehmen.
So viele Numbern crunche ich in
Mathematica
dann doch nicht, um bei der AMD-Karte Abstriche zu machen; die ist mir wichtiger.
Aber sicher eine wichtige Info für diejenigen, bei denen das im Zentrum ihrer Arbeit steht.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
sffan
26.08.18
16:40
Weia
Was, wenn ich Dich recht verstehe, eben bedeutet, dass Deine 7950 zwei 6-polige Stecker zur Stromversorgung hat, die sie auch beide nutzt, indem beide mit den entsprechenden Steckkontakten auf dem Mac-Pro-Motherboard verbunden werden, korrekt?
Sie zieht also aus beiden zusätzlichen Anschlüssen des Mac Pro Stro
Genau. Die Kabel waren übrigens bei mir dabei, da es eine efi-gemoddete Karte ist. Mit Mojave scheint das ja nicht mehr erforderlich zu sein..
Der leicht modernisierte Nachfolger, 7970 brauchte soger einmal 6 und einmal 8-polig zusätzlich zur PCI-Power. Dafür gabs zumindest auch mal passende Kabelsätze, die auch das noch aus den Board Anschlüssen "rausgelutscht" haben. Die von mir weiter oben verlinkten versuchen offensichtlich das Durcheinander durch einen modularen Kabelsatz abzulösen, der viele Fälle abdeckt. Das war mir zu heikel. Ich hatte Angst vor Defekten und Instabilitäten durch den noch etwas grösseren Stromhunger.
Dagegen war der Vorteil, daß der hdmi-Port (im Gegensatz zur 7950) unter auch macOS nutzbar war, auch kein Argument für mich. Aktuell noch DVI oder künftig bis zu 2 mal mDP 1.2 reichen mir definitv aus. Und die Performanceunterschiede gegenüber meiner OC haben auch keine Wurst vom Teller gezogen..
Hilfreich?
0
sffan
26.08.18
16:59
Weia:
Weißt Du was über die Hintergründe, warum beide Hersteller DP neuerdings so stiefmütterlich behandeln?
Wenn ich mich recht entsinne, wollte man die "unleashed"-Karten für MMP in Supercomputern gerne separat und zu höheren Preisen verkaufen. Die PCIe-Ausgaben waren (zumindest früher) daran erkennbar, daß sie keinerlei Anschlüsse hatten, also reine CoProzessor Karten waren. Gar nicht als Grafikkarte nutzbar waren. Ist schon einige Jährchen her, aber ich denke diese Gründe stecken immer noch dahinter. Zumindest bei Nvidia.
Vielleicht sind die inzwischen auch extrem auf SP hin optimiert, was wohl für den primären Zweck (Grafikberechnungen) ausreichend präzise ist..
Hilfreich?
0
Weia
26.08.18
17:55
Weia
Wie schon weiter oben geschrieben: Jetzt, wo es endlich kein Problem mehr ist, eine aktuelle passende Grafikkarte für den Mac Pro zu bekommen (weil man ab Mojave keine spezielle Mac-Version mehr braucht), wird die Beschaffung des erwähnten erforderlichen Y-Kabels (2 Mini-6-Pin-Stecker an einen 8-Pin-Stecker, z.B.
oder
) zum logistischen Hauptproblem, da nur aus China mit entsprechender Lieferzeit erhältlich.
Nur zur Info für diejenigen, die auf diesen Thread stoßen, weil sie vor einem ähnlichen Problem stehen:
Ich habe jetzt am Ende hier
mehrere Kabel bestellt. Zum einen haben die dort verwendeten Einzelkabel 1,5 mm² Kabelquerschnitt (16AWG) statt reichlich dünnen 1 mm² (18AWG) bei den anderen Angeboten; das klingt vertrauenerweckender. Zum anderen kann man da per Expresslieferung bestellen (für schlappe 20$ & dauert immer noch bis zu 3 Wochen, aber immerhin …).
Alternativer Händler für dasselbe Produkt:
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
sffan
26.08.18
18:14
Ich hab interessehalber auch etwas gegraben:
Das scheint mir auch das gleiche Produkt zu sein. Und der Anbieter (bei beiden Links) sitzt immerhin deutlich näher in den Niederlanden. Das wäre also ein etwas schnellerer und auch kostengünstiger Bezugsweg, falls weitere Interessenten das Adapter brauchen.
Die recht beliebte nvidia GTX1080 scheint das Adapter auch zu benötigen.. Könnte also den einen oder anderen interessieren. Bei ebay bleibt aktuell wirklich nur Hongkong..
Hilfreich?
0
Weia
26.08.18
18:30
sffan
Ich hab interessehalber auch etwas gegraben:
Das scheint mir auch das gleiche Produkt zu sein.
Da hast Du recht – bzw. die gleichen Produkt
e
(16AWG und 18AWG Kabelquerschnitt; ich würde wie gesagt 16 ≈ 1,5 mm² nehmen). Ich bin beeindruckt – ich habe wirklich laaange gesucht und nichts im deutschen amazon gefunden.
Und der Anbieter (bei beiden Links) sitzt immerhin deutlich näher in den Niederlanden.
Der sitzt in Italien, versandt wird aber aus den Niederlanden.
Whatever, Welt = Dorf und so …
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
Weia
26.08.18
18:45
Weia
ich habe wirklich laaange gesucht und nichts im deutschen amazon gefunden.
„Im Angebot von Amazon.de seit 21. August 2018“
Na toll – und ich hatte amazon letzten Sonntag, den 19. durchsucht …
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
sffan
26.08.18
18:50
Weia
Der sitzt in Italien, versandt wird aber aus den Niederlanden.
Whatever, Welt = Dorf und so …
Wahrscheinlich fallen die Container aus China in Rotterdam vom Schiff und dort wirds auch weiter "verarbeitet". So ist das heute halt..
Da Du ja mehrere cMP "aufmotzen" willst, kannst Du den link vielleicht auch noch gebrauchen..
btw:
Und die speziellen "Numbercruncher" Karten von nvidia gibts immer noch. Die werden als nvidia "Tesla" vermarktet. Inzwischen sogar als Appliance im Tower..
Hilfreich?
0
Weia
26.08.18
18:53
sffan
Da Du ja mehrere cMP "aufmotzen" willst, kannst Du den link vielleicht auch noch gebrauchen..
Ich hab gleich nochmal welche dort bestellt. Mal sehen, welche früher da sind …
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
gfhfkgfhfk
26.08.18
19:04
Weia
Weißt Du was über die Hintergründe, warum beide Hersteller DP neuerdings so stiefmütterlich behandeln?
Die Double Precisioneinheiten nehmen relativ viel Platz auf dem Die ein. Deshalb fing nVidia an ab der Fermi Generation zwei unterschiedliche Produktlinien einzuführen. Den GF100 und die GF10x Modelle. Die GF10x sind reine Grafikkarten GPUs, der GF100 ist ein GPGPU Chip.
Den GF100 gab es noch in den Topmodellen als Spieleprodukt mit per Firmware beschnittener DP Hardware. Das Verhältnis beim GF100 war 2:1 für SP:DP unbeschnitten, und bei den Geforce-Produkten 8:1.
Bei der Kepler Generation hat nVidia das für den GK100 für die Geforce Produkte auf 24:1 beschnitten. Das wahre Verhältnis ist 3:1 was bei der ersten Titan, der Quadro K6000 und den Teslas erreicht wird. 24:1 ist das Verhältnis für alle GK10x Chips, aber bei denen ist nur 1/24 der DP-Einheiten vorhanden.
Bei Maxwell gab es keinen GPGPU Chip von nVidia und so ist das Verhältnis bei allen Produkten 32:1.
Bei Pascal ist das Verhältnis 32:1 für alle Chips, bis auf den speziellen GPGPU Chip GP100 den es nur als Tesla und Quadro GP100 gab (2:1). Dieser neue Chip lässt sich direkt auf dem Mainboard integrieren und verfügt mit den NVLinks über spezielle Hochgeschwindigkeitsverbindungen zwischen den GPGPUs und bei POWER8+ Boards von IBM auch zu den CPUs. NVLink bei Pascal schafft 80GByte/s in Relation zu den 16GByte/s von PCIe (roher Durchsatz).
Volta war es reiner GPGPU Release (2:1) geplant, d.h. nur Quadro GV100 und dazu passende Teslas. Es wurden aber Titans nachgeschoben. Es gibt einen neuen NVLink der nun 150GByte/s schafft. IBMs POWER9 hat die passende Schnittstellen dazu.
Turing ist bisher nur als Grafikkarten GPU angekündigt.
Das Problem ist nVidia ist mittlerweile AMD sehr weit enteilt, so dass AMD sehr große Probleme hat überhaupt noch halbwegs konkurrenzfähige Karten zu liefern. Die RX580 wird von einer GTX1060 üblicherweise übertroffen bei 50% Leistungsaufnahme
. Die RX Vega 64 braucht für vergleichbare Leistung zu den Pascal GPUs von nVidia deutlich mehr Strom. Absolutes Highend gibt es nur von nVidia. HPC ist momentan nVidia sehr weit vorne, aber auch im Preis.
So viele Numbern crunche ich in
Mathematica
dann doch nicht, um bei der AMD-Karte Abstriche zu machen; die ist mir wichtiger.
AMD Karten sind momentan eher schlecht, und das merkt man an den Preisen für die neuen Turing Karten von nVidia. Die Preise sind nun noch höher als zuvor.
Hilfreich?
+1
Weia
26.08.18
19:23
gfhfkgfhfk
Die Double Precisioneinheiten nehmen relativ viel Platz auf dem Die ein. Deshalb fing nVidia an ab der Fermi Generation zwei unterschiedliche Produktlinien einzuführen. […]
Danke für die viele Info!
AMD Karten sind momentan eher schlecht,
Das mag absolut gesehen sicher sein, für mich zählt unter dem Strich aber halt, dass die meisten Programme, die ich verwende, auf AMD optimiert sind bzw. AMD brauchen, und, dass macOS AMD von Haus aus unterstützt ohne permanentes Treiber-Installieren und nVidia eben nicht.
Keine Ahnung, welche Animositäten da hinter dem Vorhang ablaufen. nVidia steigt ja wohl gerne mit Adobe ins Bett, was Apple vielleicht gar nicht mag, wasweißich …
Wie auch immer, wenn Du bedenkst, dass ich von einer HD 5870 komme, wird mir die RX 580 sicher gefallen …
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+1
sffan
26.08.18
19:41
Weia
sffan
Da Du ja mehrere cMP "aufmotzen" willst, kannst Du den link vielleicht auch noch gebrauchen..
Ich hab gleich nochmal welche dort bestellt. Mal sehen, welche früher da sind …
Die Sendung aus Hongkong könnte je nach dem auch im Zoll hängen bleiben. Hängt u.a vom Warenwert ab. Das ist, neben der langen Laufzeit, noch ein Grund wieso ich das bisher nicht probiert habe. Obendrein die machmal eher verwegene Qualität. Zum Glück brauchen Kabel kein CE-Zeichen? Danach gucken die Zöllner auch sehr gerne..
Ich drück' Dir jedenfalls die Daumen..
Ich hab etwas Erfahrungen bzgl. Zoll, aber mit Medien wie CDs, DVDs usw. Ab ca. 20€ Warenwert wirds langsam enger.
Das ist innerhalb der EU (Zollunion) schon deutlich entspannter..
Hilfreich?
0
rosss
26.08.18
20:08
Kann eigentlich jemand etwas über die Lautstärke der RX 580 im Vergleich zur HD 5870 sagen?
Und wenn ich es richtig verstanden habe, gibt es mit einer Standard-PC-RX580 weiterhin keinen Bootscreen, aber zumindest Fimwareupdates gehen jetzt?
Habe noch nicht gesucht, aber gibt es bei der RX 580 auch viele verschiedene Hersteller mit teilweise unterschiedlich aufgebauten Kühlsystemen (habe ich bei Nvidia gesehen)? Was ist da zu bevorzugen?
Hilfreich?
0
gfhfkgfhfk
26.08.18
20:09
Weia
Das mag absolut gesehen sicher sein, für mich zählt unter dem Strich aber halt, dass die meisten Programme, die ich verwende, auf AMD optimiert sind bzw. AMD brauchen, und, dass macOS AMD von Haus aus unterstützt ohne permanentes Treiber-Installieren und nVidia eben nicht.
Ich wollte es nicht unerwähnt lassen, da Du selbst Software entwickelst bzw. entwickelt hast. nVidia bietet das deutlich bessere Gesamtpaket, da die Entwicklerkits von nVidia dramatisch besser sind als die von AMD, und es gibt bei nVidia mehr Leistung. Apple hingegen hat sich vor Jahren fest an AMD gebunden, weil wohl die CPUs sehr billig zu bekommen sind.
Hilfreich?
+1
gfhfkgfhfk
26.08.18
20:14
rosss
Habe noch nicht gesucht, aber gibt es bei der RX 580 auch viele verschiedene Hersteller mit teilweise unterschiedlich aufgebauten Kühlsystemen (habe ich bei Nvidia gesehen)? Was ist da zu bevorzugen?
Wenn es keine Karte ist die es nur im Referenzdesign gibt (Workstation Modell o.ä.), dann sollte man unbedingt zu einer Karte greifen die einen Zero-Fan-Modus hat und über mindestens zwei Lüfter verfügt. Und dann unbedingt darauf achten, dass man nur eine Dualslot Karte kauft. Es gibt nämlich auch Tripleslot Modelle, und die passen kaum in den cMP rein.
Hilfreich?
+1
Weia
26.08.18
20:29
rosss
Kann eigentlich jemand etwas über die Lautstärke der RX 580 im Vergleich zur HD 5870 sagen?
Ich selbst habe sie ja gerade erst bestellt, aber wenn ich den diversen Forenberichten in Bezug auf die Sapphire-PULSE-Version glauben schenken darf, ist sie flüsterleise und gar nicht zu vergleichen mit der HD 5870 (die ich unerträglich laut fand und daher mit einem speziellen Kühler umgebaut habe). Bei geringer Last läuft der Lüfter überhaupt nicht, und bei Vollast wird er den Berichten zufolge jedenfalls von den Lüftern des Mac Pro übertönt.
Und wenn ich es richtig verstanden habe, gibt es mit einer Standard-PC-RX580 weiterhin keinen Bootscreen, aber zumindest Fimwareupdates gehen jetzt?
Richtig, und das ist ja (zumindest, wenn Du kein Boot Camp brauchst) das Entscheidende – die Startdisk kannst Du vor einem Neustart ja auch aus den Systemeinstellungen wählen, und in das Restore-System kommst Du mit
Command-R
beim Booten.
Habe noch nicht gesucht, aber gibt es bei der RX 580 auch viele verschiedene Hersteller mit teilweise unterschiedlich aufgebauten Kühlsystemen (habe ich bei Nvidia gesehen)? Was ist da zu bevorzugen?
Nachdem ich selbst tagelang recherchiert habe, bevor ich am Ende auf Apples detaillierte Empfehlungen stieß, ganz klar die
Sapphire PULSE
und
nichts anderes
. Punkt. Es ist die Karte, die Apple empfiehlt, und es ist die einzige von vielen, vielen Karten, deren technische Daten ich studiert habe, die garantiert mit der Stromversorgung des Mac Pro auskommt und keine Spontanabschaltungen provozieren kann. Spar Dir den ganzen Hirnschmalz, den ich da reingesteckt habe, und kauf die. Es gibt nichts, was dagegen spricht. Wohl die leiseste Karte von allen (da nicht auf das letzte MHz Takt hin überzüchtet), preiswert aus demselben Grund und von Apple offiziell als die Upgrade-Karte für Mojave auf dem Mac Pro empfohlen.
Nur zwischen 4GB und 8GB VRAM musst Du Dich entscheiden.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+1
rosss
27.08.18
09:21
Weia
[Sapphire PULSE] Spar Dir den ganzen Hirnschmalz, den ich da reingesteckt habe, und kauf die.
Danke! Und ich frage jetzt mal nicht, ob man die 4GB Version später auf 8GB aufrüsten kann.
Hilfreich?
0
rosss
27.08.18
10:24
Eben erst gesehen. Apple schreibt (Hervorhebung von mir):
https://support.apple.com/de-de/macos/mojave
Mac Pro von Ende 2013 sowie Modelle von Mitte 2010 oder Mitte 2012 mit empfohlenem Metal-fähigen Grafikprozessor,
darunter
MSI Gaming Radeon RX 560 und Sapphire Radeon PULSE RX 580
Demnach ist die RX 560 als augenscheinlich halbierte Version (Preis / RAM / Baulänge / Anschlüsse) der RX 580 ebenfalls eine Option, bei einem Verbrauch von nur 80 Watt – heisst das, die braucht gar keine zusätzliche Stromversorgung?
Die 560 wird leistungsmäßig wohl schon ein großer Schritt von der HD 5870 sein. Ist die 580 den Aufpreis Wert, wenn 4GB reichen?
Eine vollständige Liste der von Apple empfohlenen Karten habe ich nicht gefunden…
Hilfreich?
0
Weia
27.08.18
11:10
rosss
Demnach ist die RX 560 als augenscheinlich halbierte Version (Preis / RAM / Baulänge / Anschlüsse) der RX 580 ebenfalls eine Option, bei einem Verbrauch von nur 80 Watt – heisst das, die braucht gar keine zusätzliche Stromversorgung?
Naja, auch 80W > 75W … Und die 80W sind wohl wieder der Nominalwert von AMD, der Realwert der tatsächlich existierenden Boards ist immer höher.
MSI schweigt sich über Strombedarf und genaue Ausstattung der Boards ja aus.
Sapphire spezifiziert ihre RX-560-Variante mit 90W, definitiv zu viel für die 75W vom PCIe-Bus – und gibt dementsprechend bei der Board-Ausstattung auch einen zusätzlichen Steckanschluss für die Stromversorgung an, allerdings nur mit 6 Pins. D.h., Du kämest mit einem „normalen“, gut erhältlichen Mini-6-Pin-auf-6-Pin-Kabel aus (75W + 75W > 90W).
Die 560 wird leistungsmäßig wohl schon ein großer Schritt von der HD 5870 sein. Ist die 580 den Aufpreis Wert, wenn 4GB reichen?
Ich habe ja nun selbst als Laie diesen Thread begonnen, aber so viel scheint mir klar:
Die RX 580 hat 2,5 × die Rechenleistung der RX 560. Das solltest Du sofort und immer spüren können, wenn es um die Grafikausgabe auf den Monitor geht, also, wie flink sich die GUI anfühlt.
Bei dem VRAM hingegen hängt es sehr davon ab, was Du machst, ob Du was merkst. Bei intensiver Bildverarbeitung, Video-Bearbeitung, 3D und Spielen und Number Crunching wirst Du es merken, sonst ist es eher fraglich – so mein Resümee aus unserer Diskussion.
Insofern, finde ich jedenfalls, kann man Rechengeschwindigkeit und VRAM in ihren Auswirkungen nicht parallelisieren.
Wenn
ich schon upgrade, wäre mir eine noch flüssigere GUI die 100€ Aufpreis der 4GB-RX580 definitiv wert, aber das muss natürlich jeder für sich entscheiden.
Eine vollständige Liste der von Apple empfohlenen Karten habe ich nicht gefunden…
Für den Classic Mac Pro gibt es die auch nicht (das ist immerhin ein Dinosaurier, ich finde es schon toll, dass Apple ihn überhaupt bei den Vorbereitungen zu Mojave explizit listet).
Für eGPU-Anwendungen gibt es eine solche Liste
, aber die ist wegen der Stromversorgungsproblematik halt nicht 1:1 auf den Mac übertragbar, sprich, die Karten würden zwar treibermäßig allesamt unterstützt, können aber vom Mac Pro u.U. nicht ausreichend mit Strom versorgt werden.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
rosss
27.08.18
11:46
Weia
D'accord! Ich wollte vor allem die zusätzliche Info hier in Thread geben.
Für meinen Einsatz ist zu 95% Geräusch und Stromverbrauch ohne große Last wichtig. Es kann natürlich gut sein, dass die 580 bei diesem Einsatz vergleichbar viel Strom zieht wie die 560, aber durch die leistungsfähigere Kühlung dann sogar leiser ist! DAS ist für mich entscheidender als die Maximalleistung.
Hilfreich?
0
gfhfkgfhfk
27.08.18
12:23
Weia
Die RX 580 hat 2,5 × die Rechenleistung der RX 560. Das solltest Du sofort und immer spüren können, wenn es um die Grafikausgabe auf den Monitor geht, also, wie flink sich die GUI anfühlt.
Nö, da merkt man nichts davon. Die Karten sind für das normale GUI überhaupt nicht ausgelastet, so dass der Unterschied zwischen einer RX560 und einer RX580 nur fürs GUI nicht messbar sein wird.
Hilfreich?
0
Weia
27.08.18
12:37
gfhfkgfhfk
Nö, da merkt man nichts davon. Die Karten sind für das normale GUI überhaupt nicht ausgelastet, so dass der Unterschied zwischen einer RX560 und einer RX580 nur fürs GUI nicht messbar sein wird.
Auch z.B. beim (flüssigen) Scrollen einer Webseite mit sehr vielen Bildern und animierten Inhalten?
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
Golly
27.08.18
16:51
Ich habe mir vor ca. 2 Wochen eine RX 580 Nitro+ 8GB Special Edition für meinen MacPro 2009 4,1 > 5,1 (Flashed) besorgt - die beste Preis/Leistung ever. Bin also sehr zufrieden.
Diese Karte läuft bei mir auf maximal möglichen 1430Mhz (Bios Umschalter an der Karte steht auf OC).
Sie ist flüsterleise, da die Lüfter der Karte im normalen Tagesbetrieb - Surfen, Mail etc. - meistens nicht anspringen und selbst wenn, sind die beiden Fans der Karte nicht wahrnehmbar.
Aber folgendes ist besonders bei dieser Karte zu beachten:
1. Die RX 580 Nitro+ SE 8GB läuft zwar mit der Standardstromversorgung (2xMini 6Pin + 1x PCIe =225W), hat aber alle 10-20 Sekunden Blackouts - Bildschrirm wird für 2 Sekunden schwarz. Und das geht natürlich gar nicht!
Habe also weitere 75W über einen freien SATA-Port (Festplattensteckplatz) - mit bisserl Adaptergedönse - an den noch freien 6-Pin Steckerplatz der Karte angeschlossen.
Und siehe da: Alles stundenlang inkl. Benchmarks Youtubevideos 1440p usw. usw. laufen lassen - FUNZT perfekt! Die Karte wird benötigt nicht die ganzen 300W, die ihr zur Verfügung stehen (ca. 270W/280W unter Volllast), aber sicher ist sicher.
.
Der Monitor ist ein LG 34UC97-S 3440x1440
2. Der PCIe-Slot 2 ist nicht mehr verfügbar, da die Karte einfach zu fett ist!
Hilfreich?
0
Weia
27.08.18
17:20
Golly
– Danke für den Bericht, der meinen Punkt mit der PULSE-Version wegen der Stromversorgung (ohne Deine Klimmzüge) bestätigt.
Ansonsten, was die Frage RX 560 vs. RX 580 betrifft: Wenn man mal unterstellt, dass Apple bei den iMacs einigermaßen ausgewogene Konfigurationen zusammenstellt, dann ist ein Blick auf die in den iMacs verwendeten Grafikkarten interessant:
Die 21"-iMacs haben als Grafikoptionen CPU-Grafik → RX 555 2 GB → RX 560 4 GB
Die 27"-iMacs haben als Grafikoptionen RX 570 4 GB → RX 575 4 GB → RX 580 8 GB
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
Tai
27.08.18
22:05
Habe jetzt nicht alles gelesen, aber die App, die davon am meisten profitiert ist FCPX. Mach mal damit einem Konzertmitschnitt mit mehreren Kameras und mach ein MultiCamFile mit der kleinen Darstellung der einzelnen Cams. Da kotzt mein iMac regelmässig ab. Bei Logic ist das fast völlig schnurz, da geht die einfachste Grafik. Affinity ist noch so ein Kandidat. Profitiert mächtig von der Karte. Dann unbedingt eine AMD, Cuda bringt da deutlich schlechtere Werte, ist für PehTseh Leute mit Adobe Schnittprogramm aber die bessere Wahl
Hilfreich?
0
1
2
>|
Kommentieren
Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.
iPhone 16: Welche Netzteile schnelles Laden ver...
Weitere Neuerungen: iPhone 16 mit 8 GB RAM +++ ...
Apple Event
Vor 10 Jahren: Das iPhone 6 und "Bendgate"
Qualitätsprobleme bei MacBook-Displays: Apple t...
Mac mini M4: Reparaturhandbuch bestätigt austau...
Gescheitert: iPhones von Robotern statt Arbeite...
Test AirPods Pro 2