Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Hardware
>
Suche Rat/Empfehlung bei externer 3.5" Festplatte
Suche Rat/Empfehlung bei externer 3.5" Festplatte
eMac Extreme
09.01.14
16:53
Hallo Zusammen,
ich möchte mich in Zukunft doppelt absichern und zusätzlich zu meinem bisherigen Backup mittels Time Machine auch ein bootfähiges Backup (mittels Carbon Copy Cloner) auf einer zweiten externen Festplatte ablegen.
Mein Rechner ist ein MBP (15 Zoll, Mitte 2010) mit folgenden Anschlussmöglichkeiten:
USB 2
FireWire 800
Jetzt die Frage: Eignet sich ein SK-3500 Super-S3 Gehäuse
von inXtron für diesen Zweck? Und hat evtl. jemand bereits Erfahrungen mit dem Hersteller gemacht?
Dieses Gehäuse verfügt sowohl über FireWire 800, als auch über USB 3 und eSATA. Über FireWire sollte die Festplatte ja bootfähig sein. Wie sieht das über den USB 3 Anschluss an einem MBP mit USB 2 Anschluss aus? Ist die Festplatte auch hierüber bootfähig?
Kann ich evtl. sogar auf FireWire verzichten und mir die reine USB 3-Version zulegen? Die wäre um etwa die Hälfte billiger und da es nur als Backup dienen soll, würde die Geschwindigkeit bei mir eine untergeordnete Rolle spielen.
Wäre schön, wenn ihr mir eure Meinung zu dem Gehäuse mitteilen würdet und evtl. sogar andere Festplatten-Gehäuse empfehlen könnt. Recht herzlichen Dank!
Hilfreich?
0
Kommentare
1
2
>|
ViRos
09.01.14
19:41
Ich benutze die WD My Book Studio
Ich benutze die über USB2.0 am iMac 2008er.
Die Geschwindigkeit reicht völlig aus, um damit ein Mavericks extern zu betreiben.
Aber Dein Vorschlag zur SK-3500 sieht auch interessant aus.
Wird wohl eine Frage des Geldes sein und natürlich "Geschmacksache"
Hilfreich?
0
eMac Extreme
09.01.14
20:08
Danke dir für deine Empfehlung!
Hab selber noch eine WD My Book, die bis auf das Netzteil auch noch funktioniert. Leider kommt man bei denen nicht so leicht an die eigentliche Festplatte ran, so dass man sie später austauschen könnte - das gefällt mir an denen nicht so. Deshalb hat ich an die SK-3500 gedacht.
Wo du bereits die Kosten ansprichst: über 100 € fürs Gehäuse sollten es dann doch nicht sein. Aber es muss nicht das billigste sein, wenn das Ergebnis dann auch stimmt.
Hab jetzt noch weiter rumgemacht und einige Rezensionen gefunden. Dort steht bislang nur positives zu der SK-3500. Weiß denn jemand, ob ich eine USB 3 Platte auch booten (CCC clone) kann, wenn ich Sie nur über USB 2 angeschlossen habe? Zur Info: Die SK-3500 besitzt ein eigenes Netzteil.
Hilfreich?
0
Gerhard Uhlhorn
09.01.14
20:13
Die WD My Book kann ich auch wärmstens empfehlen.
Aber war es nicht so, dass man seit einiger Zeit auch von einem Time Machine Backup starten kann?
Hilfreich?
0
Fard Dwalling
09.01.14
20:13
Ich kann auch nur positives von dem Gehäuse berichten. Ich habe die FW800 Variante und derer zwei mit jeweils 3TB WD RED Festplatten. Sind an einem Mac Mini im RAID 1 als Datenlaufwerk.
Bleiben mit den WD RED Laufwerken auch schön leise und kühl.
Hilfreich?
0
Fard Dwalling
09.01.14
20:15
Mit den WD MyBook habe ich persönlich auch gute Erfahrungen, aber auch schon negative Sachen bei Bekannten mitbekommen. Eine WD Studio II wird ab und an nicht mehr gemountet und das TM Backup ist anschließend hin und muss komplett neu aufgebaut werden.
Hilfreich?
0
Cyco
09.01.14
21:16
Die SK ist gut.
Ich mag deren Gehäuse.
Und ja, die USB3-Version funktioniert an USB2 und ist seit den Intel-CPUs auch bootfähig.
FW800 ist aber schneller als USB2.
USB3 wird erst bei deinem nächsten Book einen Vorteil bieten.
Hilfreich?
0
eMac Extreme
09.01.14
22:16
Vielen Dank schon mal an Euch alle für den Input!
Cyco
Generell würde ich auch auf FW800 setzen wollen, nur in Notfällen dann auch USB. Wollt nur generell wissen, ob es da Probleme gibt, wenn das nur per USB 2 angeschlossen ist.
Werd mir dann wohl mal so ein Teil zulegen und ordentlich testen!
Hilfreich?
0
eMac Extreme
09.01.14
22:20
Gerhard Uhlhorn
Aber war es nicht so, dass man seit einiger Zeit auch von einem Time Machine Backup starten kann?
Da bin ich ehrlich gesagt überfragt. Muss ich dann wohl mal Google befragen, oder hast du evtl. nen Link zu einem Support-Dokument?
Hilfreich?
0
Gerhard Uhlhorn
09.01.14
22:55
Cyco
FW800 ist aber schneller als USB2.
Nein, FireWire 800 ist
VIEL
schneller als USB2!
Das ist mindestens um den Faktor 4 schneller!
Bei FireWire erreicht die Netto-Bandbreite fast 98 Prozent der Brutto-Bandbreite. Bei USB hingegen ist die Netto-Bandbreite nur im besten Fall (also nur ein Gerät pro USB-Controller, gutes und kurzes Kabel, wenig ausgelastete CPU) 50 Prozent der Brutto-Bandbreite, meist sogar erheblich weniger.
Hilfreich?
0
Thomas Kaiser
10.01.14
00:02
eMac Extreme
ich möchte mich in Zukunft doppelt absichern und zusätzlich zu meinem bisherigen Backup mittels Time Machine auch ein bootfähiges Backup (mittels Carbon Copy Cloner) auf einer zweiten externen Festplatte ablegen.
Mit Carbon Copy Cloner (oder anderen Klon-Werkzeugen wie SuperDuper, etc.) kann man kein Backup erstellen sondern lediglich einen Klon. Das ist etwas fundamental Unterschiedliches.
Seit 10.7.2 landet der Inhalt der Recovery Partition
bei neu eingerichteten
TM-Backup-Disks auch auf dem TM-Medium, so dass man davon booten kann, um dann all das machen zu können, was man auch bei einem Boot aus der Recovery Partition heraus anstellen könnte (per Festplatten Dienstprogramm Platte prüfen, System neu installieren oder aus TM-Backup herstellen)
Wenn Du das Ganze sinnvoll angehen willst, dann verzichte auf den Klon und nutze die zweite HD als "rotierendes" TimeMachine-Medium. Alle Intel-Macs können von USB booten, seit 2007 haben alle Macs an ihren internen USB-Ports auch ausreichend "extra power" (also mehr als die üblichen 500 mA), um 2,5"-Platten bus-powered extern zu betreiben und USB3 ist abwärtskompatibel zu den älteren Versionen.
In Deiner Situation ist FW-800 ein ganzes Eck schneller, was in erster Linie daran liegt, dass bei USB 2.0 zwangsweise das sog. "USB Mass Storage"-Protokoll zum Einsatz kommt (das hat nichts damit zu tun, dass bei USB angeblich das Verhältnis brutto/netto schlechter wäre -- der bulk transfer modus von USB 2.0 schafft durchaus mehrere USB-Devices parallel bedienend 50-52 MByte/sek, was für die spezifizierten 480 MBit/sek nicht wirklich schlecht ist. Nur hat man bei einzelnen Transfers nicht viel davon, weil "Dank" Mass-Storage-Protokoll meist schon bei 30 MByte/sek Schluß ist).
Ab USB 3.0 gibt es einen viel sinnigeren Modus namens UASP (USB Attached SCSI Protocol), der die USB-Bremse nachhaltig löst (wenn sowohl USB-SATA-Bridge im Gehäuse, der USB-Controller im Mac und das OS -- mindestens 10.8 -- mitspielen). Bringt Dir mit Deinem MBP halt nur leider gar nix, da Du da ja noch nicht mal USB3 per ExpressCard nachrüsten könntest.
Die Idee, Gehäuse und Platte separat zu kaufen, ist smart, denn im Gegensatz zu typischen externen Mogelpackungen der großen HD-Hersteller, bei denen man weder weiß, was die grad für SATA-HD verbauen, noch welcher Bridge-Chip grad zum Einsatz kommt, hat man bei Deiner Variante Klarheit (der im Gehäuse verbaute OXU3100 taugt was --
mir
wäre das ganze Ding mit der Schnittstellenvielfalt und dem entsprechenden Preis allerdings Overkill)
Hilfreich?
0
Gerhard Uhlhorn
10.01.14
04:19
Thomas Kaiser
[…] weil "Dank" Mass-Storage-Protokoll meist schon bei 30 MByte/sek Schluß ist […]
Was aber aufs Selbe rauskommt.
Letztlich geht es darum wie schnell eine Festplatte am USB ist. Was die genauen technischen Gründe sind ist dabei eher nebensächlich – wenn auch (für mich) interessant.
Aber danke, habe wieder was gelernt.
Hilfreich?
0
photoproject
10.01.14
08:55
@ Thomas Kaiser: Danke für die aufschlußreiche Erklärung, war mir so nicht bewusst, again what learned. Welche Gehäuse-HDD Kombi wäre Deine Empfehlung?
Hilfreich?
0
herwighenseler
10.01.14
09:03
Gerhard Uhlhorn
Nein, FireWire 800 ist
VIEL
schneller als USB2!
Das ist mindestens um den Faktor 4 schneller!
Falsch. Faktor 2.
Siehe hier, praktisch ausprobiert am Mac Pro:
„Life is a heuristic guided depth-first search without backtracking“
Hilfreich?
0
Cyco
10.01.14
09:05
Ich würde die 2te für einen Clon nutzen.
Denn der ist sofort startfähig, wenn die interne HD ausfällt und man kann sofort weiterarbeiten ohne erst einmal eine neue interne HD zu besorgen, verbauen und die Daten zurück zu spielen, was mehrere Stunden dauert.
Evtl. Nutzt man mehrere Partitionen und nutzt die 2te HD für beides.
Hilfreich?
0
Thomas Kaiser
10.01.14
10:47
Gerhard Uhlhorn
Thomas Kaiser
[…] weil "Dank" Mass-Storage-Protokoll meist schon bei 30 MByte/sek Schluß ist […]
Was aber aufs Selbe rauskommt.
Letztlich geht es darum wie schnell eine Festplatte am USB ist.
Im Kontext des Anfragers? Als [falsch verstandenes] Backup-Medium? Das würde ich mal glattraus verneinen.
Gerhard Uhlhorn
Was die genauen technischen Gründe sind ist dabei eher nebensächlich – wenn auch (für mich) interessant.
Naja, das mit den "genauen technischen Gründen" ist halt das einzig probate Mittel gegen Halbwissen und Mythenbildung. Und das ist insofern nicht uninteressant als sich ja im Regelfall reine Anwender mit den ganzen technischen Implikationen einer konkreten IT-Implementierung (bspw. eine sinnvolle Backup-Strategie nebst technischer Umsetzung) nicht auseinandersetzen wollen.
Was bleibt, wenn man sich die technischen Details nicht antun will? Im besten Fall Rückgriff auf "best practices" bzw. im Home/SOHO-Bereich dann eben Mythen und Legenden. Eine davon wäre "USB ist immer langsamer als Firewire weil ..."
Was eben nicht stimmt, siehe USB 3 und die dann mögliche Ablöse des ollen und unnötig ausbremsenden Mass-Storage-Modus durch UASP (das v.a. dort, wo meist niemand hinschaut, nämlich abseits der völlig überbewerteten sequentiellen Dauertransferraten, seine Stärken ausspielt, bei vielen wahlfreien Zugriffen eben, genau das, was das typische Zugriffsmuster auf Platten/SSDs abseits Streaming eben so ist. In sogenannten Benchmarks im Mac-Umfeld findet man aber nur die überwiegend aussagelosen AJA-/Blackmagic-Dauertransferraten)
Der Anfrager hat gar kein USB3 am Rechner. Warum also drauf hinweisen? Weil er evtl. anno 2014 bzgl. seines 2010er MBP über Ersatz nachdenkt und ein bisserl über den Tellerrand hinaus bzw. in die Zukunft schaut?
Technisch gesehen ist es völlig gaga, USB 2.0 mit Mass-Storage-Protokoll und USB3 mit UASP in einen Topf zu werfen (genau das geschieht aber aufgrund der bewährten "USB ist immer Scheize"-Mythenbildung -- grad im Mac-Lager). Abermals
rein technisch gesehen
ist der späte Eintritt Apples in die USB3-Welt ein Segen gewesen (weil Apple vom Start weg nur vernünftige USB3-Chipsätze verbaut hat, die eben das auch können. Sie haben -- vermutlich eher unfreiwillig durch Intel -- die USB3-Kinderkrankheiten ausgesessen).
Es geht aber nicht um Technik alleine sondern auch um Marktpositionierung dieser Technik. USB ist Massen- und damit Billig-Technologie. Was Vor- und Nachteile hat. Der Preisdruck ist immens, was (nicht nur) im unteren Preissegment für Schrott sorgt. Da die potentiellen Käufer sich wiederum gar nichgt mit technischen Details auseinandersetzen möchten, fehlt für Anbieter von USB-Kram wiederum eine sinnvolle Differenzierungsmöglichkeit vom Billigschrott. D.h. der Käufer wird dann
nahezu ausschließlich
über sein Bauchgefühl erreicht, um ihm Qualität zu signalisieren. Das Gehäuse ist dann aus Alu in alter MacPro-Käsereiben-Optik, im Inneren steckt exakt der gleiche ASM1051 wie in Gehäusen, die nicht mal ein Fünftel kosten und am Ende kommt dann was raus, was unter Garantie nur Mac-Anwender kaufen werden, bspw.
Die andere Variante für Gehäusehersteller, sich vom Billigsegment zu differenzieren, ist dann tatsächlicher Mehrwert, bspw. durch die Bereitstellung mehrerer Schnittstellen. Was sofort den technischen Aufwand im Gehäuse explodieren läßt, denn -- um nochmal beim Beispiel USB3 zu bleiben -- wo es bei einem "Ein-Protokoll-Gehäuse" in der primitivsten Topologie (also am Ende der Strippe) aus Herstellersicht reicht, eine USB-Buchse, eine USB-SATA-Bridge und bisserl Kabelgedöns für die Stromversorgung einzubauen, da wird Multi-Protokoll (völlig egal, ob das nun zus. noch Firewire, eSATA, Thunderbolt, whatever ist) automatisch schwierig. Du brauchst in jedem Fall einen Microcontroller, der die Logik implementiert, was geschehen soll, wenn an mehreren Schnittstellen Hosts auftauchen, Du brauchst einen SATA-Multiplexer/Switch, der zwischen Platte und den verschiedenen $irgendwas-auf-SATA-Bridges steckt (siehe bspw.
. Das treibt den Aufwand für sowas drastisch in die Höhe und kann -- bitte festhalten -- die Performance gerne mal nachhaltig senken, wenn bspw. der verbaute SATA-Multiplexer nix taugt, bzw. nur SATA 2 unterstützt. Dann wird die wieselflinke SSD im teuren/wertigen Gehäuse ggf. ausgebremst, während sie an USB3 im billigen Simpelgehäuse ihre ganze Performance bis zum Host tragen kann.
Wer das jetzt für ein USB3-Plädoyer hält... weit gefehlt. Ich versuche nur auf die Implikationen hinzuweisen, die dies&das mit sich bringt und die man
für den konkreten Einsatzzweck
idealerweise berücksichtigen sollte. Wer sich bspw. den neuen MacPro shoppt, nun adaptiert "Aha, USB ist gar nicht generell so Scheize" und schnelle Massenspeicher an alle 4 USB3-Ports anschließen will, darf sich am Ende nicht über vermasselte Gesamtperformance wundern. Denn alle USB3-Ports im neuen MacPro hängen hinter einer einzigen PCIe-Lane, so dass sich schon 2 potente Geräte am USB-Bus gegenseitig ausbremsen würden (siehe
)
Die Fokussierung auf "maximale Performance" ist aber zumindest im konkret angefragten Szenarium (also Backup-Device) sowieso reichlich uninteressant außer der Anfrager macht andauernd völlig atypische Sachen.
Bei mir ist es so, dass sich das inkrementelle Backup-Volumen in engen Grenzen hält, weshalb ich seit Jahren neben diversen (v.a. beruflich motivierten) NAS-Experimenten auf kleine bus-powered Notebook-Platten in USB2-Gehäusen sichere (im Büro und daheim -- seit 10.8 muß man ja auch nicht mehr basteln, um diesen letzten Schritt, der TimeMachine
vollwertig
macht, nämlich rotierende Backup-Medien, die komplett unabhängig voneinander eingesetzt werden, durchzuziehen). Die Schreibgeschwindigkeit ist völlig uninteressant respektive absolut ausreichend. Für den weitaus spannenderen Fall "Komplett-Restore", kann ich mir dann überlegen, das Prozedere zu beschleunigen, indem ich die Platte aus dem Billig-USB2-Gehäuse schnell in eins mit FW-800 oder Thunderbolt umstecke.
Aber auch diesen Fall (wenn ein Komplett-Restore nötig würde) kann man bei detaillierter und fundierter Betrachtung deutlich entspannter sehen als wenn man nur auf Halbwissen und Mythen setzt und davon eine "Desaster Recovery"-Strategie ableitet
Aber danke, habe wieder was gelernt.
Gerne.
Hilfreich?
0
Thomas Kaiser
10.01.14
10:57
photoproject
@ Thomas Kaiser: ... Welche Gehäuse-HDD Kombi wäre Deine Empfehlung?
Selbstverständlich keine, weil sowas völlig unseriös ist, wenn man nicht genau im Hinterkopf hat, für was das denn überhaupt eingesetzt werden soll.
Sollte sich der Anfrager langsam drüber klar werden, was er genau will (also die Gehäuse-/Platten-Kombi jetzt nur für einen Klon verschwenden oder ggf. in Zukunft auch mal für was anderes nutzen oder das Ding rein als echtes Backup-Medium -- also kein Klon -- nutzen wollen), dann kann man evtl. was dazu sagen.
Also... klar, irgendwas sagen kann man natürlich immer. Bspw. "ich hab mit den insg. 3 Exemplaren des Gehäuses xy noch nie Probleme gehabt". Da das aber noch so dermaßen weit unterhalb jeglicher statistischer Relevanz ist, spar ich mir das lieber (und erzähl erst recht niemandem, aus meinen beschränkten und völlig irrelevanten Erfahrungen mit Gerätschaft xy würde sich eine allgemeine Empfehlung ableiten, wie es ja andere gerne tun, obwohl ihr individueller Erfahrungshorizont schon bei nur einem einzigen Gehäuse endet
)
Hilfreich?
0
void
10.01.14
11:18
Oha, das ist mal ein interessanter Thread.
Thomas Kaiser: ASM1051 ist also Müll, wenn ich dich richtig verstanden habe? In Bezug auf fehlenden UAS-Support oder warum? Ich habe nämlich gerade festgestellt, dass mein kürzlich erworbenes 50€-USB3-Gehäuse natürlich einen solchen Chip hat
Ich betreibe 2 WD Green im JBOD, um dann via Software-Raid 1 von OSX meine Daten auf dem Gerät zu speichern. Dank dieser Entscheidung (Software-Raid) bin ich aber vom Gehäuse unabhängig und kann bei meinem nächsten Gehäuse auf das von dir gelernte achten.
„Developer of the Day 11. Februar 2013“
Hilfreich?
0
photoproject
10.01.14
11:22
Ok, dann also konkret: ich möchte per TM ein Backup meines iMac fahren. Die (wie auch immer geartete) externe HDD dazu soll 3 TB Kapa haben. Die Backups werden manuell angestoßen, und zwar immer dann, wenn ich es für notwendig erachte. Jetzt gibt es zig Varianten an:
- fertig konfigurierten HDDs
- Gehäusen
- Platten
Dazu könnte ich jetzt in den medialen Blödmarkt gehen und die Erstbeste nehmen, die mir über den Weg läuft. Oder ich blättere durch die Angebote bei Amazon. Oder ich frage hier. Mit Deinen Ausführungen zeigst Du gewisse Kenntnisse, Grundwissen, Spezialwissen, etc., ergo bist Du ein Fachmann für Hard- und Software. Also: welche "fertige" HDD bzw. welche Gehäuse-HDD-Kombi wäre für mich und meine Zwecke/Anwendung passend?
@ eMac Extreme: mit Verlaub, ich kapere Deinen Thread.
Hilfreich?
0
Thomas Kaiser
10.01.14
12:00
void
@ Thomas Kaiser: ASM1051 ist also Müll, wenn ich dich richtig verstanden habe?
Nein, ganz im Gegenteil. Der taugt, kann UASP und ist eine gute Wahl. Und USB3-Gehäusehersteller, die diesen Bridge-Chip einsetzen, speziell wenn sie bus-powered 2,5"-Gehäuse anbieten, haben technisch gesehen kaum noch eine Möglichkeit, etwas zu verbocken respektive sich auf technischer Ebene voneinander zu unterscheiden (und vor dem Hintergrund muß man halt das vorhin erwähnte Alu-Gehäuse für zahlungskräftige, ahnungslose und über Käsereibe-Design anzufixende Mac-User sehen im Vergleich zu China-Plaste, die von den
inneren
Werten her exakt identisch ist:
Was anderes ist es bei 3,5"-Gehäusen oder wenn das Gehäuse außen eine USB-Buchse und innen mehrere SATA-Anschlüsse hat. Dann spielen weitere Komponenten rein, wo man dann durch Auswahl minderwertiger Bauteile wie Spannungswandler, Kondensatoren, etc. pp. der geplanten Obsoleszenz des ganzen Elektronik-Gedöns noch schneller nachhelfen kann.
Wer hier zu "nur billig" greift, dürfte das bereuen, denn da kriegt man dann zwangsläufig das Erwartbare. Das Blöde dabei ist halt nur, dass der Umkehrschluß nicht gilt: Ein höherer Preis ist nicht automatisch Indikator, dass die
relevanten
Zutaten auch höherwertiger sind.
void
Ich betreibe 2 WD Green im JBOD, um dann via Software-Raid 1 von OSX meine Daten auf dem Gerät zu speichern. Dank dieser Entscheidung (Software-Raid) bin ich aber vom Gehäuse unabhängig und kann bei meinem nächsten Gehäuse auf das von dir gelernte achten.
Die Schlußfolgerung bzgl. "Software-RAID" ist zwar richtig (und verhindert gleichzeitig noch
den
klassischen "Single Point of Failure" schlechthin, der viele Billig-RAID-Lösungen so richtig lächerlich macht: Den Ausfall von Controller/Netzteil oder sonst irgendeinem proprietärem Bauteil, das zwischen einem selbst und den Daten auf dem RAID steht), macht aber RAID im Home-/SOHO-Bereich auch nicht wirklich sinnvoller
Hilfreich?
0
void
10.01.14
12:22
Thomas Kaiser
Nein, ganz im Gegenteil.
Oh ok dann hab ich das falsch verstanden
Thomas Kaiser
[...]Dann spielen weitere Komponenten rein, wo man dann durch Auswahl minderwertiger Bauteile wie Spannungswandler, Kondensatoren, etc. pp. der geplanten Obsoleszenz des ganzen Elektronik-Gedöns noch schneller nachhelfen kann. [...]
Bei Billiggehäusen ist der Ausfall dann aber auch weniger tragisch, sofern
die Daten darunter nicht leiden.
Thomas Kaiser
[...] Software-RAID [...]
Inwiefern hälst du Raid im SOHO-Bereich für wenig sinnvoll? Eine Quadrierung der Ausfallwahrscheinlichkeit bei den geringen Festplattenpreisen ist doch schön. Wenn jetzt OSX noch höhere Lesegeschwindigkeiten im Raid 1 unterstützen würde, wäre das natürlich noch besser
In Kombination mit regelmäßigen Backups hat man damit eine für SOHO-Verhältnisse nahezu perfekte Verfügbarkeit. Wenn man jetzt noch weiß, wie man Vertraulichkeit und Integrität hochschraubt, verringert das die Sorgen, die man sich um seine Daten machen muss enorm.
„Developer of the Day 11. Februar 2013“
Hilfreich?
0
Thomas Kaiser
10.01.14
12:52
photoproject
Ok, dann also konkret: ich möchte per TM ein Backup meines iMac fahren. Die (wie auch immer geartete) externe HDD dazu soll 3 TB Kapa haben. Die Backups werden manuell angestoßen, und zwar immer dann, wenn ich es für notwendig erachte. Jetzt gibt es zig Varianten an:
- fertig konfigurierten HDDs
- Gehäusen
- Platten
Und jetzt gibt es noch zig Varianten an:
- iMacs (was für Schnittstellen hat Deiner?)
- Ausgangssituationen (bspw. ob man die zu sicherenden Daten ganz/teilweise auf SSD oder HD hat)
- abzufangende Szenarien (verdienst Du mit dem iMac Deine Brötchen -- "Zeit ist Geld" -- oder ist das nur Hobby?)
- Verständnis der Datensicherungsgrundlagen und davon abgeleiteten Datenhaltungsstrategien
- und noch ein paar mehr
Du errätst es schon: Alles Sachen, mit denen sich kein Normal-User überhaupt auseinandersetzen möchte, die aber für eine seriöse Betrachtung bzw. vor allem "
Beratung/Empfehlung
" unabdingbar sind. Ich bin diesbzgl. schlichtweg schon beruflich versaut, weil wir mitunter unsere Brötchen damit verdienen, diesbzgl. Firmen zu beraten.
Kurz zu den Punkten da oben:
- Welcher iMac bzw. welche Schnittstellen dürfte selbsterklärend sein. Ohne diese Info kann man überhaupt nichts empfehlen
- zu sichernde Daten auf SSD oder HD macht insofern einen Unterschied als beiden Massenspeichern zwar gemein ist, dass nie die Frage ist, ob sie kaputtgehen sondern immer nur wann. Die technischen Konsequenzen des "Kaputtgehen" unterscheiden sich aber ebenso wie die davon abzuleitenden Strategien. Bei einer HD heißt "kaputt" mit 99% Wahrscheinlichkeit "Daten ganz oder teilweise futsch". Bei einer SSD hingegen nur "kann ab jetzt nicht mehr beschrieben werden" (die seltenen Fälle, dass SSDs auch gleich die Daten schreddern sind kein Alterungseffekt sondern betreffen andere Gefahrenszenarien, die wiederum anders abgefangen werden müssen -- deshalb ist es ja bspw. keine wirklich schlaue Idee, ein RAID-1 aus zwei identischen SSDs bauen zu wollen)
- die Frage, ob man mit der Kiste Geld verdient oder nicht, wird insofern spannend als man nicht mehr nur über Backup sondern auch über Desaster Recovery nachdenken
muß
. Und das kann bei einem iMac, bei dem man nicht eben schnell mal irgendeine Komponente tauschen kann, je nach Verfügbarkeit externer Schnittstellen dies&das bedeuten. In solchen Situationen hilft generell eine klare Trennung von System und Nutzdaten, das Anfertigen bootbarer Klone von Ersterem, die bewußt unisex gehalten sind, damit sie auch an anderen Macs starten (immer nur Combo-Updates einspielen) und regelmäßige Datensicherung der Nutzdaten
- Datensicherungsgrundlagen/Datenhaltungsstrategien: Nur so viel: ich archiviere auch privat. Und alles, was archiviert ist, braucht nicht mehr gesichert werden, weil Blödsinn bzw. Redundanz. Dadurch und durch sinnvolle Vorkehrungen (wie bspw. Ausnehmen des "Downloads"-Ordners vom Backup und bewußter aktiver Datenhaltung) sinkt das Datenvolumen für Backups so weit, dass selbst ar***lahme USB2-Notebook-Platten völlig ausreichend sind: Ergo in
meiner
Situation es völlig egal ist, auf was ich da extern sichere, solange das nur zuverlässig tut. Weil an anderen Stellen (Archivierung, zentrales Versionskontrollsystem für Projektdaten, "tmutil enablelocal" weil SSD im Einsatz, etc. pp.) ausreichend vorgebaut ist.
Also: welche "fertige" HDD bzw. welche Gehäuse-HDD-Kombi wäre für mich und meine Zwecke/Anwendung passend?
Im Ernst: Du hast weder Zwecke noch Anwendung beschrieben. Nur technische Randbedingungen, die Du bereits als gegeben ansiehst. Das sind zwei komplett verschiedene Paar Schuhe
Und nochmal im Ernst: Das Problem bei "fertigen" HDDs ist, dass Du letztlich die Katze im Sack kaufst. Du weißt weder, welche Platte drinsteckt, noch welcher Chipsatz, nachzulesende Reviews für sowas sind auch für die Tonne, weil die Hersteller jederzeit alles an Interna ändern können und damit letztlich
etwas völlig anderes
immer noch äußerlich und marketing-mäßig unverändert als "WD MyBlubb" (um ein völlig wahlloses Beispiel zu nehmen) bewerben.
Hilfreich?
0
photoproject
10.01.14
13:40
@ Thomas Kaiser:
- iMac late 2013, 3TB FD, USB3 + Thunderbolt
- Anwendung: Aperture/Photoshop
- Sicherung von System- und Nutzdaten via TM als schnell einspielbares Backup, wenn ich Schussel "aus Versehen" eine (Bild)Datei/einen Ordner/eine Angebotsmail gelöscht und den Papierkorb geleert habe (Nutzdaten sind eh 3fach redundant vorhanden und archiviert), wenn der Mac "abraucht" und ich auf einem Ersatz (der zur Verfügung steht) das Projekt weiter-/endbearbeiten will/muss.
- Brötchen werden mit den Nutzdaten (=Bilder in/aus der Aperture Datenbank) verdient, allerdings mehr "just4fun", nicht zum Unterhalt von Frau/Kind/Haus/Auto/Yacht und betrifft "nur" ca. 4-8 Projekte (=Hochzeiten) p.a., danach sind die Projekte abgeschlossen und im Prinzip "löschbar" (ich kann mich halt nicht von Fotos trennen).
- mir ist im Prinzip egal, auf WAS ich sichere, hauptsache es funktioniert.
Hintergrund meiner Frage: seit der neue iMac im November ankam, fahre ich TM auf einer WD Studio 2TB (war bereits vorhanden), die in absehbarer Zeit zu klein werden wird, da der iMac ja 3 TB hat (aktuell ca. 1,4 belegt). Also suche ich ein externes Speichermedium mit 3 (oder 4) TB Kapa nur für TM. Die Frage nach einer Empfehlung stellte ich schon in einem eigenen Thread, habe mich aber noch nicht entschieden, werte also noch alle verfügbaren Informationen aus.
Hilfreich?
0
Thomas Kaiser
10.01.14
13:55
void
Thomas Kaiser
[...]Dann spielen weitere Komponenten rein, wo man dann durch Auswahl minderwertiger Bauteile wie Spannungswandler, Kondensatoren, etc. pp. der geplanten Obsoleszenz des ganzen Elektronik-Gedöns noch schneller nachhelfen kann. [...]
Bei Billiggehäusen ist der Ausfall dann aber auch weniger tragisch, sofern
die Daten darunter nicht leiden.
Und das ist leider so ein Punkt, bei dem "unser" HFS+ nicht so wirklich toll abschneidet im Vergleich zu moderneren Dateisystemen, die "Copy on Write" und Prüfsummen über alles unterstützen (für mich auch nach wie vor eines der Pro-Argumente für Solaris auf Servern bei Kunden: ZFS -- aber völlig egal hier im Kontext des Threads)
void
Inwiefern hälst du Raid im SOHO-Bereich für wenig sinnvoll?
Naja, warum macht man denn da RAID? "Wegen der Daten" irgendwie und so. Letztlich aus einem "guten Bauchgefühl" heraus. Dumm nur, dass die kleine häßliche Schwester dieses Bauchgefühls "fälschliche Sicherheit" heißt, in der sich das Gros der RAID-User wiegt
Im Ernst: Alle RAID-Modi (abseits 0) zielen abseits ggf. höherer Geschwindigkeit nur auf Erhöhung von Datenverfügbarkeit ab, indem man mittels RAID versucht, sog. Single Points of Failure (SPoF) zu eliminieren. Das Ziel ist, dass der Ausfall von $irgendwas (bspw. einer Platte) erstmal keine direkten negativen Konsequenzen hat sondern man -- ggf. langsamer -- weiterhin auf die Daten zugreifen kann und die Behebung des eigentlichen Problems auf außerhalb der Produktionszeit verschieben kann (oder sich das Ganze sogar gleich selbst wieder repariert -- Stichwort "automatischer Rebuild" und "Hot-Spare"). Quizfrage für Home-/SOHO-RAID-Nutzer: Braucht es diesen einzig möglichen Effekt von RAID überhaupt in ihrem konkreten Szenarium? Ohne sich selbst anzuschwindeln?
Das Ganze hat nullkommanichts mit sowohl Datensicherheit als auch Erhöhung von Datenintegrität zu tun. Ganz im Gegenteil: Es ist für beides prinzipiell kontraproduktiv, weil es mehr Abstraktion und Komplexität ins Spiel bringt.
Bleibt also nur: "Erhöhung der Datenverfügbarkeit". Das ist die
Erwartung
. Auf die der RAID-Nutzer in aller Regel (und im Home-/SOHO-Bereich zu ca. 100%) vertraut bzw.
vertrauen muß
(ich kenne zumindest niemand, der im Home-/SOHO-Bereich ein RAID-System
ernsthaft
austesten würde). Und vertrauen muß er ganz einfach, weil ihm jeglicher Erfahrungshorizont fehlt, um abzuschätzen, ob sich dieser Effekt der tatsächlichen erhöhten Datenverfügbarkeit im "Worst Case" überhaupt einstellt. Denn ob die RAID-Implementierung dann auch hält, was sie verspricht, weiß man erst hinterher.
Die meisten Nutzer irgendwelcher RAID-Kisten übersehen ja schon völlig, dass die RAID-Implementierung zwar das Abfangen des einen SPoF "ausfallende Platte" erlauben
soll
. Sie sich aber einen bunten Strauß an neuen SPoF genau damit frisch eingefangen haben (als da wären "das RAID an sich" bzw. dessen RAID-Controller, das interne Netzteil der Kiste, interne Steckverbinder oder -- Dez. 2013 zuletzt bei einem Neukunden gehabt -- das eine Kabel, das geknickt wurde und von dem man kein zweites herumliegen hatte).
Aber letztlich ist es völlig gaga, diesbzgl. was zu schreiben. Das ist wie bei Kindererziehung. Gibt Sachen, da kann man sich den Mund fusselig reden. Aber der Lerneffekt tritt nur durch Erfahrung ein. RAID ist halt irgendwann aus der professionellen IT in die Alltags-/Heim-IT gerutscht, und gemacht wird's, weil's wahlweise cool ist oder für ein gutes Gefühl sorgt (welches sich bei häßlich vielen Anwendern auch noch aus der Idee nährt, "irgendwie" schon auch was bzgl. Datensicherheit verbessert zu haben)
Der berühmte worst case, wenn man's dann mal braucht, tritt statistisch gesehen (und hoffentlich) verdammt selten ein, so dass auch der Erfahrungshorizont entsprechend punktförmig ausfällt, bis dann eben mal was schiefläuft. Das sieht man als Dienstleister, der Stand heute quasi nur noch mit Storage-Fehlverhalten konfrontiert wird (weil als Datenretter gerufen) zwangsläufig bisserl anders. Und genau daraus resultiert dann das nicht mehr vorhandene Vertrauen in die Datenverfügbarkeit kleiner RAID-Lösungen.
Wir haben in unseren Anfangstagen 'zig RAID-Varianten bei Kunden implementiert und buchstäblich Pferde kotzen sehen. All time high: Ein RAID fährt nicht mehr hoch, weil die Hot-Spare nicht bereit ist (also komplette Negation der RAID-Existenzberechtigung, indem der RAID-Controller 100% Datennichtverfügbarkeit beschließt)
Seit ca. 10 Jahren lassen wir die Finger davon und arbeiten mit 2 Systemhäusern zusammen, die den Hardware-Part abdecken, entsprechend in die Breite gehende Erfahrung haben (und daher nur ihnen bekanntes Zeugs verbauen) und dito Ersatzgerät vorrätig bzw. durch Umsatzsituation kurzfristigst vom Distri zu beziehend haben, damit in Installationen, wo nicht jedes Trumm (im Sinne von "das RAID an sich ohne Platten") redundant vorhanden ist, die Idee von Datenverfügbarkeit aufrechtgehalten werden kann.
Hilfreich?
0
Thomas Kaiser
10.01.14
14:42
Um das Thema abzuschließen (meinerseits zumindest -- muß heute noch bisserl Brötchen verdienen und so)...
photoproject
- iMac late 2013, 3TB FD, USB3 + Thunderbolt
- Anwendung: Aperture/Photoshop
- Sicherung von System- und Nutzdaten via TM als schnell einspielbares Backup, wenn ich Schussel "aus Versehen" eine (Bild)Datei/einen Ordner/eine Angebotsmail gelöscht und den Papierkorb geleert habe
Wegen Letzterem:
sudo tmutil enablelocal
Führt dazu, dass auch auf Deinem stationären iMac sog. "local/mobile backups" durchgeführt werden, d.h. das System hängt ab 10.7 per NFS "/Volumes/MobileBackups" ein und sichert da stündlich alle Änderungen per TM drauf, auf die Du dann auch zugreifen kannst, wenn keine externe TM-Platte dranhing (und genau das, das versehentliche Löschen/Schreddern von Dateien, ist der vielvielviel häufigere Grund, auf ein Backup zuzugreifen als Plattentod, und wird dadurch effektiv abgefangen). Randbedingungen: Der Mechanismus läuft nur, wenn die interne Platte noch zu mind. 20% frei ist. Und der Speicherplatz lehrt sich erst wieder, wenn Du ein externes Backup-Medium anschließt, was man ebenso periodisch tun sollte.
Der Rest klingt nach "zeitunkritisch" bzgl. Backup, nicht aber Desaster Recovery. Ich würd's so machen, wie wir das "Einzelkämpfern" andienen:
- 2 TM-Medien (vulgo Platten, in Deinem Fall -- Du worst mindestens 10.8 einsetzen und hast UASP-fähige interne USB-Ports -- wäre die Technologie der Wahl USB3,
wenn denn
die Ersatzmaschine auch USB3 in dieser Spielart hat)
- Platten partitionieren (Recovery HD -- just in case --, eine für ein abgespecktes System, Rest TimeMachine)
- In TimeMachine System-Dateien
nicht
ausschließen sondern mitsichern lassen, abwechselnd mal auf die eine und mal auf die andere sichern (ich hab das Ende des Jahres einer Freundin so eingerichtet, dass die zwei externe HDs an ihrem Mac an einer USB-Steckerleiste EnerGenie EG-PMS
hängen hat und ein LaunchDaemon bei jedem Start nur die jeweils andere Platte anknipst. Das zur Steuerung der Steckerleiste nötige sispmctl-Binary läuft problemlos unter OS X)
- vor allen relevanten Änderungen am System (bei HD-basierten Systemen sind das v.a. große Systemupdates) wird das abgespeckte System auf eine der beiden HDs auf die dortige System-Partition inkrementell geklont -- siehe unten.
Fertig.
Warum grad vor System-Updates klonen, wenn man auch per TM auf den vorherigen Stand zurückkehren könnte? Einfach weil man nach einem Upgrade, wenn was ggf. anders ist, schnell testen kann, ob's nun daran liegt oder nicht
ohne
zeitaufwändig einen Restore durchzuführen.
Und ein ganz wesentlicher Punkt: Ein System-Update ist Streß für die Platte, da werden gerne mal 'ne halbe Mio. Dateien geschrieben. Wenn die Platte oder das Dateisystem schon leicht einen an der Waffel haben oder bspw. Reservesektoren schon fast alle aufgebraucht sind, dann kann so ein Systemupdate den häßlichen Zustand "Platte putt" herbeiführen. In so einer Situation irgendwie erstmal weitermachen zu können, weil man von einem System im letzten bekanntermaßen funktionierenden Zustand booten kann, ist dann gar nicht sooo verkehrt.
Ach ja: Zum Punkt "abgespecktes System klonen". Ich empfehl da immer gerne entweder das Ganze gleich mit Umweg über Recovery Partition zu machen (weil man dann ein garantiert ruhendes System klont, was viel besser ist als ein aktives) oder wenigstens "Safe Boot". Heißt: Mit gedrückter [shift]-Taste booten. Das System macht dann gleich einen Dateisystemcheck der Boot-Platte, lädt nur notwendige Systemerweiterungen und dann klont man aus so einem "ruhigeren" System raus. Wir nutzen dazu das gepatchte rsync, das im Carbon Copy Cloner Binary drinsteckt, per Skript. Kann man sich aber auch im CCC sinnvoll zusammenklicken.
So, hoffe, ausführlich genug gewesen zu sein (ohne konkrete Nennung von Herstellern
-- nur nochmals: eher Finger weg von Komplettlösungen außer man steht auf "Katze im Sack")
Hilfreich?
0
photoproject
10.01.14
14:58
Hallo Herr Kaiser
(sorry, aber der musste sein!), vielen Dank fürs Aufschlauen!
So, und jetzt weiter Brötchen verdienen!
Hilfreich?
0
Gerhard Uhlhorn
10.01.14
15:15
herwighenseler
Falsch. Faktor 2.
Das entspricht aber nicht meinen langjährigen Beobachtungen. Das muss dann an dem verwendeten Gerät liegen. In der Praxis ist FireWire etwa 4-mal so schnell wie USB 2.
Hilfreich?
0
Gerhard Uhlhorn
10.01.14
15:17
Thomas Kaiser: USB 3 ist eine ganz andere Geschichte, das ist mir bekannt. Dort sind viele Schwächen von USB 2 beseitigt worden.
Ansonsten stimme ich allem zu.
Hilfreich?
0
Gerhard Uhlhorn
10.01.14
15:37
Thomas Kaiser:
(ich kenne zumindest niemand, der im Home-/SOHO-Bereich ein RAID-System ernsthaft austesten würde)
Oh, doch, ich!
Bevor ich mir diverse Drobos zugelegt habe, habe ich genau getestet, was damit geht und wie es geht.
Inzwischen habe ich 1…2 tote Platten pro Jahr bei meinen vielen Platten in meinen 3 Drobos. Das ist kein Problem, denn ich ziehe die alte Platte raus, stecke eine neue rein, und mehr muss ich nicht machen. Keine Konfiguration, keine Einstellungen in irgendwelchen Tools, nichts. Nur Platten tauschen, das ist alles. Um den Rest kümmert sich der Drobo alleine.
Da ich 2 von 3 Drobos für Time Machine benutze, habe ich die Größe des virtuellen Volumes auf 80 % der Nettogröße der Platten minus eine Platte begrenzt. Beispiel: Ich habe 5 Platten im Drobo, nehme aber die Kapazität, die ich mit 4 Platten erreiche und davon nur 80 %. Dann wird der Drobo nie voller als 80 % bei 4 Platten. Die 5. Platte dient als Ausfallreserve. Dadurch kann jederzeit eine Platte ausfallen, ohne, dass ich tätig werden muss. Denn die Reserveplatte ist ja bereits drin. Es kann problemlos noch eine ausfallen, dann erst wird der Drobo ziemlich voll. Ist aber auch noch kein Problem.
Im Moment ist wieder eine kaputt. Irgendwann, wenn ich mal Zeit habe, kaufe ich eine neue Platte und tausche sie einfach aus. Das war’s. Das ist sehr sehr einfach!
Hilfreich?
0
photoproject
10.01.14
15:56
Gerhard Uhlhorn: was treibst Du, dass Du bis zu 2 Platten p.a. schaffst?
Laufen die 24/7? In meinem ganzen Computeruserleben (seit 1994 WIN + Mac) hatte ich erst einen einzigen Ausfall (eine externe und diese hat mein Großer mit dem Netzteil geschossen).
Hilfreich?
0
Gerhard Uhlhorn
10.01.14
16:01
Nichts besonderes. Die halten heute eben nicht mehr so lang.
Ich habe hier inzwischen einen ganzen Eimer voller kaputter Platten. Einige aus den Drobos, viele aus Rechnern von Familie, Freunden, Kunden usw. und auch aus den eigenen Macs. Das Sterben begann so um 2005. Bis dahin hatte ich auch nie eine kaputte Platte. Und ich bin schon seit 1979 dabei!
Die im Drobo laufen nonstop.
Hilfreich?
0
Thomas Kaiser
10.01.14
16:03
Gerhard Uhlhorn
Thomas Kaiser: USB 3 ist eine ganz andere Geschichte, das ist mir bekannt. Dort sind viele Schwächen von USB 2 beseitigt worden.
Stimmt leider auch nicht. Also in dieser absoluten Formulierung.
In USB3 sind nicht "Schwächen beseitigt" sondern der Standard um dies&das ergänzt worden, das bei Vorliegen entsprechender Randbedingungen dann auch zum Einsatz kommen kann. Nur weil man zwei prinzipiell USB3-fähige Geräte mit einer prinzipiell USB3-kompatiblen Variante (bspw. ein Hub) verbindet, heißt das noch lange nicht, dass jetzt alles toll wird.
Nochmal ganz knapp zu den leidigen "technischen Details".
IEEE 1394a (Firewire mit 400 MBit/sek) hat gegenüber USB 2.0 mit 480 MBit/sek beim Zugriff auf externe Platten Folgendes ins Feld zu führen obwohl USB 2.0
theoretisch
im bulk-transfer-Modus 1394a verseilt:
- DMA-fähig (die CPU hat weniger/nix zu tun mit entsprechenden Konsequenzen für die Sicherheit)
- Serial Bus Protocol 2 (SBP-2) bzw. dessen "SCSI Architecture Model SCSI Primary Commands specification" ermöglicht aus Host-Sicht das Nutzen von altbekannten/-bewährten SCSI-Zugriffssemantiken, die sich bei guten Bridge-Chipsätzen im Gehäuse nahezu 1:1 sinnvoll in ATA-Kommandos umsetzen lassen (USB unterstützt zwar generell auch das sog. "SCSI Command Set/Protocol" und könnte damit auch "Nettigkeiten" wie Native Command Queuing unterstützen. Nur in der "USB-Mass-Storage"-Praxis wird de facto lediglich ein primitives Basic-Set an read/write-Operationen unterstützt)
- Full vs. half duplex
- mehr Strom in "bus powered"-Situationen (und das ist auch eine USB-typische Krankheit, dass Devices zu wenig Saft kriegen und partiell instabil und partiell ar***lahm werden, weil andauernd Bus-Resets anstehen, etc. pp.)
Es ist also weniger eine Frage von brutto vs. netto als von anderen Faktoren, die in der Praxis das nominell schnellere USB 2.0 schon gegenüber dem ersten Firewire-Wurf ausbremsen. Mit FW-800 verstärkt sich das natürlich nur noch. Und die Auswirkungen können je nach Zugriffssemantiken (mal wieder: viele wahlfreie Zugriffe auf kleine Dateien vs. sequentielle Dauertransferraten, deren Aussagefähigkeit bzgl. typischer Plattenaktivität in Desktop-Systemen haarsträubend gering ist) höchst unterschiedlich ausfallen.
Mit entsprechenden Erweiterungen in USB 3.x neben den nominellen Anhebungen der Brutto-Transferraten (USB 3.1 ist ja bei 10 GBit/sek auf dem Papier) wendet sich dann das Blatt bzgl. Firewire. UASP ist genau sowas, das ermöglicht auf einmal analog zu SBP-2 einen direkteren Zugriff auf die Platte im USB-Enclosure, und dementsprechend mehr von deren Leistung kommt beim Host an.
Nur: Ob das dann wirklich der Fall ist und ob UASP oder die olle und lahme Mass-Storage-Chose ausgehandelt wird, hängt von diversen Faktoren ab. Im Zweifel muß man nachschauen und/oder aktiv auf die Anschlußtopologie Einfluß nehmen, um UASP zu "erzwingen", siehe bspw.
http://fortysomethinggeek.blogspot.de/2013/04/osx-mountain-lion-108-uas-uasp-usb.html
Die Situation am Mac ist da insofern erfreulich als Apple erst 2012 als Intel endlich USB3 in seinen Desktop-Chipsätzen eingebaut hat, eingestiegen ist. Und die beherrschen wenigstens UASP im Gegensatz zu so manchem Chipsatz, der im PC-Bereich in den Jahren vorher schon verbaut wurde.
Hilfreich?
0
void
10.01.14
16:06
Thomas Kaiser
Und das ist leider so ein Punkt, bei dem "unser" HFS+ nicht so wirklich toll abschneidet im Vergleich zu moderneren Dateisystemen, die "Copy on Write" und Prüfsummen über alles unterstützen (für mich auch nach wie vor eines der Pro-Argumente für Solaris auf Servern bei Kunden: ZFS -- aber völlig egal hier im Kontext des Threads)
Ich hoffe ja immer noch auf eine consumerfreundlich vorkonfigurierten, nativen ZFS-Unterstützung in OSX. Bis dahin werde ich weiter selbst gegen Bit-Rotting ankämpfen. Wirklich kritische Daten liegen (verschlüsselt) bei Amazon.
Thomas Kaiser
[...] fälschliche Sicherheit [...]
Ack.
Thomas Kaiser
[...] Das Ganze hat nullkommanichts mit sowohl Datensicherheit als auch Erhöhung von Datenintegrität zu tun. [...]
Jein: Verfügbarkeit ist per Definition ein Teilaspekt der Datensicherheit
Ansonsten ack. Man muss wissen, worauf man sich einlässt und darf auf keinen Fall erhöhte Integrität erwarten (Stichwort: Zu Unrecht erhöhte gefühlte Sicherheit).
Thomas Kaiser
[...] Auf die der RAID-Nutzer in aller Regel [...] vertrauen muß [...]
[...] Sie sich aber einen bunten Strauß an neuen SPoF genau damit frisch eingefangen haben. [...]
[...] weil's wahlweise cool ist oder für ein gutes Gefühl sorgt [...]
[...] so dass auch der Erfahrungshorizont entsprechend punktförmig ausfällt, bis dann eben mal was schiefläuft [...]
Man muss eben wissen, mit was man es zu tun hat und darf sich nicht blind auf Marketing und Halbwissen verlassen. Gerade deshalb nochmal ein dickes Danke von mir für deine ausführlichen Erklärungen.
„Developer of the Day 11. Februar 2013“
Hilfreich?
0
Gerhard Uhlhorn
10.01.14
16:10
Zusammengefasst: USB 2 ist immer langsamer als jede Art von FireWire.
Thomas Kaiser
Stimmt leider auch nicht. Also in dieser absoluten Formulierung.
Äh, das ist doch gar keine absolute Formulierung!?! Wenn einem Standard wichtige Funktionen fehlen, und diese später ergänzt werden, dann kann man sehr wohl davon sprechen, dass
einige Schwächen
beseitigt wurden!
Hilfreich?
0
void
10.01.14
16:22
Thomas Kaiser
http://fortysomethinggeek.blogspot.de/2013/04/osx-mountain-lion-108-uas-uasp-usb.html
Oh, dann läuft meine Externe leider doch über Mass Storage (Liegt vmtl. dann am vorgeschalteten Port Multiplier - SIL5923). Schade. Aber abgesehen von Geschwindigkeitseinbußen nicht weiter tragisch... Oder doch?
„Developer of the Day 11. Februar 2013“
Hilfreich?
0
Thomas Kaiser
10.01.14
16:51
Gerhard Uhlhorn
Zusammengefasst: USB 2 ist immer langsamer als jede Art von FireWire.
Nur wenn es -- wie hier grad konkret -- um typische Zugriffe eines Hosts auf einzelne Festplatten geht. Ansonsten sind Anwendungen, in denen USB 2.0 (bei zugegebenermaßen deutlich höherer Last auf Host-und Controller-im-USB-Device-Seite) die erste Firewire-Version schlägt, denkbar (kennen tue ich freilich keine aber hab was im Hinterkopf, dass mir mal so ein Hardware-Zampano das lang und breit dargelegt hat)
Gerhard Uhlhorn
Wenn einem Standard wichtige Funktionen fehlen, und diese später ergänzt werden, dann kann man sehr wohl davon sprechen, dass
einige Schwächen
beseitigt wurden!
Was ich meinte, ist Folgendes: es hat ja mit USB3 quasi in keinem Bereich eine echte Zäsur stattgefunden, das Gros ist abwärtskompatibel und/oder optional. Damit bleibt's im Zweifel am Anwender bzw. der Kombination aus Controller auf beiden Seiten der Verbindung, Kabeln und weiteren passiven oder gar aktiven Komponenten dazwischen überlassen, was letztlich ausgehandelt wird bzw. "ankommt". Das ist halt so eine Crux mit Standards, die alte Zöpfe nicht abschneiden sondern Neues zusätzlich/optional erlauben (dito mit HDMI, da gibt's zig Versionen, die alle immer mehr und Tolleres von Version zu Version umfassen. Aber quasi alles ist nur optional und im Zweifel Glücksache, wenn sich zwei HDMI 1.4-Devices auf mehr als 480p und Stereo einigen -- drastisch übersitzt gesagt
)
Zum Thema "ernsthaft RAID testen" v.a. in der Geschmacksrichtung Drobo äußere ich mich jetzt nicht mehr. Das hat mit deutlich mehr als "Platte wechseln" zu tun, das umfaßt nämlich das Austesten jedes potentiellen SPoF (und das ist bei so 'nem Drobo bspw. mal schon das ganze Ding selbst -- wenn Dir da drin der Controller stirbt, was bedeutet das für die Verfügbarkeit der dort gespeicherten Daten? In dem Zeitraum, den es braucht, bis Du das Ding eingeschickt hast und Ersatz bekommst? Bzw. nachdem dann mal "DroboCare" mal abgelaufen ist).
Ich hab selbst miterlebt, wie schnell ein ganzes Rudel Platten in einem RAID sterben kann, wenn's ihm deutlich zu heiß wird und der automatische einsetzende Rebuild dann noch für zusätzliche Aktivität sorgt (und *pling* weg die Daten).
Ich hab selbst einen Spezl fernsupported, dessen proprietäres SOHO-RAID-Kasterl die Grätsche gemacht hat, um dann feststellen zu dürfen, dass der Hersteller auf den Dingern ein modifiziertes ext3 mit ext4-Features eingesetzt hat, das sich dann nur noch von Linux-Vollcheckern überhaupt mounten ließ, um mit sowas wie Datenwiederherstellung überhaupt starten zu können.
Hab selbst oft genug mit "unscharfen" Fehlerbildern zu tun gehabt (bspw. RAID-Controller und Platten-Firmwares in leichtem Dauerdisput miteinander -- immer wenn ganz spezifische Zugriffsmuster auf das RAID auftraten, hat der Controller in Windeseile gleich mehrere Platten für tot erklärt, was dann bedeutete: 40 TByte offline, alle bitte nach hause gehen, vielleicht geht's morgen wieder -- wenigstens war nicht ich der arme Irre, der in den nächsten Tagen die knapp 60 Platten einzeln in einen PC ein- und zurückbauen musste, um die Platten-Firmware zu flashen).
Mit anderen Worten: Ein "ernsthafter" Test sieht anders aus. Und die potentiellen Bedrohungsszenarien kennt man selbst, wenn man andauernd nur mit "RAID kaputt, Hilfe!" zu tun hat, auch noch nicht alle. Sondern nur deren viele, auf die einen marodierende Technik schon direkt gestoßen hat (und das sind schon mehr als sich der geneigte Home-/SOHO-Anwender in seinen kühnsten Albträumen vorstellen mag
)
Hilfreich?
0
Gerhard Uhlhorn
10.01.14
17:06
Thomas Kaiser
[…] SPoF (und das ist bei so ‚nem Drobo bspw. mal schon das ganze Ding selbst — wenn Dir da drin der Controller stirbt, was bedeutet das für die Verfügbarkeit der dort gespeicherten Daten? In dem Zeitraum, den es braucht, bis Du das Ding eingeschickt hast und Ersatz bekommst? Bzw. nachdem dann mal „DroboCare“ mal abgelaufen ist).
Da ich mehrere Drobos habe ist das kein Problem: Drobos ausschalten(!), aus dem einen raus, in den anderen rein, wieder einschalten, fertig. Außerdem sind es ohnehin nur Backups. Die Originaldaten sind immer noch auf dem Mac.
Nur ein Drobo verwende ich als Datenarchiv. Doch dessen Inhalt ist auf einen weiteren Drobo geklont.
Ein Ausfall eines Drobos hat also keine nennenswerte Auswirkung.
Und wichtige Daten wie aktuelle Jobdaten habe ich eh in der Dropbox. So werden sie immer sofort auf alle meine Macs gespiegelt und gelangen so auch in die Backups unterschiedlicher Drobos.
Und weil mir das noch nicht reicht, denn ein Feuer könnte ja mein ganzes Haus ausbrennen lassen, oder ein Flugzeug stürzt auf mein Haus (Einflugschneise), mache ich noch ein Backup per FileSync auf einen Server in der Schweiz.
Hilfreich?
0
eMac Extreme
10.01.14
17:26
Hi Thomas!
Erstmal vielen Dank für den sehr ausführlichen Input. Die Empfehlung, auf ein Klone zu verzichten und stattdessen auf ein rotierendes TimeMachine-Backup, werd ich wohl umsetzen und ich werd mir noch überlegen, ob ich die vielen Schnittstellen tatsächlich benötige.
Thomas Kaiser
Wenn Du das Ganze sinnvoll angehen willst, dann verzichte auf den Klon und nutze die zweite HD als "rotierendes" TimeMachine-Medium.
Bislang wusste ich nicht, dass TimeMachine auch den Inhalt der Recovery Partition auf das Backup-Volumen kopiert. Ist wohl bei Netzwerkfestplatten nicht der Fall, oder? Hab bislang per Time Machine immer meine Daten auf eine USB-Festplatte, die an meiner AirPort Extreme hängt, gesichert.
Weiter unten hast du "photoproject" folgendes empfohlen:
Thomas Kaiser
Ich würd's so machen, wie wir das "Einzelkämpfern" andienen:
- 2 TM-Medien (vulgo Platten, in Deinem Fall -- Du worst mindestens 10.8 einsetzen und hast UASP-fähige interne USB-Ports -- wäre die Technologie der Wahl USB3, wenn denn die Ersatzmaschine auch USB3 in dieser Spielart hat)
- Platten partitionieren (Recovery HD -- just in case --, eine für ein abgespecktes System, Rest TimeMachine)
[...]
- vor allen relevanten Änderungen am System (bei HD-basierten Systemen sind das v.a. große Systemupdates) wird das abgespeckte System auf eine der beiden HDs auf die dortige System-Partition inkrementell geklont -- siehe unten.
[...]
Ach ja: Zum Punkt "abgespecktes System klonen". Ich empfehl da immer gerne entweder das Ganze gleich mit Umweg über Recovery Partition zu machen (weil man dann ein garantiert ruhendes System klont, was viel besser ist als ein aktives) oder wenigstens "Safe Boot". Heißt: Mit gedrückter [shift]-Taste booten. Das System macht dann gleich einen Dateisystemcheck der Boot-Platte, lädt nur notwendige Systemerweiterungen und dann klont man aus so einem "ruhigeren" System raus. Wir nutzen dazu das gepatchte rsync, das im Carbon Copy Cloner Binary drinsteckt, per Skript. Kann man sich aber auch im CCC sinnvoll zusammenklicken.
Ich denke darüber nach, ob ich nicht zusätzlich zum zweiten TimeMachine-Backup (inkl. Recovery Partition) auch mein System auf eine extra Partition klonen sollte, um im Fall der Fälle sofort weiterarbeiten zu können. Nur Frage ich mich, was du genau mit abgestecktem System meinst.
Du meinst vermutlich, dass ich nur das System klone und die Nutzerdaten dabei auslasse - richtig? Ist das mit CCC so einfach möglich (dass ich einfach "System klonen" anklicke und ausgewählte Ordner auslasse)? Hab bislang noch kein CCC, deshalb die Frage.
Der andere Schritt, den du erwähnst, wäre über die Recovery Partition zu starten. Nutzt du da dann das Festplatten-Dienstprogramm für den Klone? Wie würde man da die Nutzerdaten ausschließen, so dass man ein abgestecktes System klonen kann?
Wäre dir sehr dankbar, wenn du da noch etwas Licht ins Dunkel bringen könntest. Recht herzlichen Dank für deine Mühen und ein baldiges, schönes Wochenende.
Hilfreich?
0
eMac Extreme
10.01.14
17:47
Ach und noch ne Frage: Was haltet ihr von verschlüsselten Time Machine Backups? Es wird wohl nicht möglich sein, dass Backup an meiner AirPort Extreme zu verschlüsseln, jedoch das zweite TM-Backup auf der Externen umverschlüsselt zu lagern?
Hilfreich?
0
Gerhard Uhlhorn
10.01.14
17:51
Auf einem Server-Volume (OS X Server) kann man das Time-Machine-Backup verschlüsseln. Es sollte auch auf anderen Netzwerk-Laufwerken funktionieren. Technisch sehe ich auch keinen Grund warum es nicht gehen sollte: denn es wird einfach ein verschlüsseltes Disk Image angelegt. That’s it.
Hilfreich?
0
eMac Extreme
10.01.14
17:59
Ja das mit dem verschlüsseln funktioniert auch bei "Netzwerk"-Festplatten. Meine Frage war aber, ob ich wenn ich zwei TM-Backup-Volumen habe, nur eines von beiden verschlüsseln kann. Aber das wird wohl nicht möglich sein, oder gibt es eine solche Funktion in den Einstellungen von OSX?
Mein Gedanke war, dass ich das Backup auf der APE verschlüssel, da sie am Netzwerk hängt und das TM-Backup auf der neuen Externen dann unverschlüsselt ablege.
Hilfreich?
0
Thomas Kaiser
10.01.14
19:34
Gerhard Uhlhorn
Thomas Kaiser
[…] SPoF (und das ist bei so ‚nem Drobo bspw. mal schon das ganze Ding selbst — wenn Dir da drin der Controller stirbt, was bedeutet das für die Verfügbarkeit der dort gespeicherten Daten? In dem Zeitraum, den es braucht, bis Du das Ding eingeschickt hast und Ersatz bekommst? Bzw. nachdem dann mal „DroboCare“ mal abgelaufen ist).
Da ich mehrere Drobos habe ist das kein Problem
Genau.
Mehrere
baugleiche bzw. erwiesener- oder nachgewiesenermaßen austauschbare RAID-Systeme ist die Lösung des grundsätzlichen Problems, dass ein Hardware-RAID selbst den prominentesten SPoF darstellt. Mit Drobos mag das gehen (alle Kombinationen wirklich durchgetestet?), das sieht bei anderen Hardware-RAIDs schon ganz anders aus. Da kannst Du fröhlich Platten umstecken und im besten Fall passiert nix, im schlechtesten werden Dir die Daten kaputtinitialisiert, weil Platten im anderen RAID-System automatisiert als Hot-Spare angenommen und in einen Rebuild aufgenommen werden (Hörensagen, ist mir noch nicht selbst passiert).
Hilfreich?
0
Thomas Kaiser
10.01.14
19:47
eMac Extreme
Bislang wusste ich nicht, dass TimeMachine auch den Inhalt der Recovery Partition auf das Backup-Volumen kopiert. Ist wohl bei Netzwerkfestplatten nicht der Fall, oder?
Übers LAN funktioniert das so nicht (da hülfe wenn dann OS X Server und "NetBoot/NetInstall"). Und da wird auch nicht einfach nur stumpf was kopiert, denn das Ganze wird so auf der Backup-Disk aufgebracht, dass nicht in einer eigenen Partition sondern direkt drauf als "blessed" System liegt, das dann eben beim Starten mit gedrückter alt-Taste ebenfalls angeboten wird.
Wobei die Variante, einfach auf der Backup-Disk eine Recovery Partition erstellen zu lassen, auch funktioniert. Dafür gibt's IIRC sogar bei Apple ein Tool zum Runterladen.
eMac Extreme
Ich denke darüber nach, ob ich nicht zusätzlich zum zweiten TimeMachine-Backup (inkl. Recovery Partition) auch mein System auf eine extra Partition klonen sollte, um im Fall der Fälle sofort weiterarbeiten zu können. Nur Frage ich mich, was du genau mit abgestecktem System meinst.
Du meinst vermutlich, dass ich nur das System klone und die Nutzerdaten dabei auslasse - richtig?
So ungefähr. Wir nehmen da immer rsync, konkret das Binary, was innerhalb des CCC versteckt ist und alle Patches enthält, die dazu dienen, Mac-Dateien vollwertig zu syncen/kopieren/klonen:
/Applications/Carbon\ Copy\ Cloner.app/Contents/MacOS/ccc_helper.app/Contents/MacOS/rsync
Und rsync kann man mit exclude- und include-Listen füttern. Ich hab mir glaub ich einfach die StdExclusions von TimeMachine in eine Liste umgewandelt und noch /Users dazu. Also als das, was nicht mitgeklont werden soll. Weiß es aber nicht mehr so genau.
eMac Extreme
Ist das mit CCC so einfach möglich (dass ich einfach "System klonen" anklicke und ausgewählte Ordner auslasse)? Hab bislang noch kein CCC, deshalb die Frage.
Null Ahnung. Solche Vorgänge werden hier immer zu 100% automatisiert und ich bin bei sowas auch eher auf der Kommandozeile zu hause. Das CCC-GUI hab ich sicherlich vor 5 Jahren das letzte mal offengehabt, um irgendwas nachzuvollziehen, was ein Kunde berichtet hatte.
eMac Extreme
Der andere Schritt, den du erwähnst, wäre über die Recovery Partition zu starten. Nutzt du da dann das Festplatten-Dienstprogramm für den Klone? Wie würde man da die Nutzerdaten ausschließen, so dass man ein abgestecktes System klonen kann?
Festplatten Dienstprogramm taugt nur für komplette Klone (die dafür besonders schnell gehen, weil "block copy"-Modus). Für alles andere würde ich wieder auf rsync zurückgreifen. Der Vorteil des gepatchten "Mac-ready" rsync, das Bombich in seinem CCC eingepackt hat, ist, dass es "statisch gelinkt" ist, d.h. man es überall hin kopieren/bewegen kann und es immer noch funktioniert. Wandert bei den Macs, auf denen ich die Finger habe, immer sofort nach /usr/local/bin, von wo es dann auch aus der Shell, die man aus der Recovery Partition aufreißen kann, genutzt werden kann.
Hilfreich?
0
eMac Extreme
10.01.14
20:06
Klasse! Vielen Dank an Dich für all die Infos, Kniffe und Tricks. Da kann ich jetzt gründlich recherchieren, testen und dann eine hoffentlich solide Backup-Lösung für mich in Betrieb nehmen.
Wünsche Euch allen ein schönes Wochenende!
Hilfreich?
0
Cyco
10.01.14
20:15
Ein schicker Perfektionismus.
Und in wie weit profitiert oder verliert jetzt der Anwender im Alltag davon?
Was interessiert es den normalen Anwender, wenn die SATA2-SSD ein Programm in 1,5 Sek öffnet und eine SATA3-SSD es in 0,9 Sek schafft?
Ich denke ihr versteht worauf ich hinaus will.
USB3 an sich ist natürlich gegenüber USB2 zu bevorzugen.
Aber warum sollte man zu TB statt USB3 greifen, solange man nur eine SSD oder HDD dran hängen hat? Beide Schnittstellen sind schneller als die "Platten".
Hilfreich?
0
Apfelbutz
10.01.14
21:14
Cyco
USB3 an sich ist natürlich gegenüber USB2 zu bevorzugen.
Aber warum sollte man zu TB statt USB3 greifen, solange man nur eine SSD oder HDD dran hängen hat? Beide Schnittstellen sind schneller als die "Platten".
TB sollte bei einer SSD doch etwas bringen.
USB2 bremst eine normale HD aus
USB3 schafft eine schnelle SSD gerade mal so. (nur mit U
USB3 schafft zwei normale HD bei gleichzeitigen Zugriff. (ein zusätzlicher USB Audiokanal stottert dann schon)
TB ? noch keine Erfahrung.
So Daumen mal Pi.
„Kriegsmüde – das ist das dümmste von allen Worten, die die Zeit hat. Kriegsmüde sein, das heißt müde sein des Mordes, müde des Raubes, müde der Lüge, müde d ...“
Hilfreich?
0
Gerhard Uhlhorn
10.01.14
23:55
Ich würde schon deshalb Thunderbolt oder FireWire vorziehen, weil dann der Prozessor weniger zu tun hat. Denn die haben beide DMA, können also auch ohne die Hilfe des Prozessors Daten ins RAM befördern.
Thomas Kaiser
- DMA-fähig (die CPU hat weniger/nix zu tun mit entsprechenden Konsequenzen für die Sicherheit)
Hilfreich?
0
Thomas Kaiser
11.01.14
13:46
Cyco
Ich denke ihr versteht worauf ich hinaus will.
Laß mich raten: Du gehst in eine Bäckerei und bestellst Brot. Und wenn jemand nachfragt, was für Brot, schreist Du laut "Brot eben!"?
Hilfreich?
0
Thomas Kaiser
11.01.14
16:44
eMac Extreme
Ach und noch ne Frage: Was haltet ihr von verschlüsselten Time Machine Backups?
Warum nicht? Auf einer lokal angeschlossenen Platte funktioniert das nicht Backup-Immanent sondern das ganze Dateisystem (bzw. eine Schicht drunter) wird verschlüsselt. Ist Sache von CoreStorage ab 10.7, kann auch im laufenden Betrieb angeknipst werden (ohne das Volume zu löschen nur per Kommandozeile siehe
http://derflounder.wordpress.com/2012/01/06/encrypting-10-7-non-boot-volumes-without-erasing-them/ die initiale Verschlüsselung braucht dann halt seine Zeit)
Gruss,
Thomas
Hilfreich?
0
Thomas Kaiser
11.01.14
17:04
void
Thomas Kaiser
http://fortysomethinggeek.blogspot.de/2013/04/osx-mountain-lion-108-uas-uasp-usb.html
Oh, dann läuft meine Externe leider doch über Mass Storage (Liegt vmtl. dann am vorgeschalteten Port Multiplier - SIL5923).
Oder das Device braucht ein Firmware-Upgrade. Das ist einer der Punkte, die auch noch das Preisgefüge bestimmen (können), den ich bislang nicht erwähnt habe: Service/Support. Ich würd mal danach googlen (Risiken/Nebenwirkungen prüfen -- bspw. geänderter idle spindown kommt immer wieder gerne mal bei solchen Controller-Firmware-Upgrades vor -- und natürlich vorher Backup anfertigen)
void
Schade. Aber abgesehen von Geschwindigkeitseinbußen nicht weiter tragisch... Oder doch?
Nö, bremst halt unnötig und in jedem Fall aus. Das ist ja das Dumme an dem Mass-Storage-Modus, dass er völlig egal wie schnell oder auch langsam die Platte im Gehäuse sein sollte, immer noch deutlich an Performance wegnimmt. Und das betrifft sowohl die hier immer alleinig betrachteten Dauertransferraten als auch und vor allem wahlfreie Zugriffe. D.h. der Punkt betrifft speziell Leute, die ihr System auf eine externe Platte legen wollen.
Hilfreich?
0
Thomas Kaiser
13.01.14
12:54
Gerhard Uhlhorn
Ich würde schon deshalb Thunderbolt oder FireWire vorziehen, weil dann der Prozessor weniger zu tun hat. Denn die haben beide DMA, können also auch ohne die Hilfe des Prozessors Daten ins RAM befördern.
Mir wiederum wäre das relativ wurscht, ob DMA oder nicht, denn ich benutze keinen Mac Classic mehr sondern aktuelle Macs mit CPUs der letzten Jahre, bei denen das halt ehrlich gesagt eine untergeordnete Rolle spielt. Also zumindest nicht, wenn man sich nur mal die Frage stellt: "Was soll ich kaufen?" und dabei die beiden Parameter Preis und Performance gegeneinander abwägt.
FireWire und Thunderbolt in einen Topf zu schmeißen ist eh schon mal problematisch, denn Thunderbolt ist konzeptionell was völlig anderes. Thunderbolt ist der Transport von PCIe und DisplayPort aus dem Gehäuse raus. D.h. wenn man es auf die Rolle "Schnittstelle für externe Platte" reduzieren will, weiß man aufgrund "Thunderbolt" noch genau gar nichts bzgl. der tatsächlichen Schnittstelle.
Denn was konkret zum Einsatz kommt, entscheidet sich erst auf der anderen Seite des TB-Kabels bzw. dem dort sitzenden Controller (der PCIe auf der einen Seite und whatever auf der anderen Seite haben muß). D.h. über Thunderbolt wird PCIe transportiert, was zwischen Platte und TB-Gehäuse für Schnittstelle(n) zum Einsatz kommen, steht auf einem anderen Blatt (bspw. könnte ein TB-RAID-Enclosure Richtung PCIe-Bus einen SAS-Controller haben und zu den Platten hin 1-n SATA-Controller aufweisen. Warum ist das interessant/wichtig: Weil Treiber bzw. deren Qualität ins Spiel kommen -- SAS/SATA-lowlevel-Treiber könnten von ganz anderen Optimierungen der Zugriffe ausgehen und demzufolge völlig unterschiedliche Performance-Charakteristiken aufweisen. Trotz "Thunderbolt-Schnittstelle")
Thunderbolt ist eben eine spezielle Schnittstelle, letztlich aus der Perspektive "externer Platte anschließen wollen" nichts weiter als PCIe am Kabel, so dass der Controller, der früher zwangsweise im Rechner sein musste, halt jetzt auf einmal auch außerhalb des Rechners mit im externen Gehäuse steckt. Das ist üblicherweise bei simplen Enclosures ein oder mehrere SATA-Controller und da TB ja Stand jetzt (und evtl. auch in alle Ewigkeit) noch sowas wie Luxus-Technik ist, meist auch was Vernünftiges.
Aber: Das muß nicht sein, genauso kann im TB-Enclosure olle bzw. unpassende Technik verbaut sein (es ist halt schlichtweg auf der Seite nur PCIe 2.x), die dann dazu führt, dass auch über dieLuxus-Schnittstelle nur Durchschnitt bzw. Suboptimales rauskommt (ein PCIe-SATA II Controller im Enclosure bspw. dürfte das Gros der aktuellen SSDs zumindest von Dauertransferraten her effektiv ausbremsen. Noch eine Prise Firmware-Geschissel und ein halbseidener SATA-Multiplexer dazu und die Performance kann sogar richtig im Keller sein -- und all das ist null Widerspruch zu "Thunderbolt kann 10 bzw. 20 GBit/sek, einfach weil
die spannenden Sachen
an völlig anderer Stelle passieren)
Noch ein Wort zu brutto/netto, weil das ja auch immer in den von Halbwissen respektive Mythenbildung geprägten Schnittstellenbetrachtungen so (falsch) hervorgehoben wird.
Keine moderne Schnittstelle, die mit Clock-Signalen im Ghz- oder höheren MHz-Bereich unterwegs ist, kommt um irgendeine Form von Signalkodierung herum. Das heutzutage wohl immer noch gebräuchlichste ist das sog. 8b/10b-Encoding, das vereinfacht ausgedrückt aus 8 Datenbit deren 10 auf der Leitung macht. Oder anders ausgedrückt: Betrachte ich brutto, dann kommt netto 80% dabei raus. Trifft so auf USB, auf DisplayPort, auf PCIe 2.x und selbstredend auch auf das angeblich so viel effizientere FW-800 zu. Da TB einfach nur DisplayPort und PCIe durchreicht, "erbt" es also diesen Encoding-Verschnitt (aber völlig klar: 80% von zigfach mehr ist halt am Ende immer noch mehr).
Wenn TB mal mit PCIe 3.x klarkommen sollte (TB3?), dann flutschen durch an und für sich indentische Kabel (so die dann immer noch abwärtskompatibel sein sollten) auf einmal deutlich mehr Daten, weil PCIe 3.x vom ineffizienten 8b/10b-Verfahren (20% Encoding-Verlust) auf 128b/130b umsteigt (aus 128 Bit Daten werden nur 130 Bit auf dem Medium -- damit sinkt der Encoding-Verlust auf einmal auf um die 1,5%)
So, was könnte jetzt noch in die Performance reinspielen, wenn schon brutto/netto überall gleich ist und DMA einigermaßen wurscht? Richtig: Zugriffsemantiken auf Daten (Queueing von Requests, Bündelung von sowas, effiziente Datenblockgrößen, etc. pp.).
Und hier liegt der wirkliche Unterschied zwischen Firewire/SATA/SAS (also auch Thunderbolt in der "gebräuchlichen Topologie") und USB. Denn bei Letzterem gab's bis vor Kurzem nur einen brutal ineffizienten Mechanismus, Daten übers Kabel zu schieben: die sog. "bulk-only transfers" bzw. das USB Mass Storage Protocol. Das stammt aus USB 1.x Zeiten als es um 12 MBit/sek ging, wurde schon mit USB 2.0 zum Bremsklotz und spielt v.a. in USB3 noch negativer in die Performance hinein (das ist ja das Blöde: Eine USB-Platte per BOT/Mass-Storage-Protocol angesteuert büßt immer nochmal massiv Leistung ein, auch "wenn die Schnittstelle das doch eigentlich kann")
Abhilfe erst ab USB3 und dessen neuem UASP. Und das und nur das macht den realen Unterschied. Denn mit "USB Attached SCSI" sind die Bremsklötze auf einmal weg und ein UASP-
Setup
kann sogar ein "wertiges" TB-Enclosure bei einem Bruchteil des Preises verseilen. Warum schreib ich UASP-
Setup
? Weil alle Komponenten mitspielen müssen (Host-Controller, Treiber im OS, Controller im Enclosure und Firmware des Controllers dort), damit dieses neue Protokoll zum Tragen kommt. Perfiderweise ist die Wahrscheinlichkeit, dass das zutrifft, bei simplen USB3-Gehäusen höher als bei teureren, die "mehr können".
Wen die technischen Implikationen interessieren kann mal hier weiterlesen:
http://www.tomshardware.com/reviews/usb-3-uas-turbo,3215-6.html
Und wer sich auf die "Anwenderposition" zurückziehen will und drauf hinweist, dass der ganze Technik-Schnickschnack eh niemand interessiert, soll halt mit seinen Mythen und Legenden bzgl. der Schnittstellenvarianten "glücklich werden" (und mit hoher Sicherheit an den optimalen Lösungen vorbeischlittern, die mit einer differenzierteren Betrachtung der Thematik durchaus zu finden sind)
Hilfreich?
0
1
2
>|
Kommentieren
Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.
M4-Benchmarks: Deutliche Leistungssteigerung im...
Erste Benchmarks: M4 Pro schneller als ein M2 U...
Musikbranche verklagt KI-Anbieter
Visa sah Apple als "existenzielle Bedrohung" an
Kurz: 5G-Netze noch mit sehr wenigen Nutzern ++...
Test AirPods Pro 2
iPhone 16 Pro: Tippen oder Wischen ignoriert, N...
AirPods Max: Warum so wenig Innovation?