Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Software
>
Gesamte Website downloaden
Gesamte Website downloaden
system7
02.10.20
10:10
Ich suche nach einer Mac-Anwendung oder alternativ auch einem Web-Service mit dem ich komfortabel eine ganze Website downloaden kann (keine Filme oder dergleichen, überwiegend Text, Links und ein paar Fotos). Die Lösungen, auf die ich gestoßen bin, scheinen überwiegend veraltet oder für Windows zu sein.
Hilfreich?
0
Kommentare
bernds
02.10.20
10:17
Acrobat kann das!
Hilfreich?
-2
marcphotography
02.10.20
10:25
system7
Ich verwende SiteSucker
„Age is an issue of mind over matter. If you don't mind, it doesn't matter. - Mark Twain“
Hilfreich?
+4
xcomma
02.10.20
10:45
Würde auch zuerst SiteSucker probieren.
Ansonsten: HTTrack
(Kommandozeilentool; GUI nur für Win)
Hilfreich?
0
Krypton
02.10.20
12:19
Wenn es sich um eine relativ «einfache» Website handelt, kann ich auch den SiteSucker empfehlen. Früher war Teleport Pro
für Windows das Tool der Wahl.
Bei komplexen Seiten (mit Content-Management System im Hintergrund) oder komplexen verlinkten CSS-Files und Scripten scheitern leider einige Tools, bzw. die heruntergeladene Version hat optisch oft nicht mehr viel mit der Online-Version zu tun. Hier hilft nur ein Versuch.
Hilfreich?
0
camaso
02.10.20
12:59
bernds
Acrobat kann das!
Wie?
Hilfreich?
0
rmayergfx
02.10.20
13:18
system7
Ich suche nach einer Mac-Anwendung oder alternativ auch einem Web-Service mit dem ich komfortabel eine ganze Website downloaden kann (keine Filme oder dergleichen, überwiegend Text, Links und ein paar Fotos). Die Lösungen, auf die ich gestoßen bin, scheinen überwiegend veraltet oder für Windows zu sein.
Warum nicht einfach mit dem Browser deiner Wahl die Seite direkt abspeichern. Firefox > Datei > Seite speichern unter "Webseite komplett" Zudem lassen sich nicht alle Seiten einfach so herunterladen, egal mit welchem Tool, hier sind Screenshots angesagt. Das hängt mit dem technischen Aufbau zusammen.
„Der Computer soll die Arbeit des Menschen erleichtern, nicht umgekehrt !“
Hilfreich?
-3
Krypton
02.10.20
13:28
rmayergfx
Warum nicht einfach mit dem Browser deiner Wahl die Seite direkt abspeichern. Firefox > Datei > Seite speichern unter "Webseite komplett"
Für eine Seite (engl. page) geht das auch, für eine ganze Webpräsenz mit vielen Seiten (engl. site) wird’s doch ganz schön mühsam. Zudem geht dann beim Einzeldownload die Verlinkung der Seiten untereinander verloren. Ein Site-Grabber erhält die site (Präsenz) inklusive ihrer Struktur.
Hilfreich?
+2
caba
02.10.20
14:08
Gibt/gab eine Erweiterung für den Firefox: Scrapbook (später Scrapbook X, Scrapbook Plus, aktuell ScrapbookWeb).
Wie gut die aktuelle Version funktioniert, weiß ich nicht, aber die ursprüngliche war genial. Man konnte Webseiten bis in die x-te Ebene offline abspeichern und alles sah genau so aus wie online.
„Meinungen sind keine Ideen, Meinungen sind nicht so wichtig wie Ideen, Meinungen sind nur Meinungen. (J. Ive)“
Hilfreich?
+1
Hakke
02.10.20
14:40
Das geht mit iCab:
Hilfreich?
+1
pcbastler
02.10.20
14:43
Meine erste Idee dazu:
Download a full website:
wget --mirror -p --convert-links -P {{target_folder}} {{url}}
Ich hab's aber selbst noch nicht probiert.
Hilfreich?
+1
sierkb
02.10.20
14:55
pcbastler
Meine erste Idee dazu:
Download a full website:
wget --mirror -p --convert-links -P {{target_folder}} {{url}}
Ich hab's aber selbst noch nicht probiert.
Hat Darwin/macOS von Haus aus wget an Bord? Nein. Seit Jahren nicht.
Hat Darwin/macOS seit Jahren stattdessen aber das Äquivalent vom langjährigen Mozilla-Entwickler Daniel Stenberg,
curl
an Bord? Ja, nämlich /usr/bin/curl.
Also, wenn, dann das betreffende Prozedere naheliegenderweise mit curl, wenn man sich wget nicht zusätzlich installieren will/muss. 🙂
Hilfreich?
+1
ttwm
02.10.20
15:01
wget ist kein Standard unter macOS, sondern muss nachinstalliert werden (so mein Kenntnisstand).
SiteSucker ist ganz gut, aber wenn die Seite sehr mit JavaScript verheiratet ist, ist händische Nacharbeit unablässlich.
camaso
Wie?
In der Acrobat-Vollversion: Menü "Datei
Erstellen
PDF aus Webseite".
Liefert je nach Webseite gute bis grottige PDFs.
DAS Tool für jede Webseite ist leider noch nicht erfunden worden…
Hilfreich?
+2
breaker
02.10.20
15:31
Mit Sitesucker hab ich gute Erfahrungen gemacht, eventuell muss man aber ein bisschen mit den Einstellungen spielen, bis das Ergebnis passt. Hab damit auch schon mal eine komplette Homepage runtergeladen, ein Bildarchiv mit historischen Fotos, weil die evtl. mal "verschwinden" könnte und es diese Aufnahmen sonst nirgendswo gibt.
Hilfreich?
+1
system7
07.10.20
18:59
Bin überrascht, aber es hat mit Acrobat gut funktioniert. Vielen Dank für den Hinweis.
Hilfreich?
+1
micheee
07.10.20
23:02
Also wenn du die ganze Website runterladen willst, würde ich auch wget oder Sitesucker empfehlen.
Wenn du tatsächlich nur ein PDF einer einzelnen Webseite runterladen willst, dann hab ich mit
Paparazzi ganz gute Erfahrungen gemacht
P.S.
vs.
ich glaube deswegen hast du so unterschiedliche Antworten bekommen
Hilfreich?
+1
macuser11
08.10.20
02:41
Ich benutze diese erwähnten Terminal-Kommandozeilen:
➡️
HTTrack
httrack --disable-security-limits --max-rate 300000000 -s0 https://www.mactechnews.de -v
➡️
Wget
wget --html-extension --no-clobber --convert-links --random-wait -r -p -E -e robots=off -U mozilla https://www.mactechnews.de
➡️
Firefox: Webseite/Landingpage
Mit der Funktion Firefox Screenshots können Sie Bildschirmfotos von sichtbaren Teilen einer Webseite und sogar 👉komplette Webseiten👈 aufnehmen und diese Bildschirmfotos kopieren oder speichern.
Hilfreich?
+3
pcbastler
08.10.20
07:32
OK,
ich hättest mal eine Frage, da ich vor einem ähnlichen Problem stehe:
Mit welchen der genannten Methoden ist es möglich, eine Site nur teilweise herunterzuladen? - "Meine" Methode mit wget versucht, egal mit welchen Parametern ich es versucht habe, immer die gesamte Site zu laden.
Konkret geht es darum, dass ich von archive.org einen bestimmten Snapshot einer Site herunterladen möchte: https://web.archive.org/web/20190919005120/http://www.cmos4000.de/
Viele Grüße
Hilfreich?
0
u_wolf
08.10.20
10:37
pcbastler
Falls du noch 32bit apps benutzt, kann ich dir die alte Version 1.0.12 von Skitch empfehlen mit derFunktion >Snap Safari<
Hilfreich?
+1
almdudi
10.10.20
02:42
macuser11
Mit der Funktion Firefox Screenshots können Sie Bildschirmfotos von sichtbaren Teilen einer Webseite und sogar 👉komplette Webseiten👈 aufnehmen und diese Bildschirmfotos kopieren oder speichern.
Gut zu wissen (wobei man das allerdings auch über den Druckdialog als PDF erreichen kann - je nach Konfiguration der Seite sogar ohne nervige Werbeanhängsel), das sind dann aber nur die einzelnen
Seiten
- gefragt war aber nach
Sites
, also inklusive Verzweigungen, Unterseiten und allem Pipapo.
Hilfreich?
0
Kommentieren
Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.
M4-Benchmarks: Deutliche Leistungssteigerung im...
iPhone 16 Pro: Tippen oder Wischen ignoriert, N...
macOS 15 Sequoia ist da – Apple hat den Startsc...
Qualitätsprobleme bei MacBook-Displays: Apple t...
Apples interne Einschätzung: Zwei Jahre Rücksta...
Musikbranche verklagt KI-Anbieter
Gegenüberstellung: AirPods 4 vs. AirPods Pro 2
Kopfhörer für Workout