Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Netzwerke
>
Massenweise JPEG downloaden
Massenweise JPEG downloaden
geoback
16.02.17
10:56
Hallo Forum,
ein Museum in New York hat einen Teil seiner Sammlung unter "Public Domain Artworks" zum Download bereit gestellt. Allerdings muss jedes Kunstwerk einzeln geladen werden, ziemlich zeitaufwendig bei tausenden von Werken:
http://images.metmuseum.org/CRDImages/dp/original/DP853774.jpg
http://images.metmuseum.org/CRDImages/ph/original/DP113878.jpg
Könnte ich im Terminal mit wget oder einem anderen Tool nicht alles unterhalb von
http://images.metmuseum.org/CRDImages/dp/original
laden? Meine Versuche endeten immer mit "No Access"
Danke
geoback
Hilfreich?
0
Kommentare
Jörg H.
16.02.17
11:08
Jein.
Das Problem ist, du musst eine Liste aller Dateinamen bzw. Pfade haben - dann geht es, sonst musst du das manuell machen.
Hilfreich?
0
pünktchen
16.02.17
11:12
Oder du benutzt sowas wie Sitesucker.
Hilfreich?
+1
john
16.02.17
11:16
ohne es jetzt selbst probiert zu haben:
schonmal mit wget -np (--no-parent) rumprobiert? jetzt nur als idee beim betrachten der manpage. evtl noch mit der option -l für die tiefe des levels.
ansonsten downthemall als plugin für den browser oder jdownloader als eigenständiges tool.
„biete support. kostenlos, kompetent und freundlich. wähle zwei.“
Hilfreich?
0
Daniel87
16.02.17
11:16
Ein Versuch wäre auch den jDownloader zu testen mit der "Tiefen Linkanalyse". Hilft mir bei sowas in 90% aller Fälle.
Hilfreich?
+2
caMpi
16.02.17
11:24
Vielleicht hilft da der Automator.
Ich hatte das mal mit einer Bildergallerie gemacht. Dazu habe ich mir den Pfad des ersten Bilds rausgesucht, und mit Excel Pfade mit fortlaufender Nummer erstellt.
Diese Pfade habe ich selbst in eine lokale Webseite eingefügt, und dann mit Automator einen Ablauf erstellt, der alle Objekte einer Seite abfragt und herunterlädt.
Es waren auch ein paar ungültige Pfade dabei, aber die wurden dann halt einfach übersprungen.
„Keep IT simple, keep IT safe.“
Hilfreich?
+1
spheric
16.02.17
12:10
Automator wäre auch mein erster Lösungsansatz.
„Früher war auch schon früher alles besser!“
Hilfreich?
0
gickel
16.02.17
12:51
http://images.metmuseum.org/CRDImages/dp/original/DP853774.j pg
http://images.metmuseum.org/CRDImages/ph/original/DP113878.j pg
hat sich erübrigt, oder?
404 - File or directory not found.
The resource you are looking for might have been removed, had its name changed, or is temporarily unavailable.
Hilfreich?
-3
Megaseppl
16.02.17
12:56
gickel
http://images.metmuseum.org/CRDImages/dp/original/DP853774.j pg
http://images.metmuseum.org/CRDImages/ph/original/DP113878.j pg
hat sich erübrigt, oder?
404 - File or directory not found.
Freizeichen weg im Dateisuffix, dann klappt es
Hilfreich?
+8
Legoman
16.02.17
13:59
Wie wäre es mit jdownloader? Den Link zur Quelle in die Zwischenablage kopieren, dann sollten alle Dateien im Linksammler landen. Ggf. beim Hinzufügen des Links auf "tiefe Linkanalyse" klicken.
Den Rest erledigt das Programm.
Hilfreich?
+1
gickel
16.02.17
17:18
Megaseppl
Freizeichen weg im Dateisuffix, dann klappt es
Danke, Megaseppl!
Hilfreich?
0
rmayergfx
16.02.17
22:31
Für Firefox gibt es die Erweiterung downthemall damit geht es mit wenigen clicks
„Der Computer soll die Arbeit des Menschen erleichtern, nicht umgekehrt !“
Hilfreich?
0
sierkb
17.02.17
00:04
wget
ist Teil des macOS-Betriebssystems? Bei mir nicht.
Hingegen gibt es dort cURL bzw.
curl
: (/usr/bin/curl) und dessen einbettbare Form libcurl: (/usr/lib/libcurl.dylib), das den gleichen Zweck erfüllt. Manpage dazu
man curl
oder bei Apple online:
), Apple Manpage zu libcurl:
Wikipedia (de)
Im Gegensatz zum älteren wget aus dem Jahre 1995 kann cURL Dateien nicht nur herunter-, sondern auch hochladen.
Zur gestellten Frage könnte vielleicht das hier eine Hilfe sein (bin zu faul, da jetzt selber entspr. Kommandos evtl. um Regexes bereichert, zusammenzustellen, man sehe es mir nach, deshalb sei beispielhaft kurz dieser per schneller Google-Suche gefundene Link genannt, vielleicht ist er ja hilfreich, es ließen sich sicher auch noch bessere Beispiele finden):
OSXDaily (13.02.2014): Using cURL to Download Remote Files from the Command Line
, Abschnitt
"Downloading Multiple Files Concurrently with curl"
Hilfreich?
0
geoback
27.02.17
12:56
vielen Dank für eure Rückmeldungen. Ich habe es mit JDownloader versucht, wie von Legoman empfohlen. Unterhalb von www.metmuseum.org werden massenweise Bilder und auch Videos geladen. Ein erster Erflog. Leider kann ich JDownloader aber nicht dazu bringen die Subdomain images.metmuseum.org ab zu greifen. Dort liegen die besser auflösenden Fotodateien. Gruß, geoback
Hilfreich?
+1
MetallSnake
27.02.17
13:26
Im Terminal mit cd in das Verzeichnis wechseln in dem die Bilder gespeichert werden sollen und dann:
curl -O http://images.metmuseum.org/CRDImages/dp/original/DP8537[70-74].jpg
fertig.
In den eckigen Klammern die Zahlen von und bis welche Dateien geladen werden sollen.
„Das Schöne an der KI ist, dass wir endlich einen Weg gefunden haben, wie die Wirtschaft weiter wachsen kann, nachdem sie jeden Einzelnen von uns getötet hat.“
Hilfreich?
+5
geoback
01.03.17
20:57
Danke MetallSnake curl funktioniert tadellos
Hilfreich?
0
tomben
02.03.17
10:36
geoback
Danke MetallSnake curl funktioniert tadellos
Wenn dein curl durchgelaufen ist wirst du je nach Range extrem fiele 1KB Dateien haben. Einfach im terminal in dem Ordner oder runtergelassenen Bilder folgendes Command ausführen.
find . -iname "*.jpg" -size -5k -delete
Zum testen gerne ohne "-delete". Command löscht alle JPG Files im aktuellen Verzeichnis die kleiner 5KB sind
„ Heute Code ich, morgen Debug ich und übermorgen cast ich die Königin auf int. “
Hilfreich?
0
heavymeister
02.03.17
12:46
Wieviel GB an Daten sind da zusammengekommen?
In der IPTC-Caption ist ein Hyperlink eingetragen, der zur Bildbeschriebung führt: http://www.metmuseum.org/art/collection/search/693061
Gibt es ein Tool, das automatisch dem Link folgt und den Text in die Caption importiert?
Hilfreich?
0
sierkb
02.03.17
13:30
heavymeister
In der IPTC-Caption ist ein Hyperlink eingetragen, der zur Bildbeschriebung führt: http://www.metmuseum.org/art/collection/search/693061
Gibt es ein Tool, das automatisch dem Link folgt und den Text in die Caption importiert?
Evtl. mit Zuhilfenahme von macOS' eingebautem
sips
-- scriptable image processing system
(/usr/bin/sips)? Evtl. sips in Kombination mit curl und grep? Mit curl das Bild holen, mit sips die Info bzw. den betreffenden URL aus dem heruntergeladenen Bild extrahieren und curl nochmal vorlegen, dass curl dann diesem URL folgt und da was an Land holt?
Beispiele für den Einsatz und Umgang mit sips:
,
,
[…]
Hilfreich?
0
geoback
05.03.17
15:07
@sierkb das hätte ich auch gerne, denn die Bilddaten sind wertvoll, insbesonder dazugehöriger mit Beschreibung.
Hilfreich?
0
Kommentieren
Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.
Top Five 2024
2 TByte für 259 US-Dollar: Erste Upgrade-SSDs f...
Vor 40 Jahren: Der Apple Laser Writer wird ange...
Epics alternativer App Store: Nutzerzahlen weit...
M4 Mac mini im Effizienztest: Hohe Ersparnis im...
Kurz: Sonos will Apple TV 4K (teure) Konkurrenz...
Mac-Wartung: Alte Kernel-Erweiterungen entfernen
Erster Jahrestag der Apple Vision Pro – es ist ...