Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Netzwerke>Massenweise JPEG downloaden

Massenweise JPEG downloaden

geoback16.02.1710:56
Hallo Forum,

ein Museum in New York hat einen Teil seiner Sammlung unter "Public Domain Artworks" zum Download bereit gestellt. Allerdings muss jedes Kunstwerk einzeln geladen werden, ziemlich zeitaufwendig bei tausenden von Werken:

http://images.metmuseum.org/CRDImages/dp/original/DP853774.jpg
http://images.metmuseum.org/CRDImages/ph/original/DP113878.jpg

Könnte ich im Terminal mit wget oder einem anderen Tool nicht alles unterhalb von

http://images.metmuseum.org/CRDImages/dp/original

laden? Meine Versuche endeten immer mit "No Access"

Danke
geoback
0

Kommentare

Jörg H.16.02.1711:08
Jein.

Das Problem ist, du musst eine Liste aller Dateinamen bzw. Pfade haben - dann geht es, sonst musst du das manuell machen.
0
pünktchen
pünktchen16.02.1711:12
Oder du benutzt sowas wie Sitesucker.
+1
john
john16.02.1711:16
ohne es jetzt selbst probiert zu haben:
schonmal mit wget -np (--no-parent) rumprobiert? jetzt nur als idee beim betrachten der manpage. evtl noch mit der option -l für die tiefe des levels.

ansonsten downthemall als plugin für den browser oder jdownloader als eigenständiges tool.
„biete support. kostenlos, kompetent und freundlich. wähle zwei.“
0
Daniel8716.02.1711:16
Ein Versuch wäre auch den jDownloader zu testen mit der "Tiefen Linkanalyse". Hilft mir bei sowas in 90% aller Fälle.
+2
caMpi
caMpi16.02.1711:24
Vielleicht hilft da der Automator.
Ich hatte das mal mit einer Bildergallerie gemacht. Dazu habe ich mir den Pfad des ersten Bilds rausgesucht, und mit Excel Pfade mit fortlaufender Nummer erstellt.
Diese Pfade habe ich selbst in eine lokale Webseite eingefügt, und dann mit Automator einen Ablauf erstellt, der alle Objekte einer Seite abfragt und herunterlädt.
Es waren auch ein paar ungültige Pfade dabei, aber die wurden dann halt einfach übersprungen.
„Keep IT simple, keep IT safe.“
+1
spheric
spheric16.02.1712:10
Automator wäre auch mein erster Lösungsansatz.
„Früher war auch schon früher alles besser!“
0
gickel16.02.1712:51
http://images.metmuseum.org/CRDImages/dp/original/DP853774.j pg
http://images.metmuseum.org/CRDImages/ph/original/DP113878.j pg

hat sich erübrigt, oder?

404 - File or directory not found.
The resource you are looking for might have been removed, had its name changed, or is temporarily unavailable.
-3
Megaseppl16.02.1712:56
gickel
http://images.metmuseum.org/CRDImages/dp/original/DP853774.j pg
http://images.metmuseum.org/CRDImages/ph/original/DP113878.j pg

hat sich erübrigt, oder?

404 - File or directory not found.
Freizeichen weg im Dateisuffix, dann klappt es
+8
Legoman
Legoman16.02.1713:59
Wie wäre es mit jdownloader? Den Link zur Quelle in die Zwischenablage kopieren, dann sollten alle Dateien im Linksammler landen. Ggf. beim Hinzufügen des Links auf "tiefe Linkanalyse" klicken.
Den Rest erledigt das Programm.
+1
gickel16.02.1717:18
Megaseppl
Freizeichen weg im Dateisuffix, dann klappt es

Danke, Megaseppl!
0
rmayergfx
rmayergfx16.02.1722:31
Für Firefox gibt es die Erweiterung downthemall damit geht es mit wenigen clicks
„Der Computer soll die Arbeit des Menschen erleichtern, nicht umgekehrt !“
0
sierkb17.02.1700:04
wget ist Teil des macOS-Betriebssystems? Bei mir nicht.
Hingegen gibt es dort cURL bzw. curl : (/usr/bin/curl) und dessen einbettbare Form libcurl: (/usr/lib/libcurl.dylib), das den gleichen Zweck erfüllt. Manpage dazu man curl oder bei Apple online: ), Apple Manpage zu libcurl:
Wikipedia (de)
Im Gegensatz zum älteren wget aus dem Jahre 1995 kann cURL Dateien nicht nur herunter-, sondern auch hochladen.

Zur gestellten Frage könnte vielleicht das hier eine Hilfe sein (bin zu faul, da jetzt selber entspr. Kommandos evtl. um Regexes bereichert, zusammenzustellen, man sehe es mir nach, deshalb sei beispielhaft kurz dieser per schneller Google-Suche gefundene Link genannt, vielleicht ist er ja hilfreich, es ließen sich sicher auch noch bessere Beispiele finden):

OSXDaily (13.02.2014): Using cURL to Download Remote Files from the Command Line , Abschnitt "Downloading Multiple Files Concurrently with curl"
0
geoback27.02.1712:56
vielen Dank für eure Rückmeldungen. Ich habe es mit JDownloader versucht, wie von Legoman empfohlen. Unterhalb von www.metmuseum.org werden massenweise Bilder und auch Videos geladen. Ein erster Erflog. Leider kann ich JDownloader aber nicht dazu bringen die Subdomain images.metmuseum.org ab zu greifen. Dort liegen die besser auflösenden Fotodateien. Gruß, geoback
+1
MetallSnake
MetallSnake27.02.1713:26
Im Terminal mit cd in das Verzeichnis wechseln in dem die Bilder gespeichert werden sollen und dann:

curl -O http://images.metmuseum.org/CRDImages/dp/original/DP8537[70-74].jpg

fertig.

In den eckigen Klammern die Zahlen von und bis welche Dateien geladen werden sollen.
„Das Schöne an der KI ist, dass wir endlich einen Weg gefunden haben, wie die Wirtschaft weiter wachsen kann, nachdem sie jeden Einzelnen von uns getötet hat.“
+5
geoback01.03.1720:57
Danke MetallSnake curl funktioniert tadellos
0
tomben02.03.1710:36
geoback
Danke MetallSnake curl funktioniert tadellos


Wenn dein curl durchgelaufen ist wirst du je nach Range extrem fiele 1KB Dateien haben. Einfach im terminal in dem Ordner oder runtergelassenen Bilder folgendes Command ausführen.
find . -iname "*.jpg" -size -5k -delete

Zum testen gerne ohne "-delete". Command löscht alle JPG Files im aktuellen Verzeichnis die kleiner 5KB sind
„ Heute Code ich, morgen Debug ich und übermorgen cast ich die Königin auf int. “
0
heavymeister02.03.1712:46
Wieviel GB an Daten sind da zusammengekommen?

In der IPTC-Caption ist ein Hyperlink eingetragen, der zur Bildbeschriebung führt: http://www.metmuseum.org/art/collection/search/693061
Gibt es ein Tool, das automatisch dem Link folgt und den Text in die Caption importiert?
0
sierkb02.03.1713:30
heavymeister
In der IPTC-Caption ist ein Hyperlink eingetragen, der zur Bildbeschriebung führt: http://www.metmuseum.org/art/collection/search/693061
Gibt es ein Tool, das automatisch dem Link folgt und den Text in die Caption importiert?

Evtl. mit Zuhilfenahme von macOS' eingebautem sips -- scriptable image processing system (/usr/bin/sips)? Evtl. sips in Kombination mit curl und grep? Mit curl das Bild holen, mit sips die Info bzw. den betreffenden URL aus dem heruntergeladenen Bild extrahieren und curl nochmal vorlegen, dass curl dann diesem URL folgt und da was an Land holt?

Beispiele für den Einsatz und Umgang mit sips: , , […]
0
geoback05.03.1715:07
@sierkb das hätte ich auch gerne, denn die Bilddaten sind wertvoll, insbesonder dazugehöriger mit Beschreibung.
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.