Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Software>Probleme mit DownThemAll und get.html-Verknüpfungen

Probleme mit DownThemAll und get.html-Verknüpfungen

jenethan2008
jenethan200820.01.0911:14
Hallo Community,

ich möchte von folgender Seite (u.a. - da fehlen dann noch 60 Jahrgänge) http://www.un.org/documents/sc/res/1947/scres47.htm alle verknüpften pdf-Dateien runterladen. Ich habe es mit dem Firefox-Plugin DownThemAll probiert, das Ergebnis ist allerdings, dass das Programm nur die get.html-Verknüpfungen, die ja erst das eigentlich Download-Kommando geben, herunterlädt statt die eigentlichen pdf-Dokumente.

Kennt jemand ein Programm/Plugin für Mac, welches diese Funktion ausführen kann?

Beste Grüße
JenEthan
0

Kommentare

jimcontact
jimcontact20.01.0912:06
Speed Download kann das!
Ist meiner Erfahrung nach das mächtigste Downloadtool für den Mac.
Von Yazsoft .
Kostet Geld, spart aber Stunden an Arbeit!
Trial gibt´s...
Fragen?Fragen!
„An alle die gerade mit-, zu- oder abhören: Wer wo, warum, mit wem und wann, dass geht euch einen Scheißdreck an! (W.Schmickler)“
0
sierkb20.01.0912:16
Vielleicht klappt's ja damit besser:

Get ,
CocoaWget ,
0
jenethan2008
jenethan200820.01.0919:55
Funkitioniert alles leider nicht... Frustrierend.
0
miocinq20.01.0920:10
Salut,

es könnte gut müglich sein, daß BluCrab Deine Idee umsetzt:
0
jenethan2008
jenethan200822.01.0915:43
Geht auch nicht.

Verdammt, es muss doch ne Möglichkeit geben. Was sind das für komische Verlinkungen? AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAH!
0
makelpalmesverdauung22.01.0916:38
Sage nur: SiteSucker
0
sierkb22.01.0917:14
Bei obiger Site existieren Redirects, Referer-Abfragen und Cookies, die einen einfachen, automatisierten Zugriff auf bestimmte Inhalte (hier die angefragten PDF-Dokumente) erschweren bzw. unmöglich machen sollen. Dass die Nuss also nicht ganz so einfach zu knacken ist, ist von den Betreibern dieser UN-Seiten allem Anschein nach also durchaus so gewollt.

Mit dem hauseigenen Unix-Programm Curl (man curl bzw. ) geht's möglicherweise. Oder mit dem Unix-Programm wget (Apple hat sich wohl, wie viele anderen Anbieter auch, entschieden, curl zugunsten des schon älteren wget mit MacOSX auszuliefern). Beide Programme sind ziemlich gut in dem, was sie können und sehr, sehr mächtig und variationsreich in ihrem Funktionsumfang. Viele GUI-basierten Download-Manager sind oft nichts anderes als dass sie auf einem dieser beiden tradierten und verbreiteten Unix-Programme bzw. Bibliotheken aufsetzen und deren Fähigkeiten schön verpacken.

Derzeit experimentiere ich sowohl mit wget als auch mit curl ein wenig herum, ob die Nuss nicht doch irgendwie zu knacken ist, habe aber bisher noch nicht die optimale Konfiguration gefunden. Bisher leider ohne überzeugendes Ergebnis, obwohl ich die Cookie-Informationen, die ich beim Zugriff über den Firefox-Browser ausgelesen, wget bzw. curl mit auf den Weg gegeben habe. wget und curl können normalerweise rekursiv eine komplette Site rekursiv herunterladen (selbst, wenn mehrere Hosts/Server daran beteiligt sind), die Konfigurationsmöglichkeiten dazu sind immens und ziemlich mächtig (siehe die Manpage dazu im Terminal bzw. unter ).

Ich werde da noch ein paar Minuten in diese kleine Herausforderung reinstecken (es lockt mich schon, damit ein wenig rumzuspielen und die Nuss evtl. doch zu knacken), und dann ist aber auch bei mir Schluss, dann lasse ich's sein (habe dann auch irgendwann Wichtigeres zu tun)...

Viele Augen sehen mehr als zwei -- vielleicht hat ja _mäuschen die eine oder andere Idee bzw. ihm gelingt es, z.B. unter Zuhilfenahme des hauseigenen Unix-Tools curl die PDFs in einem Rutsch und rekursiv herunterzuladen.
0
jenethan2008
jenethan200823.01.0900:15
@sierkb
Wie ausschaut hast du letztlich auch keine Lösung gefunden. Danke aber für deine sehr interessante und ausführliche Antwort.
0
jenethan2008
jenethan200824.01.0911:19
So, wir haben das jetzt alles per Hand runtergeladen. War stundenlange Arbeit.
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.