Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Software>Gesamte Website downloaden

Gesamte Website downloaden

system7
system702.10.2010:10
Ich suche nach einer Mac-Anwendung oder alternativ auch einem Web-Service mit dem ich komfortabel eine ganze Website downloaden kann (keine Filme oder dergleichen, überwiegend Text, Links und ein paar Fotos). Die Lösungen, auf die ich gestoßen bin, scheinen überwiegend veraltet oder für Windows zu sein.
0

Kommentare

bernds02.10.2010:17
Acrobat kann das!
-2
marcphotography
marcphotography02.10.2010:25
system7

Ich verwende SiteSucker
„Age is an issue of mind over matter. If you don't mind, it doesn't matter. - Mark Twain“
+4
xcomma02.10.2010:45
Würde auch zuerst SiteSucker probieren.
Ansonsten: HTTrack (Kommandozeilentool; GUI nur für Win)
0
Krypton02.10.2012:19
Wenn es sich um eine relativ «einfache» Website handelt, kann ich auch den SiteSucker empfehlen. Früher war Teleport Pro für Windows das Tool der Wahl.
Bei komplexen Seiten (mit Content-Management System im Hintergrund) oder komplexen verlinkten CSS-Files und Scripten scheitern leider einige Tools, bzw. die heruntergeladene Version hat optisch oft nicht mehr viel mit der Online-Version zu tun. Hier hilft nur ein Versuch.
0
camaso
camaso02.10.2012:59
bernds
Acrobat kann das!
Wie?
0
rmayergfx
rmayergfx02.10.2013:18
system7
Ich suche nach einer Mac-Anwendung oder alternativ auch einem Web-Service mit dem ich komfortabel eine ganze Website downloaden kann (keine Filme oder dergleichen, überwiegend Text, Links und ein paar Fotos). Die Lösungen, auf die ich gestoßen bin, scheinen überwiegend veraltet oder für Windows zu sein.

Warum nicht einfach mit dem Browser deiner Wahl die Seite direkt abspeichern. Firefox > Datei > Seite speichern unter "Webseite komplett" Zudem lassen sich nicht alle Seiten einfach so herunterladen, egal mit welchem Tool, hier sind Screenshots angesagt. Das hängt mit dem technischen Aufbau zusammen.
„Der Computer soll die Arbeit des Menschen erleichtern, nicht umgekehrt !“
-3
Krypton02.10.2013:28
rmayergfx
Warum nicht einfach mit dem Browser deiner Wahl die Seite direkt abspeichern. Firefox > Datei > Seite speichern unter "Webseite komplett"

Für eine Seite (engl. page) geht das auch, für eine ganze Webpräsenz mit vielen Seiten (engl. site) wird’s doch ganz schön mühsam. Zudem geht dann beim Einzeldownload die Verlinkung der Seiten untereinander verloren. Ein Site-Grabber erhält die site (Präsenz) inklusive ihrer Struktur.
+2
caba
caba02.10.2014:08
Gibt/gab eine Erweiterung für den Firefox: Scrapbook (später Scrapbook X, Scrapbook Plus, aktuell ScrapbookWeb).
Wie gut die aktuelle Version funktioniert, weiß ich nicht, aber die ursprüngliche war genial. Man konnte Webseiten bis in die x-te Ebene offline abspeichern und alles sah genau so aus wie online.
„Meinungen sind keine Ideen, Meinungen sind nicht so wichtig wie Ideen, Meinungen sind nur Meinungen. (J. Ive)“
+1
Hakke02.10.2014:40
Das geht mit iCab:
+1
pcbastler02.10.2014:43
Meine erste Idee dazu:

Download a full website:
wget --mirror -p --convert-links -P {{target_folder}} {{url}}

Ich hab's aber selbst noch nicht probiert.
+1
sierkb02.10.2014:55
pcbastler
Meine erste Idee dazu:

Download a full website:
wget --mirror -p --convert-links -P {{target_folder}} {{url}}

Ich hab's aber selbst noch nicht probiert.

Hat Darwin/macOS von Haus aus wget an Bord? Nein. Seit Jahren nicht.
Hat Darwin/macOS seit Jahren stattdessen aber das Äquivalent vom langjährigen Mozilla-Entwickler Daniel Stenberg, curl an Bord? Ja, nämlich /usr/bin/curl.
Also, wenn, dann das betreffende Prozedere naheliegenderweise mit curl, wenn man sich wget nicht zusätzlich installieren will/muss. 🙂
+1
ttwm02.10.2015:01
wget ist kein Standard unter macOS, sondern muss nachinstalliert werden (so mein Kenntnisstand).

SiteSucker ist ganz gut, aber wenn die Seite sehr mit JavaScript verheiratet ist, ist händische Nacharbeit unablässlich.
camaso
Wie?
In der Acrobat-Vollversion: Menü "Datei Erstellen PDF aus Webseite".

Liefert je nach Webseite gute bis grottige PDFs.

DAS Tool für jede Webseite ist leider noch nicht erfunden worden…
+2
breaker
breaker02.10.2015:31
Mit Sitesucker hab ich gute Erfahrungen gemacht, eventuell muss man aber ein bisschen mit den Einstellungen spielen, bis das Ergebnis passt. Hab damit auch schon mal eine komplette Homepage runtergeladen, ein Bildarchiv mit historischen Fotos, weil die evtl. mal "verschwinden" könnte und es diese Aufnahmen sonst nirgendswo gibt.
+1
system7
system707.10.2018:59
Bin überrascht, aber es hat mit Acrobat gut funktioniert. Vielen Dank für den Hinweis.
+1
micheee07.10.2023:02
Also wenn du die ganze Website runterladen willst, würde ich auch wget oder Sitesucker empfehlen.

Wenn du tatsächlich nur ein PDF einer einzelnen Webseite runterladen willst, dann hab ich mit Paparazzi ganz gute Erfahrungen gemacht

P.S. vs. ich glaube deswegen hast du so unterschiedliche Antworten bekommen
+1
macuser11
macuser1108.10.2002:41
Ich benutze diese erwähnten Terminal-Kommandozeilen:

➡️ HTTrack
httrack --disable-security-limits --max-rate 300000000 -s0 https://www.mactechnews.de -v

➡️ Wget
wget --html-extension --no-clobber --convert-links --random-wait -r -p -E -e robots=off -U mozilla https://www.mactechnews.de

➡️ Firefox: Webseite/Landingpage
Mit der Funktion Firefox Screenshots können Sie Bildschirmfotos von sichtbaren Teilen einer Webseite und sogar 👉komplette Webseiten👈 aufnehmen und diese Bildschirmfotos kopieren oder speichern. 
+3
pcbastler08.10.2007:32
OK,

ich hättest mal eine Frage, da ich vor einem ähnlichen Problem stehe:

Mit welchen der genannten Methoden ist es möglich, eine Site nur teilweise herunterzuladen? - "Meine" Methode mit wget versucht, egal mit welchen Parametern ich es versucht habe, immer die gesamte Site zu laden.

Konkret geht es darum, dass ich von archive.org einen bestimmten Snapshot einer Site herunterladen möchte: https://web.archive.org/web/20190919005120/http://www.cmos4000.de/

Viele Grüße
0
u_wolf
u_wolf08.10.2010:37
pcbastler

Falls du noch 32bit apps benutzt, kann ich dir die alte Version 1.0.12 von Skitch empfehlen mit derFunktion >Snap Safari<
+1
almdudi
almdudi10.10.2002:42
macuser11
Mit der Funktion Firefox Screenshots können Sie Bildschirmfotos von sichtbaren Teilen einer Webseite und sogar 👉komplette Webseiten👈 aufnehmen und diese Bildschirmfotos kopieren oder speichern.
Gut zu wissen (wobei man das allerdings auch über den Druckdialog als PDF erreichen kann - je nach Konfiguration der Seite sogar ohne nervige Werbeanhängsel), das sind dann aber nur die einzelnen Seiten - gefragt war aber nach Sites, also inklusive Verzweigungen, Unterseiten und allem Pipapo.
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.