Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Software>Webseiten offline verfügbar machen

Webseiten offline verfügbar machen

schmidl19.02.0915:59
Hi,

mal wieder muss ich mich mit einem Problem an euch wenden.
Ein Kunde möchte bald seine Webseite online stellen, am besten heute.

Aber vorher möchte er die Alte archiviert haben, die alte Webseite besteht (ebenso wie die neue..) aus sehr vielen Dateien, PHP die zusammen die Webseite ergeben.

Ich hätte jetzt gerne ein Programm dass die Seite abruft wie der Browser, dann die Seite lokal speichert als .html Dokument und die Links auf die weiteren lokalen html-Dateien verlinkt, so dass man im nachhinein die Seite im Browser betrachten kann ohne dass man online ist.

Ich habe Sitesucker ausprobiert, der legt ziemlich viele komisch benamste Dateien an, öffne ich dann die index.html und klicke einen Link komme ich zur Webseite.. ?

naja nicht so wie ich mir das vorgestellt hätte.

Wollte jetzt noch Web Dumper ausprobieren, aber das kleine Programm will irgendwelche Dateien in mein System schreiben und das will ich eigentlich nicht, zumal das hier der Rechner der Firma ist..

Kann mir jemand etwas empfehlen?
Oder muss ich einfach nur die Einstellungen richtig durchgehen in Sitesucker?

Übrigens hat mir Sitesucker auch noch Hunderte Dateien anderer Websites heruntergeladen.. hatte ich eigentlich nicht vor..


Danke schon mal
„ich auch nicht.“
0

Kommentare

Stefan S.
Stefan S.19.02.0916:45
wenn Du den ftp-Zugang hast alle Dateien runterkopieren...
ansonsten evtl. iCab
0
schmidl19.02.0920:48
Stefan S.
Den FTP Zugang habe ich, aber wie gesagt sind das PHP Scripte die da laufen und das auch noch ziemlich durcheinander, damit fängt der Kunde dann nichts an.

iCab werd ich mal ausprobieren, vielen dank!
„ich auch nicht.“
0
rondinax19.02.0921:04
Dann verweisen Links auf den Seiten sicher auch zu PHP-Skripten etc.

Ich sehe da nur viel Handarbeit oder du must dir ein Skript bauen, welches das alles ersetzt bzw. anpasst - IMO alles zu viel Arbeit. Ich würde den Kram einfach per FTP runterladen und dann offline mittels MAMP nutzen.
0
Schnapper19.02.0921:15
Mit wget übers Terminal. Gibt auch GUI frontends dafür - einfach mal danach googlen.
0
schmidl19.02.0922:09
Dieses wget klingt sehr vielversprechend hab mich da kurz eingelesen, und ich glaube wenn ich mit damit nicht zu dumm anstelle, dann wird's genau das sein was ich brauche.

Vielen Dank dafür, morgen werd ich's testen.
„ich auch nicht.“
0
Maniacintosh
Maniacintosh20.02.0901:32
Das Problem ist, durch das PHP-Zeug dürften die Inhalte der Seite dynamisch sein (sonst wäre es ja HTML und kein PHP!), sprich du musst per FTP die Skripte sichern und offline in einem lokalem HTTP-Server mit PHP-Unterstützung ausführen. Sollte die Seite ggf. auch noch eine MySQL-Datenbank im Hintergrund nutzen, wäre dazu noch ein SQL-Dump nötig. Eine Lösung mit denen du die PHP-Skripte dann lokal ausführen könntest, wäre z.B. MAMP auf dem Mac. Vergleichbares gibt es auch für Windows.

Das was du vor hast, ist im Prinzip so als würdest du ein Programm archivieren wollen, indem du von jedem möglichem Zustand bei jeder möglichen Eingabe einen Screenshot machst - nicht sehr zweckmässig oder?
0
schmidl20.02.0908:16
Maniacintosh:

Nein so weit bin ich schon, das is ja das Problem, die Seite arbeitet zwar mit PHP in wirklichkeit ist es aber völlig egal ob es PHP wäre oder nicht.

Die Inhalte sind hinterlegt, es passiert nicht wirklich etwas Dynamisches ausser dass eine Session-Variable gesetzt wird (Deutsch, Englisch, Spanisch und Portugiesisch) und jetzt wird entweder nur der spanische Inhalt oder der deutsche usw.. ausgegeben.

Zusätzlich ändert sich noch die Navigation die in einer eigenen Datei liegt die mittels Include eingebunden wird usw..

Hinzu kommt dass man eine .html-Seite aufruft die nicht existiert die wird dann vom Server in einen Pfad umgewandelt der die Variablen an PHP übergibt also /company/history.html - index.php?site=company&content=history

Das hat vorher eine andere Agentur gemacht, frag mich nicht wieso die das so gemacht haben..

Also im Grunde eine Statische Seite wo aber PHP im Hintergrund läuft.
„ich auch nicht.“
0
schmidl20.02.0910:18
Ich bekomm wget nicht zum laufen weil ich keinen C-Compiler hier habe.. -.-
Mit Sitesucker würd's grundsätzlich funktionieren, aber er wandelt mir die Pfade nicht in relative Pfade um, somit habe ich Absolute Pfade und werde immer ins Web geleitet..

Kann doch nicht der Sinn der Software sein.
Da macht man Seiten offline verfügbar und dann verlinkt man ins Netz..
„ich auch nicht.“
0
Schnapper20.02.0910:32
Es gibt wie gesagt auch GUI-Frontends für wget. Da brauchst du nichts zusätzliches zu installieren oder wget selbst zu kompilieren.

Probier es mal hiermit oder hiermit
0
schmidl20.02.0910:50
Achso, dachte die GUI-Frontends sind nur zusätzlich zu wget zu installieren wenn man mit dem Terminal nicht klarkommt.

Dann versuch ich's mal damit, danke.

EDIT: Eines is für Leo und ich arbeite hier noch aufm Tiger und das andere wird nicht gefunden.. aber egal.

Ich mach's anders: am Montag nehm ich mein MacBook mit, da läuft der Leo und auch XCode drauf, dann werd ich mir wget gleich übers Terminal saugen die Seite lokalisieren und übern USB-Stick übertragen, fertig.

Damit wirds dann wohl funktionieren.
Danke für die Hilfean jeden!
„ich auch nicht.“
0
sierkb20.02.0912:26
schmidl:

MacOSX hat standardmäßig in seinem Unix-Unterbau so einige klassischen und nützlichen Unix-Werkzeuge mit an Bord. So manche Sache, so manches Werkzeug via GUI greift auf diese Werkzeuge zu, die sonst nur via Terminal zu erreichen sind. Allerdings hat man via Terminal meist auch mehr Möglichkeiten, da ein GUI-Aufsatz oft nicht alles das an Funktionen des betreffenden Programms/Werkzeugs abbildet, das dieses Unix Werkzeug pur und im Original anbietet, wenn man es über das Terminal anspricht. Das mal grundsätzlich.

Das Unix-Werkzeug wget ist ein alter Bekannter unter Unix und gehört bei vielen Unix- und Linux-Distributionen quasi selbstverständlich zum Funktionsumfang dazu. Allerdings gibt es auch noch ein neueres Konkurrenz-Werkzeug namens cURL , bzw. dessen Bibliothek libcurl, das im Funktionsumfang dem von wget entspricht und wget mittlerweile an Popularität den Rang abgelaufen hat (u.a. wegen der verwendeten und separat erhältlichen Bibliothek libcurl, die so manches andere Programm oder Unix-Script nutzt, um Daten von irgendwoher aus dem Netz zu holen).

Während wget nicht standardmäßiger Bestandteil von MacOSX ist und entweder selber compiliert werden (MacOSX hat alle dazu nötigen Werkzeuge, die GNU Compiler Collection, kurz GCC, von Haus aus mit an Bord) oder zum Beispiel via MacPorts , mit einem kurzen Aufruf im Terminal mit 'sudo port install wget' installiert werden kann (mehr ist nicht nötig, compilieren und den Rest mancht alles das Port-System von MacPorts, vorher natürlich MacPorts gemäß installieren und korrekt konfigurieren, was auch mit wenigen Handgriffen erledigt ist), hat (und jetzt kommt's) MacOSX statt wget eben cURL bzw. libcurl standardmäßig mit an Bord (so wie in letzter Zeit viele Linux- und Unix-Distributoren dazu übergegangen sind cURL zu bevorzugen, weil es sich so schön via libcurl in alle möglichen Programme einbinden lässt). Weil MacOSX davon in seinem System teilweise selber Gebrauch macht.
cURL residiert unter /usr/bin/curl, was mit 'which curl' sehr leicht rauszufinden ist. Die Manpage von cURL kannst Du einsehen mit 'man curl'. Oder auch online z.B. unter .

Wget und GUI-Aufsätze zu Wget wurden ja richtigerweise bereits genannt, ich füge noch einen weiteren, aktuelleren (weil wohl besser gepflegten) GUI-Aufsatz hinzu: , diese genannten GUI-Aufsätze bringen meist ihre eigene wget-Version mit, egal, ob im System evtl. schon eine vorhanden ist oder nicht.
GUI-Aufsätze zu cURL gibt es wohl, ob für MacOSX was Aktuelles dabei ist, weiß ich jetzt leider nicht (habe mir auch nicht die Mühe gemacht, nachzuforschen). Ansonsten musst Du halt, wenn Du das unter MacOSX bereits vorhandene cURL benutzen und nicht extra was installieren willst, erstmal mit cURL Vorlieb nehmen.

Du hast also verschiedene Möglichkeiten, zumindest was wget und curl angeht.
Vielleicht kommst Du ja damit einer Problemlösung in der von Dir genannten Sache weiter.

Viel Erfolg!
0
schmidl23.02.0909:31
Danke sierkb,

ich hab' natürlich das MacBook vergessen, probier jetzt cURL aus.
„ich auch nicht.“
0
schmidl23.02.0910:50
So, hab jetzt alles was ich brauche, zwar mit einem klizekleinen Fehler der mit der Session-Variable zu tun hat (nehme ich mal an) aber is kein Problem.

Danke an alle für die Hilfe.
„ich auch nicht.“
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.