Ich denke da gibt es einen professionellen und einen unprofessionellen Weg.
Ein Profi würde wohl den Server knacken und per ftp den Inhalt auf seine Festplatte schieben. Aber weiß es hier auch nicht genauer.
Wenn ich eine Seite bzw. einen Teil einer Seite haben will benutze ich einen Downloadmanager. Gute Dienste leistet hier der free download manager. Damit kannst du den kompletten Inhalt einer URL runterladen. Du musst nur eine entsprechend große Linktiefe angeben und los gehts.
Warum ich den letzten Weg unprofessionell nenne... es klappt einfach nicht immer. Vorallem bei Seiten mit Passwortabfrage kann man meinen Weg einfach knicken...
Viel Erfolg!
Ja genau, oder man benutzt einfach HTTRACK wie hier schon oft im forum beschrieben und zieht sich die gesammte seite sammt aller html seiten, verlinkungen und allen drumm und drann.
Da gibt es natürlich auch eine professionelle lösung, aber die ist sehr teuer, und etwas komplizierter, und für seiten wie sexyfur reicht httrack alle mal. Habe ich auch immer damit gemacht.
oder man lernt 'nen bischen programmieren. für die sprache Perl gibt's z.B. WWW::Mechanize, damit lassen sich webseiten automatisiert durchsuchen wie mit einem browser.