[Programm] Programm, um komplette Websites zu speichern

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • [Programm] Programm, um komplette Websites zu speichern

    Hallo,

    kennt jemand ein Tool, mit dem ich komplette Websites inklusive Unterseiten speichern kann? Es soll quasi jedem Link folgen bis zu einer bestimmten Tiefe und die Seiten speichern.

    Ich möchte mir diverse Seiten wie php.net, css4you und selfhtml quasi auf dem Computer speichern um sie offline nutzen zu können.

    Vor Jahren hatte ich mal eine entsprechende Software, aber leider weiß ich weder Name noch nach was ich suchen sollte?
    Gruß,
    Peter

  • #2
    Sind diese Programme eigentlich legal, wenn du sie nicht für deine eigenen Internetseiten benutzt, um Backups zu machen?
    "I am what I am and I do what I can..."
    Meine HP -- Mein GPG-Key
    Meine Projekte: WebStorage 2.0 -- easyAJAX-Chat 2.2.0 (beta)

    Kommentar


    • #3
      Offline-Reader heißt das stichwort.

      Was php.net usw. angeht, so kannst du dir aber auch direkt die offline-version laden. Das ist wohl deutlich einfacher.

      Kommentar


      • #4
        Ich möchte mir diverse Seiten wie php.net, css4you und selfhtml quasi auf dem Computer speichern um sie offline nutzen zu können.
        Neben der PHP Doku gibt's auch ne Download Version von selfhtml

        Gruss

        tobi
        Gutes Tutorial | PHP Manual | MySql Manual | PHP FAQ | Apache | Suchfunktion für eigene Seiten

        [color=red]"An error does not become truth by reason of multiplied propagation, nor does truth become error because nobody sees it."[/color]
        Mohandas Karamchand Gandhi (Mahatma Gandhi) (Source)

        Kommentar


        • #5
          Ich suche das für diverese Seiten wie jQuery, Prototype, Scriptaculous etc, davon gibt es ja afaik keine Offline-Versionen.

          Kann mir jemand einen guten Offline-Reader empfehlen? Ich habe die Firefox Extension SpiderZilla versucht zu nutzen, aber die funktioniert nicht und deren Entwicklung wurde eingestellt.
          Gruß,
          Peter

          Kommentar


          • #6
            Könntest z.B. wget verwenden wenn du Linux hast und auf der Konsole fit bist. Grafische Offline Reader findest du mittels SuMa sicher einige. Nur pass auf damit, denn je nach dem was du auf dem entfernten Server scannst können damit tausende von Seitenaufrufen generiert werden. Die Logs des Servers sind dann mit deiner IP übersäht und der Server Admin wird dich dafür lieben

            Gruss

            tobi
            Gutes Tutorial | PHP Manual | MySql Manual | PHP FAQ | Apache | Suchfunktion für eigene Seiten

            [color=red]"An error does not become truth by reason of multiplied propagation, nor does truth become error because nobody sees it."[/color]
            Mohandas Karamchand Gandhi (Mahatma Gandhi) (Source)

            Kommentar


            • #7
              Xaldon WebSpider 2 ist nicht schlecht. Für Prototype gibts hier ein pdf zum Download
              it's not a bug,
              it's a feature!

              Kommentar

              Lädt...
              X