Datenbankklau

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • Datenbankklau

    Hallo,
    aus meiner Online-Datenbank werden z.B. vom Google-Robot aber auch von anderen immer wieder größere Datenbestände geklaut (soll heißen bei den Auswertungen sind der IP Adresse ist ein Visit aber tausende Hits zugeordnet). Wie kann ich das effektiv verhindern. Kennt jemand evtl. sogar ein Skript, das z.B. nur eine bestimmte Anzahl von Zugriffen pro Zeiteinheit zuläßt?

    Vielen Dank im Voraus

  • #2
    nicht gleich Datenklau schreien, sondern dich einfach mal erkundigen.

    Such doch bitte mal nach GoogleDance, dann weißte auch was passiert.
    Google indiziert einfach deine Seiten
    TBT

    Die zwei wichtigsten Regeln für eine berufliche Karriere:
    1. Verrate niemals alles was du weißt!


    PHP 2 AllPatrizier II Browsergame

    Kommentar


    • #3
      Google - ist klar

      Die Indizierung über Google ist nicht mein Problem (ich profitiere davon und dulde es). Obwohl natürlich Grundsätzlich auch das schon ein Zugriff auf meine DB ist, wie er nicht von mir vorgesehen ist!

      Ein Problem habe ich dann, wenn plötzlich auch andere IP Adressen auftauchen, die auch tausendstellige Abfragen an meine DB richten. Das muss man nicht zwangsläufg Datenklau nennen (ist momentan aber der einzige Grund, der mir einfällt).

      Im Ergebnis suche ich - neutral formuliert - nach einem Skript zur "Beschränkung der Zugriffszahlen pro Besucher". In dem Zusammenhang wäre dann auch die Rückverfolgung von Teilnehmern mit auffällig hohen Zugriffszahlen interessant.

      Kommentar


      • #4
        Obwohl natürlich Grundsätzlich auch das schon ein Zugriff auf meine DB ist, wie er nicht von mir vorgesehen ist!
        Hä?

        Ein Problem habe ich dann, wenn plötzlich auch andere IP Adressen auftauchen, die auch tausendstellige Abfragen an meine DB richten.
        Google ist nicht die einzige Suchmaschine auf Erden. Poste mal ein paar von den aufrufenden IPs.

        Im Ergebnis suche ich - neutral formuliert - nach einem Skript zur "Beschränkung der Zugriffszahlen pro Besucher".
        Wenn Du vollen Zugriff auf Deinen Webserver oder einen freundlichen Provider-Admin hast, könnte dir das hier weiterhelfen:
        http://www.snert.com/Software/mod_throttle/

        Ein Apache-Modul wäre natürlich die eleganteste und ressourcenschonendste Lösung. In PHP gibt es sowas bestimmt auch, allerdings kenn ich auf Anhieb keine. Im Skript-Archiv geguckt?

        Kommentar


        • #5
          Original geschrieben von pekka
          Google ist nicht die einzige Suchmaschine auf Erden. Poste mal ein paar von den aufrufenden IPs.
          das problem was er meint kenne ich. ein googelrobot kam mit ca. 700 ips auf meine seite
          Sunshine CMS
          BannerAdManagement
          Borlabs - because we make IT easier
          Formulargenerator [color=red]Neu![/color]
          Herkunftsstatistik [color=red]Neu![/color]

          Kommentar


          • #6
            Original geschrieben von Benny-one
            das problem was er meint kenne ich. ein googelrobot kam mit ca. 700 ips auf meine seite
            700 verschiedene IPs? Von Google? Wie auch immer - der Googlebot identifiziert sich ja anständig. Da müssen ja offensichtlich noch andere "Diebe"unterwegs sein.

            Kommentar


            • #7
              hm .... spontane idee:
              bei jedem Zugriff zählst du ja sowieso hits und visits ... ich denke mal über sessions und ip, oder? Wo ist dann das Problem ein MySQL Query abzusetzen der die bereits getätigten Hits abfragt und bei mysql_num_rows($result) > 20 einen exit; oder eine Ersatzseite abzusetzen?

              mfG
              CMS-X Medien- und Modelagentur

              Kommentar


              • #8
                Dank Euch allen

                Dank Euch allen. Das snert tool sieht gut aus!!

                @ DanielD ich benutze ein Auswertungstool von meinem Provider, habe also Hits und Ips noch nicht in meinem Skript. Natürlich ist das alles machbar, ich dachte nur die Aufgabenstellung ist nicht neu. Besser wäre natürlich es gibt schon Skripts an denen man sich orientieren kann. Vor allem um meine Abfrage nicht unnötig zu verlangsamen.

                Kommentar

                Lädt...
                X