Ausschließen von Urls mit ID für Sumas

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • Ausschließen von Urls mit ID für Sumas

    hallo, ich weiß, dass man über robot.txt dateinamen bzw. verzeichnisse von der indizierung durch suchmaschinen ausschließen kann. ist nicht schwer.

    aber wie kann ich dynamische urs ausschließen? z.B.

    domain.at/verzeichnis/datei.php?wert=$1

    Ich will nämlich nicht, dass meine Seiten 2x indiziert werden, die urls geben nämlich werte an die eigene datei weiter (merklistenfunktion)

    danke!
    Suche immer Linkpartner für meine Cocktailseite ;-)

  • #2
    http://www.google.de/webmasters/bot.html
    Punkt 14

    afaik arbeiten auch die anderen wichtigen Suchmaschinen so
    Ich denke, also bin ich. - Einige sind trotzdem...

    Kommentar


    • #3
      Original geschrieben von mrhappiness
      http://www.google.de/webmasters/bot.html
      Punkt 14

      afaik arbeiten auch die anderen wichtigen Suchmaschinen so
      sehr guter hinweis, danke.

      besser wäre allerdings schon ein eintrag in der robot.txt, weil man da a bessere übersicht hat.

      bin schon ganz nah dran, find aber keine genau angabe für die syntax:

      disallow: /verzeichnis/datei.php?
      disallow: /verzeichnis/datei.php
      disallow: /verzeichnis/datei.php?*

      ? da unterscheiden sich anscheindend die sumas, weil nur google wildcards unterstützt...würd mich einfach interessieren
      Suche immer Linkpartner für meine Cocktailseite ;-)

      Kommentar


      • #4
        Original geschrieben von yellow23
        sehr guter hinweis, danke.

        Kleiner Nachtrag, weil ich verifizieren wollte, ob das auch die wichtigen sumas unterstützen:

        21.01.2005 In einer konzertierten Aktion haben vor drei Tagen die großen Drei im Suchmaschinenmarkt, Google, Yahoo und MSN, den Bloggern den Einsatz des HTML-Attributes rel mit dem Wert "nofollow" empfohlen, um Links in Kommentaren für Spammer zu entwerten, siehe auch Eintrag im Google Blog: Preventing comment spam. Die Suchmaschinen werden gekennzeichnete Links nicht mehr verfolgen, so dass die Kommentar-Spammer keinen Nutzen mehr aus ihnen ziehen können.

        <a href="http://www.kommentar-spam.de" rel="nofollow">Kommentar-Spam</a>
        Suche immer Linkpartner für meine Cocktailseite ;-)

        Kommentar


        • #5
          ansonsten könntest du auch serverseitig der "Merkseite" (die ist es doch, die du nicht gelistet haben willst) als permanent moved (403?) markiern. über header() sobald eine suma die seite besucht. allen normalen usern lässt du dann die merkfunktion.

          Kommentar


          • #6
            Original geschrieben von TobiaZ
            ansonsten könntest du auch serverseitig der "Merkseite" (die ist es doch, die du nicht gelistet haben willst) als permanent moved (403?) markiern. über header() sobald eine suma die seite besucht. allen normalen usern lässt du dann die merkfunktion.
            Danke, aber das hast du falsch gesehen, die Merkseite wird gar nicht aufgerufen mit dem Link, sondern wieder die gleiche Seite, in der der Link steht. Dort wird dann nämlich auch gleich der Datensatz in die Datenbank geschrieben. Wollte, das der Besucher ohne lästige Redirects gleich auf der gleichen Seite bleibt, wenn er ein Rezept in die Merkliste gibt.

            Hab die Sache jetzt halt mit "no follow" gelöst, allerdings wäre mir die Lösung mit robots.txt lieber gewesen. Weiss ungefähr wies geht, aber nicht 100% sicher, daher hab ichs gelassen, wenn ich nicht sicher sein kann, das es alle Suchmaschinen richtig lesen.
            Suche immer Linkpartner für meine Cocktailseite ;-)

            Kommentar

            Lädt...
            X