Frage zu Wildcards in der robots.txt

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • Frage zu Wildcards in der robots.txt

    Ich habe zwar schon zienlich lange gesucht, aber kein Beispiel zu meinem Problem gefunden. Kann ich der robots.txt auch eine Wildcard im Dateinamen einsetzen? Also z.B.
    Code:
    Disallow: /*_blubb.html
    So sollen alle Dateien mit _blubb am Ende des Namens ausgesperrt werden.

    Peter
    Nukular, das Wort ist N-u-k-u-l-a-r (Homer Simpson)
    Meine Seite

  • #2
    Hallo Peter,

    ich weiß nicht, ob dein Anliegen darin beschrieben ist, aber diese Seite ist eine umfassende Referenz zum Thema robots.txt inkl. Syntax.

    Edit: Hab gerade unten bei den Beispielen gesehen, dass es geht. Du kannst solche Wildcards benutzen.

    Gruß,

    Anja
    [COLOR="DarkSlateGray"]Hast du die [COLOR="DarkSlateGray"]Grundlagen zur Fehlersuche[/color] gelesen? Hast du Code-Tags benutzt?
    Hast du als URL oder Domain-Beispiele example.com, example.net oder example.org benutzt?
    Super, danke!
    [/COLOR]

    Kommentar


    • #3
      Naja, mein Konstrukt ist in der Form nicht darunter, sollte aber passen.

      Danke
      Peter
      Nukular, das Wort ist N-u-k-u-l-a-r (Homer Simpson)
      Meine Seite

      Kommentar


      • #4
        In den Google Webmaster Tools konnte man IIRC seine robots.txt auch auf Fehler checken lassen.
        I don't believe in rebirth. Actually, I never did in my whole lives.

        Kommentar

        Lädt...
        X