php-resource




Archiv verlassen und diese Seite im Standarddesign anzeigen :
Ausschließen von Urls mit ID für Sumas


 
yellow23
28-09-2005, 10:38 
 
hallo, ich weiß, dass man über robot.txt dateinamen bzw. verzeichnisse von der indizierung durch suchmaschinen ausschließen kann. ist nicht schwer.

aber wie kann ich dynamische urs ausschließen? z.B.

domain.at/verzeichnis/datei.php?wert=$1

Ich will nämlich nicht, dass meine Seiten 2x indiziert werden, die urls geben nämlich werte an die eigene datei weiter (merklistenfunktion)

danke!

 
mrhappiness
28-09-2005, 11:24 
 
http://www.google.de/webmasters/bot.html
Punkt 14

afaik arbeiten auch die anderen wichtigen Suchmaschinen so

 
yellow23
28-09-2005, 12:24 
 
Original geschrieben von mrhappiness
http://www.google.de/webmasters/bot.html
Punkt 14

afaik arbeiten auch die anderen wichtigen Suchmaschinen so

sehr guter hinweis, danke.

besser wäre allerdings schon ein eintrag in der robot.txt, weil man da a bessere übersicht hat.

bin schon ganz nah dran, find aber keine genau angabe für die syntax:

disallow: /verzeichnis/datei.php?
disallow: /verzeichnis/datei.php
disallow: /verzeichnis/datei.php?*

? da unterscheiden sich anscheindend die sumas, weil nur google wildcards unterstützt...würd mich einfach interessieren

 
yellow23
28-09-2005, 12:32 
 
Original geschrieben von yellow23
sehr guter hinweis, danke.



Kleiner Nachtrag, weil ich verifizieren wollte, ob das auch die wichtigen sumas unterstützen:

21.01.2005 In einer konzertierten Aktion haben vor drei Tagen die großen Drei im Suchmaschinenmarkt, Google, Yahoo und MSN, den Bloggern den Einsatz des HTML-Attributes rel mit dem Wert "nofollow" empfohlen, um Links in Kommentaren für Spammer zu entwerten, siehe auch Eintrag im Google Blog: Preventing comment spam. Die Suchmaschinen werden gekennzeichnete Links nicht mehr verfolgen, so dass die Kommentar-Spammer keinen Nutzen mehr aus ihnen ziehen können.

<a href="http://www.kommentar-spam.de" rel="nofollow">Kommentar-Spam</a>

 
TobiaZ
02-10-2005, 12:25 
 
ansonsten könntest du auch serverseitig der "Merkseite" (die ist es doch, die du nicht gelistet haben willst) als permanent moved (403?) markiern. über header() sobald eine suma die seite besucht. allen normalen usern lässt du dann die merkfunktion.

 
yellow23
02-10-2005, 12:45 
 
Original geschrieben von TobiaZ
ansonsten könntest du auch serverseitig der "Merkseite" (die ist es doch, die du nicht gelistet haben willst) als permanent moved (403?) markiern. über header() sobald eine suma die seite besucht. allen normalen usern lässt du dann die merkfunktion.

Danke, aber das hast du falsch gesehen, die Merkseite wird gar nicht aufgerufen mit dem Link, sondern wieder die gleiche Seite, in der der Link steht. Dort wird dann nämlich auch gleich der Datensatz in die Datenbank geschrieben. Wollte, das der Besucher ohne lästige Redirects gleich auf der gleichen Seite bleibt, wenn er ein Rezept in die Merkliste gibt.

Hab die Sache jetzt halt mit "no follow" gelöst, allerdings wäre mir die Lösung mit robots.txt lieber gewesen. Weiss ungefähr wies geht, aber nicht 100% sicher, daher hab ichs gelassen, wenn ich nicht sicher sein kann, das es alle Suchmaschinen richtig lesen.

-archiv-

Alle Zeitangaben in WEZ +2. Es ist jetzt 08:37 Uhr.