Suchmaschienen...von wegen lange Wartezeit, oder hab ich da was was nicht verstanden?

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • derHund
    antwortet
    Wie machen es nun manche Seiten das deren 'dynamischer' Inhalt bei Google angezeigt wird ?
    ganz normal, dafür ist (fast) keine änderung notwendig.
    Meine Frage ist jetzt mal nur technisch!
    META-KEYWORDS dynamisch gestallten oder wie ?
    ja, kannst du machen, mach ich auch. auch wenn die keywords wohl fast niemanden interessieren.

    daß die sache per script zu realisieren ist, sollte klar sein

    Einen Kommentar schreiben:


  • Master0Blicker
    antwortet
    Wie machen es nun manche Seiten das deren 'dynamischer' Inhalt bei Google angezeigt wird ?

    Also folgendes:

    Ein Forum (oder auch was anderes) besteht ja nahezu nur aus 'Threads'.
    Jetzt tippe ich bei Google irgenein Namen oder Inhalt eines Threads ein und schwupps, Google listet diese Seite auf!
    Also muss doch dieser Thread irgendwie von Google 'erkannt' worden sein!

    Um das gleiche zu haben muss ich da meine Keywords dementsprechend auch immer ändern und zwar mit meinem Inhalt ?

    Natürlich nutzt das nur wenn meine Seite auch von Google regelmäßig besucht wird. Meine Frage ist jetzt mal nur technisch!
    META-KEYWORDS dynamisch gestallten oder wie ?

    Einen Kommentar schreiben:


  • onemorenerd
    antwortet
    Googleguy: "The primary reason for this is that some web servers assume that unless a user agent is IE, Netscape/Mozilla, or maybe Opera, that your browser won't support JavaScript, frames, etc. As Googlebot gets better over time, it gets closer to a regular user and browser in our ability to handle features like that. This user-agent change would let vanilla webservers assume Googlebot is more like a regular user, while still allowing site owners to recognize that Google is visiting and still providing clear contact info in case of questions or issues. We would still respect "Googlebot" in robots.txt, so the overwhelming majority of webmasters wouldn't have to change anything at all; most site owners probably wouldn't even notice the difference. This bot that a few people noticed was a test crawl with the new user agent. It looks like things went very smoothly, but we'll still be conservative when making this change. If people have any positive or negative comments or questions, just post here. If we don't hear any showstopping objections, we'll look at making this name change on the user-agent when we're convinced everything would be a smooth transition."

    http://www.markcarey.com/googleguy-s...nt-change.html

    Einen Kommentar schreiben:


  • Quetschi
    antwortet
    Der größte Teil der Besuche kommt tatsächlich mit

    Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

    als User-Agent daher. Der hier ist höchst selten bei mir:

    Googlebot/2.1 (+http://www.google.com/bot.html)

    gibts hier Unterschiede?

    Einen Kommentar schreiben:


  • onemorenerd
    antwortet
    Was ist denn der mozilla-googlebot? Kommt Google jetzt mit irgendwelchen Browserkennungen als User Agent vorbei oder wie äußert sich das? Und was soll das bringen (falls man das schon weiß)?

    Einen Kommentar schreiben:


  • marc75
    antwortet
    Original geschrieben von Quetschi

    Bis vor 2 Tagen kam der Google-Bot ca. 100 mal am Tag vorbei und hat sich was angesehen - gestern waren es plötzlich über 3000 Zugriffe vom Google-Bot und für heute zeichnet sich ein ähnlicher Wert ab

    Hat jemand anders momentan ähnliche Erfahrungen? Haben google die Aktuallierungsraten des Bots allgemein so deutlich erhöht, oder ist Google momentan einfach nur richtig spitz auf unsere Sites?

    Gruss
    Quetschi
    das mit den vielen Zugriffen ist wahrscheinlich der mozilla-googlebot, tritt bei anderen zur Zeit auch verstärkt auf, in seo foren munkelt man, das demnächst ein algo update ins Haus steht.

    Einen Kommentar schreiben:


  • Quetschi
    antwortet
    Hallo,

    vielleicht etwas OT, aber passt IMHO doch hier rein:

    Ich hab vor ca. 1 Monat begonnen die Besuche des Google-Bot zu erfassen und in ner DB abzuspeichern. Dabei zähl ich aber natürlich nur die Zugriffe auf die wichtigsten PHP-Scripte - vieles läuft da momentan noch gar nicht rein, weil es ein irrer Aufwand wäre diese Zählfunktion in all unseren Scripten zu implementieren.

    Bis vor 2 Tagen kam der Google-Bot ca. 100 mal am Tag vorbei und hat sich was angesehen - gestern waren es plötzlich über 3000 Zugriffe vom Google-Bot und für heute zeichnet sich ein ähnlicher Wert ab - irre - die Kunden die in unsere Portale eingetragen sind melden sich auch schon, dass sie seit gestern überdurchschnittlich viele Kundenkontakte (also schon von Menschen, nicht einfach nur Zugriffe auf Ihre Sites, die ja auch von Google stammen könnten) über unsere Portale erhalten - obwohl ich eigentlich noch keine nennenswerte Platzierungs-Verbesserungen in Google ausmachen konnte - mal sehen was da noch kommt.

    Hat jemand anders momentan ähnliche Erfahrungen? Haben google die Aktuallierungsraten des Bots allgemein so deutlich erhöht, oder ist Google momentan einfach nur richtig spitz auf unsere Sites?

    Gruss
    Quetschi

    Einen Kommentar schreiben:


  • onemorenerd
    antwortet
    OffTopic:
    Original geschrieben von marc75
    gedult
    ge-dulled?

    Einen Kommentar schreiben:


  • marc75
    antwortet
    Original geschrieben von Master0Blicker
    Heisst also im Klartext:

    Finde dir 2-3 gutbesuchte Seiten und setzte dort dein Werbebanner rein und schon kommt Google zumindest jede Woche einmal vorbei ?

    Und das war es ?
    ne so einfach ist es nicht

    - natürliche Links mit verschiedenen Keys sind gefragt,
    - besser auf Domain-Pop als auf Link-Pop achten,
    - langsamer Linkaufbau (muss halt natürlich aussehen),
    - der Inhalt sollte auch nur langsam wachsen,
    - die Seite sollte von google lesbar sein, (flash, javasript zum Beispiel versteht google nicht)
    - gedult, neue Seiten bekommen oft ein newbie Bonus von 3-6 Wochen und verschwinden danach für mehrere Monate aus den vorderen Reihen,
    - Doppelcontent, Spam, cloaking, Hiddentext vermeiden.
    - Seo FAQs und foren suchen und lesen.



    Aber:

    Ein Bekannter von mir hat seine Seite bei google selber reingetragen. Ist schon 12 Wichen oder so her! Und den kann ich immer noch nicht in google finden! Obwohl es nahezu einzigartig ist! Ist übrigens bei dem eine Schweizer seite (also mit .ch)......Wie kann das sein ?
    google war bestimmt schon mal da und hat die index geholt, es sei denn die domain war schon mal im Gebrauch und steht auf der blacklist.

    Einen Kommentar schreiben:


  • Master0Blicker
    antwortet
    Heisst also im Klartext:

    Finde dir 2-3 gutbesuchte Seiten und setzte dort dein Werbebanner rein und schon kommt Google zumindest jede Woche einmal vorbei ?

    Und das war es ?

    Aber:

    Ein Bekannter von mir hat seine Seite bei google selber reingetragen. Ist schon 12 Wichen oder so her! Und den kann ich immer noch nicht in google finden! Obwohl es nahezu einzigartig ist! Ist übrigens bei dem eine Schweizer seite (also mit .ch)......Wie kann das sein ?

    Einen Kommentar schreiben:


  • onemorenerd
    antwortet
    Das war eine Metapher, ich habe keine Aktien.

    Mir ist schon klar, dass bereits heute Seiten optimiert und die Ergebnisse dadurch verhagelt werden.
    Ich halte das aber noch für harmlos; man stelle sich mal vor, die Idioten, die heute schon Linkfarmen unterhalten, wüßten noch tausend andere Tricks ....

    Einen Kommentar schreiben:


  • Wurzel
    antwortet
    Original geschrieben von onemorenerd
    ... die Kapitalisten unter den Webmastern würden ihre Seiten bis zum Gehtnichtmehr optimieren und am Ende des Tages wäre der Google-Index nur noch die größte Datenstruktur der Welt, aber ohne praktischen Wert.
    achso, und was machen die derzeit? däumchen drehen? such mal nach "beliebten" keywords aus lukrativen bereichen wie reise, sms, versicherungen, ebay (?), erotik, ... was findest du? genau, "die Kapitalisten unter den Webmastern".

    verkauf deine aktien

    Einen Kommentar schreiben:


  • onemorenerd
    antwortet
    Quetschi hat wohl Recht: Die Googleguys wissen selbst nicht, was da abläuft.
    Ich habe mich mal mit einigen Mitarbeitern unterhalten und die können entweder alle verdammt gut lügen oder wissen wirklich nicht, was en Detail geschieht. (Ist bei anderen SE-Betreibern garantiert nicht anders.)

    Ich kann das auch nachvollziehen: Je mehr Mitarbeiter wissen, was alle Welt gern wissen würde, desto größer das Risiko, dass mal einer plappert (wenn der Preis stimmt ).
    In dem Moment würde ich sofort meine Aktien verkaufen, denn die Nachmacher würden wie Pilze aus dem Boden sprießen, die Kapitalisten unter den Webmastern würden ihre Seiten bis zum Gehtnichtmehr optimieren und am Ende des Tages wäre der Google-Index nur noch die größte Datenstruktur der Welt, aber ohne praktischen Wert.

    Einen Kommentar schreiben:


  • derHund
    antwortet
    hmm,
    1. Aktualität von Content veranlasst Google ebenfalls dazu öfter vorbeizuschauen. Wer eine Homepage jahrelang so lässt wie er sie erschaffen hat wird Googlebot selten zu Besuch bekommen.
    genau das gegenteil konnte ich in den letzten wochen/monaten feststellen. seiten, an denen es lange keine änderung gab, werden dennoch täglich vom google-bot besucht. was nicht heißen soll, daß neuer content nicht gut wäre.

    das ganze seo-ding ist recht vage, niemand weiß so richtig, was wie funktioniert. manchmal habe ich auch das gefühl, daß die bots allein dadurch, daß ich in meinem footer die seiten aufführe, täglich vorbeischauen.

    Einen Kommentar schreiben:


  • Quetschi
    antwortet
    Hallo,

    naja, die Linkpopularität ist einer von vermutlich vielen Faktoren die darüber bestimmen wie häufig ne Site gespidert wird - und zu allen Faktoren die man so kennt kommt noch ein gewisser 'Google'-Faktor dazu. Ernsthaft, manchmal hat man das Gefühl dass die bei Google selbst nicht mehr so recht wissen, was deren System so betreibt.

    2 Faktoren die mir noch bekannt sind:
    1. Aktualität von Content veranlasst Google ebenfalls dazu öfter vorbeizuschauen. Wer eine Homepage jahrelang so lässt wie er sie erschaffen hat wird Googlebot selten zu Besuch bekommen.

    2. Die Platzierung bei Google überhaupt. Je höher eine Site gelistet wird umso öfter wird der Bot auf nen Kaffee vorbeikommen.

    Das mit den 8 Wochen trifft zumindest bei Google nach meiner Erfahrung nicht zu. Selten dass mal mehrere Tage vergehen bis der Roboter zum ersten mal drüber schaut.

    Gruss
    Quetschi

    Einen Kommentar schreiben:

Lädt...
X