Google Sitemap XML vs. Indizierung durch Google

Die Zeiten ändern sich.

Dieser Beitrag scheint älter als 16 Jahre zu sein – eine lange Zeit im Internet. Der Inhalt ist vielleicht veraltet.

Ich möchte gern eine Diskussion zum Thema Google Sitemap anstoßen. Ist es wirklich erforderlich bzw. besser für die Indizierung der Seite, wenn das Blog bzw. die Webseite eine XML-Datei mit den entsprechenden Informationen hinterlegt hat?

Warum diese Überlegungen?

Ich komme hier seit gut 6 Monaten ohne eine Sitemap im XML-Format aus und ich kann keine negativen Einflüsse bemerken, wobei es allerdings sehr schwer ist, tatsächliche Ergebnisse zu messen.

Ich denke, dass man mit der XML-Sitemap eine Vorgabe macht. Warum soll Google nicht aufgrund ihrer Crawler und Routinen den Wert einer Seite bestimmen?


<url>
<loc>http://example.de/test-beitrag/123/</loc>
<lastmod>2006-07-23T14:11:43+02:00</lastmod>
<changefreq>hourly</changefreq>
<priority>0.5</priority>
</url>

Die Vorgabe wird seitens der Website bestimmt. Welche Priorität vergebe ich denn für einen neuen Artikel. Google selbst kann doch den Wert viel besser vergeben, kennen sie doch den Wert aller Backlinks, Inhaltsauswertungen und Zugriffe der Suchenden.

Ich will und kann hier keine Fakten liefern, ich möchte einfach gern einige Meinungen aus den Weiten des WWW einfangen und mir eine Meinung bilden. Bitte nutzt die Kommentarfunktion, hinterlasst eure Meinung und euer Wissen, Links zu Beiträgen mir relevanten Themen oder auch euren Standpunkt.

Weitere Links

Von Frank Bültge

bueltge.de [by:ltge.de] wird von Frank Bültge geführt, administriert und gestaltet. Alle Inhalte sind persönlich von mir ausgewählt und erstellt, nach bestem Gewissen und Können, was die Möglichkeit von Fehlern nicht ausschließt.

15 Kommentare

  1. Das ist wirklich sehr schwer zu sagen.
    Bei einem Blog habe ich auch mal eine Zeit kein XML Sitemap eingereicht und es blieb alles bei alten, weil die interne Verlinkungsstruktur (durch Tagging usw) gestimmt hat. Wenn dies nicht der Fall halte ich das einreichen eines Sitemaps sehr sinnvoll, weil sonst Seiten erst im 20 Unterschritt vom Bot gefunden werden. Kann dies aber nicht durch ein negatives Beispiel belegen.

    Bei normalen Webseiten habe ich es beruflich anders gemerkt. Für eine Seite die seit Jahren besteht und aktiv von Google gecrawlt wurde, habe ich ein Sitemap eingereicht und das führt kurzfristig erstmal zu einem deutlichen Besucherrüchgang (knapp 50 %) und Verlust diverser Positionen in den SERPS. Dies hat sich zwar innerhalb von 4 Wochen normalisiert. Wenn ich jetzt den Vergleich mache, vor dem Einreichen des Sitemaps und danach, kann ich keinen signifikaten Unterschied feststellen.

  2. Es gibt einen sehr guten Grund, der für die Sitemap spricht: Du teilst damit Google mit, was der primäre Content ist. Bei Google gibt es zwei Sachen, die einem Seitenbetreiber Kopfschmerzen lmachen können: der „Secondary Content“ und der „Doublicate Content“. Ersterer ist Content, den Google für nicht so wichtig hält und nicht im Hauptindex führt oder zumindest nicht ranked, das heisst, der Content steht in den SERPs ganz unten.

    Und der zweite entsteht bei einem Blog von ganz allein: Man kann ja den Inhalte eines neuen Beitrags über die Startseite des Blogs, über die Archivseite des Monats, des Jahres oder über die Kategorienseite finden. Und eventuell noch zusätzlich über die Tag-Seiten. Google findet hier mehrere annäherd gleiche Inhalt und könnte die als „Doublicate Content“ einstufen.

    Beides umgehst Du mit der Sitemap, in der ist jeder Content nur einmal vertreten und von Dir selbst gerankt. Und im Normalfall übernimmt Google das auch genau so. Andernfalls hast Du immer einige Beiträge, die ganz oben in den SERPs stehen und andere die ganz unten oder gar nicht auftauchen. Im Zweifel ist Google nämlich gegen Dich. 😉

  3. Das sollte bei einem Blog aber nicht von alleine entstehen. Ich habe dazu folgenden Syntax im head-Abschnitt.

    <?php if((!is_paged() ) && ( is_single() || is_page() || is_home() || is_category())){ echo '' . "\n"; } else { echo '' . "\n";} ?>
    

    Leider teilt die Sitemap aber nicht den primären Content mit, denn in der Regel wird doch die Sitemap per Script oder bei WP mit Plugin erzeugt, da steht jeder Beitrag mit der gleichen Prio, wo definiere ich da den primären Content.

    Danke für die Ausführungen euch beiden !

  4. wir hatten nach einem serverumzug mal das problem, dass wir unbewusst saemtliche robots ausgesperrt haben. ein fehlerhaftes plugin war die ursache. nach wochen (oder monaten?) haben wir das durch zufall festgestellt.
    bis dahin hatte google keine einzige, seit dem serverumzug hinzugekommene seite indiziert. wir haben daraufhin erst „so“ versucht, die inhalte in den index zu bekommen. als wir dann google sitemaps genutzt haben, hats keine zwei tage gedauert und _alle_ inhalte bzw. seiten waren im index.
    von daher stellt sich mir die frage nach der sinnhaftigkeit nicht mehr 😉

  5. Worum es (soweit ich mich an die Diskussion zwischen Google und Microsoft zwecks Sitemap.xml erinnere) ging ist dass sowohl Google als auch Microsoft bei ihren Crawlern teilweise Probleme haben Seiten die mit Parametern gesteuert werden zu indizieren.

    So gibt/gab es Blog Systeme die URLs wie folgende Produzieren:
    http://www.server.com/view.php?Id=23

    Nun gibt es aber auch Seiten die ihre Parameter für sinniger dinge benutzen wie z.B. view.php?highlight=abc

    Wie kann Google/MSN-Bot unterscheiden dass es sich beim ersten Link um eine andere Seite handelt und beim zweiten nur um die Selbe view.php mit einer anderen highlight option?

    Kaum bis schlecht, und hier kommt Sitemap.xml ins Spiel denn diese File stößt die Bots direkt auf Seiten auf denen auch wirklich Content steht der zu Crawlen ist.

    grüße Tigraine

  6. Danke für die aufschlussreiche Erläuterung, aber das ist nicht wirklich ein Fakt, warum ich auf einem Blog oder einer Website, so wie sie bei den meisten Seiten sind – standard 08/15 ohne große php-Spielereien, dass man Google und co. den Wert einer Prio vorgibt.
    Neuanmeldung einer Site –> Top
    php-Spielereien –> Top
    Doppelter Content –Top, wenn nicht anders gelöst
    aber mehr nicht, eventuell bewerten die Crawler die einzelnen Seiten besser?

  7. Ich zweifle auch an dem Nutzen von Sitemaps. Google sagt, dass eine Seite nicht besser oder schlechter rankt. Ebenso soll die selbst vergebene Priority nicht wirklich Einfluss auf die „relative Wichtigkeit“ einzelner Seiten oder gar das Google-Ranking haben.

    Allerdings findet Google Seiten wohl besser, die „versteckt“, also linkmäßig intern etwas schlecht angebunden sind. Und indiziert Websites etwas schneller/früher/öfter, wie aba (Kommentar 7) ja erfahren hat.

    Und Sitemap hin oder her: Die Website wird wohl auch wie gewohnt über alle Links gecrawlt (auch die Seiten die nicht in der Sitemap sind) und indiziert. Daher stimme ich manchen meiner Vorredner nicht zu (Duplicate Content kann dennoch entstehen).

    Manch SEO rät sogar von Sitemaps ab, da damit „Fehler“ in der Sitestruktur (schlecht verlinkte Seiten) z.B. über Google Analytics nicht so gut erkannt werden können, da Google ja über die Sitemap „alles findet“.

    Das ist zumindest mein Wissenstand, außer die haben inzwischen etwas geändert.

  8. So nun geb ich meinen Senf auch mal dazu:
    Es ist eigentlich total sinnfrei sich ein Tool zu installieren, das extra eine XML-Sitemap mit (in der Regel total sinnfreier) Gewichtung erstellt – denn Google hat auch keine Probleme damit den Feed auszulesen und da stehen die wichtigen neuen Seiten auch drinnen.

    Google erlaubt ja extra, dass man den Feed anstelle der Sitemap zur Verfügung stellt… ich nutze das – ob meine neuen Artikel dadurch schneller indiziert werden? Keine Ahnung, aber es schadet jedenfalls nix. Extra irgendwas installieren? Nö – seh ich garnicht ein, unnötige Arbeit.

  9. Nun bei einem der größeren Blogs sehe ich da auch keine Notwendigkeit. Ein kann kein Muss. Ansonsten setze ich die Sitemap sehr gerne ein, um neuen Content sehr schnell an die Suchmaschine zu melden. Die meisten Vorteile einer Sitemap hat man vor allem dann, wenn es eine noch schwächere Seite ist, die nicht allzu oft gecreawlt wird. Trifft natürlich nicht auf deinen Blog zu.

  10. Gerade beim Start eines Blogs ist die Sitemap sehr hilfreich habe ich festgestellt um die Artikel in die Serps zu bekommen. Nach 4 Wochen und täglich ein bis drei Artikel ohne Sitemap bekam ich so gut wie keine Artikel in den Index oder eben erst eine oder zwei Wochen später. Mit der Eingabe der XML Sitemap im Google Webmaster Tool sind die Beiträge innerhalb von Stunden in den Serps. Darum würde ich auf diese nicht mehr verzichten.

  11. Meine Einschätzung als „Nicht-Seo-Experte“:

    Inwiefern die Sitemap dem Ranking auf die Sprünge hilft kann niemand so genau sagen, da sich Google nicht in die Karten schauen lässt, aber es gibt Anhaltspunkte:

    Google selber sagt, dass die Sitemap hilft den Spider gezielt auf alle Seiten zu lenken, auch diejenigen, die eventuell übersehen wurden.
    Andersherum betrachtet steht die Seite in keinem gutem Licht dar, wenn wichtige Inhalte nicht schnell erreichbar sind.

    Kurzum: Kann man machen, muss man nicht.

  12. Also eine XML Sitemap ist immer von Vorteil.
    Dort vereinst Du den gesamten Inhalt Deiner Webseite. Eine Sitemap zu crawlen und Änderungen am Conten festzustellen nimmt vieeeeeeel vieeeeeel weniger Zeit in Anspruch als erst die ganze Webseite zu Crawlen und selbst danach zu suchen.

    Auf gut deutsch: Google findet so neue Seiten oder geänderten Inhalt wesentlich schneller. Ergo werden Änderungen oder neue Seiten schneller im Index erscheinen (sofern Sie für Google auch relevant erscheinen).

    Die Angabe priority hat nur begrenzten Einfluß. Der Wichtigkeit wird eigentlich wenig Beachtung geschenkt. Damit kannst Du nur darauf hinweisen das diese Seite wichtiger ist, aber im endeffekt bewertet Google das selbst. Ich konnte da noch keine Vor oder Nachteile feststellen.

    Wichtig ist das die Sitemap keine Fehler enthällt und immer den aktuellen Content enthällt.

Kommentare sind geschlossen.