feststellen

Google Indexierungsstatus überprüfen: Warum ist das wichtig?

Wie viele meiner Unterseiten hat Google eigentlich indexiert? Dieser Frage konnte man bis zur Ankündigung „Geheimnisse des Google-Index enthüllt“ aus dem Juli diesen Jahres nur mit der bekannten site:-Abfrage auf den Grund gehen. Während man seit der Ankündigung innerhalb der Webmaster Tools den genauen Indexierungsstatus der eigenen Webseiten einsehen kann (zu finden unter „Status“ -> „Indexierungsstatus“, mehr dazu in meinem E-Book), hat sich der Blick von außen auf eine Domain doch stark eingeschränkt. Noch vor wenigen Monaten konnte man – eine nicht restriktive Suchanfrage und entsprechend große Seite vorausgesetzt – noch problemlos die Ergebnisse 1 bis 1.000 zu einer Domain über die site:-Abfrage einsehen. Doch wie sieht es heute aus?

Wer sich die Mühe macht und z.B. nach site:wikipedia.org oder site:bild.de sucht, wird feststellen, dass bereits weit vor der 1.000er-Grenze Schluss ist. In der Regel wird bereits nach knapp 700 Ergebnissen der Hinweis auf den Supplemental Index gegeben: 700 relevante Ergebnisse, wer mehr sehen will, kann die Suche ohne Filterung wiederholen. Doch selbst dann ist unter 1.000 Seiten Schluss.

Haben die beiden oben genannten Domains nicht mehr so viel qualitativ hochwertigen Content zu bieten? Das wäre beim Hinweis „Seite 8 von ungefähr 5.890.000 Ergebnissen (0,54 Sekunden)“ doch arg dürftig. Man wird das Gefühl nicht los, dass Google hier bewusst die Anzeige einschränkt – denn die Angabe von knapp 5,9 Millionen Seiten dürfte doch relativ grob sein und vom „Realwert“ in den Webmaster Tools abweichen. So zumindest meine Erfahrung.

Warum es wichtig ist, den Indexierungsstatus der eigenen Webseite zu kennen

Für die meisten Webmaster ist der genaue Indexierungsstatus fremder Webseiten nicht sonderlich interessant, aber für die eigene Webseite möchte man diese Information dann doch gerne haben. In den Google Webmaster Tools kann man diesen Wert finden. Um Probleme bei der URL-Struktur der eigenen Webseite zu erkennen, lohnt sich ein regelmäßiger Blick auf die dort angezeigte Anzahl. Wenn die Anzahl an indexierten URLs weit über den Wert liegt, welchen man erwarten würde, so sollte man sich auf die Suche nach der Ursache machen. Doch auch das Gegenteil muss nicht positiv sein.

Eine Beispielrechnung für die Gesamtanzahl an URLs eines Online-Shops könnte wie folgt aussehen:

Anzahl an Produkten in einem Online-Shop
+ Anzahl an Kategorien
+ Anzahl an paginierten Seiten
+ Anzahl an Filterseiten (z.B. Marke + Kategorie)
+ Anzahl an Marken
+ Anzahl an Webseiten wie „Über uns“ oder Impressum
+ Anzahl der Artikel im Blog
+ Anzahl an URLs, die über die robots.txt blockiert sind
– Seiten, die über Robots „Noindex“ geblockt sind
– Seiten, die nur von URLs verlinkt werden, die über robots.txt blockiert sind
——————————————————————————-
Gesamtanzahl der URLs, die man sich erklären kann

URLs, die über die robots.txt blockiert sind, sollten nicht abgezogen, sondern addiert werden. Denn die robots.txt blockiert nicht die Indexierung von Seiten, sondern nur deren Crawling – und nicht selten entscheidet sich Google dazu, die entsprechenden URLs trotzdem zu indexieren. Durch das Crawling-Verbot sind Seiten, die nur von einer per robots.txt blockierten URL angelinkt werden, für Suchmaschinenrobots hingegen nicht erreichbar und sollten deshalb abgezogen werden.

Sofern sich die ermittelte Gesamtanzahl an URLs von dem in Google Webmaster Tools angezeigten Wert unterscheidet – sowohl positiv als auch negativ – sollte die Webseite genauer untersucht werden. Beispielhaft dazu ein Chart einer Webseite. Auffällig ist, dass die Anzahl indexierter URLs sprunghaft und signifikant nach oben geschnellt ist. Wir sprechen hier nicht von 1.000 Seiten, sondern von über 500.000 neuen URLs. Bereits der Anstieg von August zu September ist auffällig: Hier hat bereits eine Verdoppelung der Anzahl an indexierten Seiten stattgefunden.

Wie viele Seiten hat Google indexiert?

Was können Gründe für „zu viele“ indexierte URLs sein?

Mehr indexierte URLs als erwartet zu haben, muss bei der Suchmaschinenoptimierung nicht zwangsläufig besser sein. Eigentlich gilt hier die Devise: so viele URLs wie nötig, so wenige URLs wie möglich.

Gründe, weshalb der Indexierungsstatus aus dem Ruder läuft, gibt es viele. Die Liste stellt einen Auszug dar:

  • Der Server gibt auch bei „invaliden“ URLs den HTTP-Statuscode 200 aus.
  • Der Content ist über klein- und großgeschriebene URLs erreichbar.
  • Jeder Hostname wird vom Server akzeptiert, z.B. auch http://w.meinedomain.de/.
  • Session-IDs in den URLs.
  • Unnötige Parameter werden nicht von der Indexierung ausgeschlossen.
  • Die Seite ist unter http und https indexiert.

Was können Gründe für „zu wenig“ indexierte URLs sein?

Wenn weit weniger URLs im Google Index vertreten sind als erwartet, kann auch das ein Hinweis auf ein Problem sein.

  • Wurde die Angabe „Noindex“ unbewusst zu häufig eingesetzt?
  • Gibt es Probleme mit dem Canonical-Tag?
  • Sind Verteiler-Seiten der Domain per robots.txt blockiert?
  • Werden alle URLs mindestens 1x angelinkt?
  • Wurden zu restriktive Einstellungen in Google Webmaster Tools für Parameter gewählt?
  • Hat die Domain ein zu niedriges Verhältnis an Backlinks zu Content?
  • Stellt mein Content keinen Mehrwert dar? Ist der Content eventuell kopiert worden?
  • Wurde die Domain erst vor kurzem online gestellt?

Wie geht man vor, wenn der Indexierungsstatus aus dem Ruder läuft?

Bei einigen der Problem helfen die Google Webmaster Tools weiter. Unter dem Punkt „HTML-Verbesserungen“, zu finden unter „Optimierung“ listet Google beispielsweise Seiten auf, die sich dieselben Meta-Informationen teilen. Auch über Parameter und deren Crawling kann unter „Konfiguration“ -> „URL-Parameter“ eine Liste von URLs mit Parametern angesehen werden. Dazu müssen die Beispiel-URLs zu einem der gelisteten Parameter aufgerufen werden. Um zu kontrollieren, ob eine Seite auch unter https:// indexiert wurde, kann der Suchbefehl „site:meinewebseite.de inurl:https“ verwendet werden.

Über die Google Webmaster Tools lassen sich bereits einige Problemfelder identifizieren. Weiteren Aufschluss über Probleme kann ein Crawlvorgang der Webseite liefern. Empfehlenswerte Tools sind dabei unter anderem der Screaming Frog und das SEO-Toolkit von Microsoft.

Mozilla Firefox: Vier kleine Änderungen, die den Browser noch schneller machen.

Der Firefox ist mit knapp einem Drittel Marktanteil in Deutschland der beliebteste Webbrowser. Die schier unerschöpflichen Einstellungsmöglichkeiten und (kostenlosen) Erweiterungen sind wohl „schuld“ daran. Jeder Nutzer kann den Browser für seine eigenen Zwecke anpassen und optimieren. Aber alle legen hohen Wert auf die Schnelligkeit. Und die kann man natürlich auch noch verbessern.

Der erste Beschleunigungstipp führt über den Befehl about:config. Gib diesen Befehl in die Adresszeile ein und bestätige mit [Eingabe] und bestätige die nachfolgende Warnmeldung.

Über das Suchfeld rufst du nacheinander die zwei Einstellungen network.http.pipelining und network.http.proxy.pipelining auf und änderst den Wert per Doppelklick von false auf true.

Anschließend rufst du auf die gleiche Weise die Option network.http.pipelining.max-optimistic-requests auf und änderst den Wert von 4 auf 8.

Im letzten Arbeitsschritt suchst du den Eintrag network.http.pipelining.ssl und setzt per Doppelklick den Wert von false auf true.

Ab sofort sollte Firefox spürbar schneller arbeiten.

Noch weitere Tipps

ABOUT:CONFIG

Der erste Trick führt hier auch wieder über about:config. Gib diesen Befehl in die Adresszeile ein, drücke die Taste [Eingabe], und bestätige die Warnmeldung mit der Schaltfläche Ich werde vorsichtig sein, versprochen!

Anschließend rufst du über das Suchfeld zuerst die Funktion network.http.max-connections auf. Mit einem Doppelklick auf den Eintrag öffnest du die Dialogbox und änderst darin den Wert von 256 auf 48. Mit OK bestätigst du die Änderung.

Über das Suchfeld navigierst du nun zum Eintrag network.http.max-persistent-connections-per-proxy und änderst nach obigem Vorbild den Wert auf 12.

FASTERFOX

Im zweiten Tipp nutzt das Add-On Fasterfox auch die Leerlaufzeit des Firefox, um eingebettete URL´s auf Webseiten schon im Voraus zu laden, um sie bei Bedarf schneller anzeigen zu können. Dies erhöht die Surfgeschwindigkeit.

Fasterfox kannst du auf der Add-On-Seite von Mozilla herunterladen und installieren. Nach einem Neustart des Browsers ist die Erweiterung aktiv und einsatzbereit.

Standardmäßig ist Fasterfox auf das Geschwindigkeits-Profil Turbo eingestellt, dass aber eine höhere Serverlast zufolge hat.

Insgesamt kannst du aus fünf Profilen wählen:

  • Standard – nutzt die „normalen“ Standardwerte des Browsers und ist somit eigentlich nutzlos
  • Moderat – Optimiert nur den Aufbau der aufgerufenen Webseite ohne Serverbelastung
  • Optimiert – verbessert die Geschwindigkeit im Rahmen der RFC-Spezifikationen
  • Turbo – Hohe Geschwindigkeit und erhöhte Serverlast
  • Angepasst – erweiterte Optionen zur individuellen Geschwindigkeitseinstellungen

Zu den Profilen von Fasterfox gelangst du über den Menübutton oben rechts und dem Kontextmenü-Eintrag Add-Ons.

Performance des Browsers erheblich beschleunigen

Egal welchen Browser du verwendest, mit der Zeit werden alle etwas langsamer und es dauert länger bis die Startseite geöffnet wird. Der Grund dafür sind die Informationen, die der Browser sammelt, was dazu führt, dass die Profildatei des Webbrowsers mehr und mehr fragmentiert wird. Da hilft es nur bedingt, die Browserdaten manuell zu bereinigen. In diesem Fall hilft das Programm SpeedyFox weiter. Die Performance der von diesem Tool unterstützen Programme kann bis zu dem Faktor 3 verbessert werden.

Das Tool SpeedyFox ist kostenlos auf der Webseite des Anbieters Crystalidea als ZIP-Datei erhältlich. Entpacke das Tool an seinem Bestimmungsort, beende deinen Browser, und starte das Tool mit einem Doppelklick auf speedyfox.exe.

SpeedyFox scannt deinen PC nach unterstützten Programmen. Wähle dann (falls nicht automatisch geschehen) die betreffenden Browser und/oder Programme aus und klicke auf Optimize!

Die Prozessoptimierung der ausgewählten Programme startet und SpeedyFox misst gleichzeitig die Zeit. Wiederhole nach dem ersten Durchlauf den Prozess mehrere Male, bis sich keine wesentliche Verbesserung mehr feststellen lässt. 

SpeedyFox ist kompatibel mit den Betriebssystemen von Windows und MAC OS X. Beim MAC wird allerdings nur der Firefox-Browser optimiert.

Unter Windows können wesentlich mehr Programme beschleunigt werden. Darunter befinden sich neben dem Firefox auch der Opera, Chrome und Thunderbird, sowie Epic, Iron, Palemoon, Skype, Yandex, Cyberfox und Slimjet.

Google Satellitenfoto-Updates: Mit “Follow Your World” feststellen, wann es neue Satellitenbilder bei Google Maps und Google Earth gibt

Wenn Sie mit Google Maps oder Google Earth aus dem Weltall auf Ihr Zuhause blicken, sollte man stets im Hinterkopf haben, dass die Satellitenfotos meist mehrere Jahre alt sind. Von wann genau die Aufnahmen stammen, lässt sich leicht herausfinden (wie, steht hier). Und wer nicht verpassen möchte, wenn Google neue Satellitenfotos ins Netz stellt, sollte “Follow Your World” kennenlernen. Denn damit erfahren Sie als erster, sobald es von markierten Orten neue Luft- und Satellitenaufnahmen gibt. (mehr …)