Erkenntnisse der Google Webmaster Hangouts 2018

Das Jahr ist noch nicht vorbei, und einige Hangouts mit Googles John Mueller fehlen mir noch, aber ein paar der Erkenntnisse aus diesem Jahr habe ich mir mal zusammengeschrieben.

Interne Suche

Webseiten bieten eine Suchfunktion an, oder sollten es zumindest, stellt sich die Frage, ob der Googlebot diese interne Suche nutzt. Doch das tut er nicht, im Prinzip. Denn es gibt nach Aussage von Google zumindest einige Seiten, auf denen sich der Googlebot nur auf diese Weise fortbewegen kann.

Größenbeschränkung des Google Cache

Eigentlich lässt sich eine gesamte gecrawlte Seite im Google Cache finden, eigentlich, denn auch dieser Cache hat sein Limit. Die genaue Zahl will man zwar nicht nennen, spricht aber von „mehreren 100 MB HTML“. Und das muss man erst einmal zusammen kriegen.

Wie wird das CSS interpretiert

Mit CSS ist es bei manchen Anweisungen noch immer so eine Sache. In Edge sieht etwas anders aus, als in Firefox, in Opera anders als bei Chrome. Wie sieht es aber für Google aus? Tja, natürlich werden die Webseiten dort in einer Chrome-Version gerendert.

Mobile first, mobile only

Einige Fragen bei den Google Hangouts in diesem Jahr bezogen sich natürlich auf die Mobile First Indexierung, so auch diese: „Wie wichtig ist gleicher Inhalt zwischen mobiler und Desktop-Homepage für News-Seiten?“ Die Antwort, sobald eine Seite nur noch mobil gecrawlt wird, zählen auch nur noch die dortigen Inhalte.

Disavow Tool

Wer etwa von Konkurrenten schlechte Backlinks bekommen hat, oder sich seiner eigenen (Black Hat) SEO-Vergangenheit schämt, kann mit dem Disavow Tool der Google Search Console Backlinks entwerten lassen. Das Google das durchaus ernst nimmt, hat John Mueller mehrfach dieses Jahr bestätigt.

Crawl-Fehler oder kaputte URLs

Stößt der Googlebot auf eine Seite die etwa ins Nirvana geht, oder aus anderen Gründen einen Crawl-Fehler auswirft, heißt das nicht, dass die Seite nicht noch einmal gecrawlt wird. Google lässt sich lediglich mehr Zeit, ehe er den Bot wieder vorbeischickt.

Mehr als eine Seite bei einer Plattform

Wer mehrere Blogs bei Blogger oder WordPress.com führt, hat dadurch aus SEO-Sicht keine Nachteile zu erwarten. Es gelte die Qualität. Mueller deutete auch an, dass das auch etwa für mehrere WordPress-Installationen gilt, die sich einen gemeinsamen Server und damit oft auch eine gemeinsame IP teilen.

Tag-Seiten

Viele Content Management Systeme erstellen automatisch Tag-Seiten, auf denen alle Beiträge gelistet werden, die mit einem gemeinsamen Tag ausgezeichnet sind. Genauso verhält es sich auch bei Kategorie-Seiten. Und die crawlt Google wohl besonders gerne.

HTML Validierung

Gute Nachrichten für alle Webentwickler, deren Kunden den W3-Webvalidator entdeckt haben und jetzt behaupten, ihre Seite sei für Google schlecht programmiert. Google kümmert das nicht.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.