Google Webmaster Central hat kürzlich bekannt gegeben, dass die Empfehlungen für die Verwendung von AJAX auf Webseiten geändert werden. Was müssen Sie nun tun, um sicherzustellen, dass Ihre AJAX-Seiten gecrawlt werden können?
Die gute Neuigkeit ist: Gar nichts! Die Googlebots können Javascript ausführen und verstehen Seiten wie moderne Browser – dies gilt sogar für AJAX-Webseiten. So lange Sie Ihre CSS- und Javascript-Dateien nicht für das Google-Crawling blockieren, werden die Crawler Ihre Webseite korrekt «sehen». Um dies zu überprüfen, können Sie das Tool «Abruf wie durch Google» (Fetch as Google) in der Google Search Console verwenden. Damit können Sie die Seiten Ihrer Webseite abrufen und ausführen.
Wenn die Seite komplett ausgeführt wurde, können Sie die zwei nebeneinander dargestellten Bilder vergleichen. Das erste zeigt, wie der Googlebot die Seite sieht und das zweite, wie ein Besucher Ihrer Webseite die Seite gesehen hätte. Alle blockierten Ressourcen werden in der Tabelle unterhalb aufgelistet.
Wenn Ihre Webseite das alte AJAX-Crawling-Schema verwendet (_escaped_fragment_ URLs), müssen Sie keine Anpassungen vornehmen. Ihre Webseite wird weiterhin korrekt indexiert. Beim nächsten Redesign können Sie die _escaped_fragment_ URLs entfernen.
Nun zu den schlechten Neuigkeiten: Während die Googlebots Ihre AJAX-Seiten lesen können, kann Google Analytics nicht automatisch alle Änderungen tracken, die mit AJAX an einer Seite vorgenommen werden. Dies stellt ein Problem dar, wenn Ihre Webseite AJAX verwendet, um beispielsweise Formulare zu übermitteln oder neue Inhalte in Tabs oder Modals zu laden. Dafür müssen Sie spezifisch virtuelle Pageviews oder Events konfigurieren um aufzuzeichnen, dass die Nutzer neuen Content angeschaut oder mit den Elementen auf der Seite interagiert haben. Um dies umzusetzen, empfehlen wir den Google Tag Manager.
Benötigen Sie Hilfe dabei zu verstehen, ob Ihre Seite korrekt von den Googlebots gecrawlt oder in Google Analytics getrackt wird? Senden Sie mir gerne eine E-Mail.