Google komt met 4 aanpassingen in het dekkingsrapport van Search Console op basis van feedback van gebruikers.

Dekkingsrapport

Waarom past Google Search Console dita aan?

In de afgelopen 2 jaar verzamelde Google feedback van de webmaster community om verbeterde informatie te bieden. Er waren nogal wat onduidelijkheden over bepaalde meldingen en daarover heeft Google zelf het volgende te zeggen.

  “Based on the feedback we got from the community, today we are rolling out significant improvements to this report so you’re better informed on issues that might prevent Google from crawling and indexing your pages. The change is focused on providing a more accurate state to existing issues, which should help you solve them more easily.”

De aanpassingen

De 4 zaken die Google aanpakt zijn de volgende:

  1. Generieke issues zoals “Crawl anomaly” worden onderverdeeld in specifiekere issues. Bijvoorbeeld een 4xx- of 5xx-error. Hierdoor zie je eerder in waar een error plaats vindt. Wil je weten waar al deze errors zich voordoen? Dan is Screaming Frog een handige tool om deze op te sporen.
  2. Een nieuwe issue genaamd: “Geïndexeerd zonder content” doet zijn intrede.
  3. Soft 404 errors worden accurater gerapporteerd.
  4. Ingediende pagina’s die zijn geblokkeerd door middel van een robots.txt worden niet meer weergeven als waarschuwing maar als error.
Dekkingsrapport

Waarom doet dit er toe?

Voor SEO-specialisten is dit interessant aangezien de bovenstaande aanpassingen meer inzicht geven in de manier waarop Google naar je website kijkt. Daarnaast kunnen deze issues makkelijker worden verholpen doordat het probleem meteen zichtbaar is.

Vooral de nieuwe issue “Geïndexeerd zonder content” geeft meer inzicht in of Google je pagina wel helemaal leest. Dit is wat Google zelf zegt over de nieuwe issue op de Search Console help page.

“This page appears in the Google index, but for some reason Google could not read the content. Possible reasons are that the page might be cloaked to Google or the page might be in a format that Google can’t index. This is not a case of robots.txt blocking.”

Kortom, je pagina kan dus een error bevatten wat geen robots.txt is wat Google tegenhoud de pagina te lezen. Dit kan bijvoorbeeld een lege pagina zijn die je per ongeluk hebt gepubliceerd, of een script wat Google niet kan lezen.