Google komt met 4 aanpassingen in het dekkingsrapport van Search Console op basis van feedback van gebruikers.
In de afgelopen 2 jaar verzamelde Google feedback van de webmaster community om verbeterde informatie te bieden. Er waren nogal wat onduidelijkheden over bepaalde meldingen en daarover heeft Google zelf het volgende te zeggen.
“Based on the feedback we got from the community, today we are rolling out significant improvements to this report so you’re better informed on issues that might prevent Google from crawling and indexing your pages. The change is focused on providing a more accurate state to existing issues, which should help you solve them more easily.”
De 4 zaken die Google aanpakt zijn de volgende:
Voor SEO-specialisten is dit interessant aangezien de bovenstaande aanpassingen meer inzicht geven in de manier waarop Google naar je website kijkt. Daarnaast kunnen deze issues makkelijker worden verholpen doordat het probleem meteen zichtbaar is.
Vooral de nieuwe issue “Geïndexeerd zonder content” geeft meer inzicht in of Google je pagina wel helemaal leest. Dit is wat Google zelf zegt over de nieuwe issue op de Search Console help page.
“This page appears in the Google index, but for some reason Google could not read the content. Possible reasons are that the page might be cloaked to Google or the page might be in a format that Google can’t index. This is not a case of robots.txt blocking.”
Kortom, je pagina kan dus een error bevatten wat geen robots.txt is wat Google tegenhoud de pagina te lezen. Dit kan bijvoorbeeld een lege pagina zijn die je per ongeluk hebt gepubliceerd, of een script wat Google niet kan lezen.