
Een sitemap is een bestand, meestal in XML-formaat, dat Google vertelt welke pagina's op je site bestaan en hoe ze zich tot elkaar verhouden. Google crawlt het web via links, maar een XML sitemap geeft zoekmachines een directe routekaart. Dat is vooral waardevol als je site groot is, veel nieuwe content publiceert of pagina's heeft die weinig interne links ontvangen. Zonder sitemap kan Google die pagina's simpelweg missen, wat betekent dat ze nooit in zoekresultaten verschijnen. Dat wil je niet.
De vraag die veel mensen stellen is: hoe optimaliseer je een sitemap.xml? Het begint bij wat je erin opneemt. Voeg alleen canonieke, indexeerbare pagina's toe. Pagina's met een noindex-tag, duplicaten of lege categoriepagina's horen niet thuis in je sitemap. Houd ook je lastmod-datums actueel. Google gebruikt die informatie om in te schatten hoe vaak een pagina opnieuw gecrawld moet worden. Een sitemap met verouderde datums of foute URLs is erger dan geen sitemap, want het verspilt je crawl budget en ondermijnt het vertrouwen van de crawler in je site.
Een sitemap aanmaken is stap één. Hem indienen bij Google Search Console is stap twee, en die slaan veel mensen over. Via Google Search Console geef je Google rechtstreeks door waar je sitemap staat. Dat versnelt de ontdekking van nieuwe en gewijzigde pagina's aanzienlijk. Je vindt de optie onder Sitemaps in het linkermenu van Search Console. Plak daar je sitemap-URL, doorgaans iets als jouwedomein.nl/sitemap.xml, en dien hem in. Search Console geeft je daarna feedback: hoeveel pagina's zijn ontdekt, hoeveel zijn geïndexeerd en waar zitten eventuele fouten.
Voor WordPress-sites regelen plugins zoals Yoast of Rank Math dit proces grotendeels automatisch. Ze genereren een XML sitemap en houden die actueel bij elke wijziging op je site. Maar automatisch betekent niet probleemloos. Controleer regelmatig in Google Search Console of het aantal geïndexeerde pagina's overeenkomt met wat je verwacht. Een groot verschil tussen ontdekte en geïndexeerde pagina's is een signaal dat er iets mis is, met je sitemap, je interne linkstructuur of de kwaliteit van je content.
Crawl budget is de hoeveelheid tijd en resources die Google bereid is te besteden aan het crawlen van je site. Voor kleine sites speelt dit nauwelijks een rol, maar zodra je site groeit naar duizenden pagina's wordt crawl budget optimalisatie een serieus strategisch vraagstuk. Je sitemap en je robots.txt-bestand werken hierin samen. Robots.txt vertelt Google welke delen van je site niet gecrawld mogen worden. Als je daar categorieën, zoekresultaatpagina's of interne zoekpaden blokkeert, houd je het crawl budget beschikbaar voor de pagina's die er echt toe doen. Zorg dat je robots.txt nooit pagina's blokkeert die wél in je sitemap staan, dat is een klassieke fout die crawlers in de war brengt.
Log file analyse is de meest onderschatte manier om je crawl budget inzichtelijk te maken. Door de serverlogbestanden van je site te analyseren zie je exact welke pagina's Googlebot bezoekt, hoe vaak en wanneer. Dat geeft je feitelijke data over hoe Google je site ervaart, in plaats van aannames. Als Googlebot veel tijd besteedt aan irrelevante pagina's terwijl belangrijke pagina's zelden worden gecrawld, is dat het moment om je sitemap te herzien en robots.txt aan te scherpen. Dit soort technisch inzicht is onderdeel van wat wij verstaan onder technische SEO. Een grondige SEO-check brengt dit soort problemen snel boven water.

Een sitemap instellen is één ding. Hem goed instellen, afstemmen op je robots.txt en bewaken via Google Search Console is een ander verhaal. Zeker als je site ooit is verhuisd of je een domein hebt gemigreerd, loopt er in de meeste gevallen iets mis met de sitemap. Pagina's die er niet meer in horen staan er nog wel, of nieuwe pagina's zijn nooit toegevoegd. Bij een SEO-migratie of website-migratie is de sitemap een van de eerste dingen die we controleren, omdat fouten daar direct doorwerken in je indexatie.
Als je niet zeker weet of Google de juiste pagina's van je site crawlt en indexeert, is dat al reden genoeg om het grondig te laten nakijken. Wij kijken verder dan de sitemap alleen en geven je een helder beeld van wat er technisch speelt op je site. Geen wollig rapport, maar concrete bevindingen en een duidelijk plan.
Wil je weten hoe je site er technisch voor staat? Vraag een gratis analyse aan. We duiken in je sitemap, je crawl data en je indexatiestatus en laten je zien wat er beter kan. Zonder verkooppraatje, gewoon vakwerk. Lees ook de technische SEO tips die we eerder deelden voor een breder beeld van wat technische optimalisatie inhoudt.
Wij werken met bedrijven die serieus zijn over hun vindbaarheid. Geen standaard oplossingen, geen copy-paste advies. Als iets niet klopt op je site, zeggen we dat gewoon. En dan lossen we het op.
Envoker
Albert Plesmanweg 1H
4462 GC
Goes
+31 113405700
[email protected]