Technische SEO Checklist - 2023
In dit artikel gaan we in op de basis van technische SEO en welke onderdelen onder een technische SEO analyse vallen. Technische SEO, Content Optimalisatie en Linkbuiling vormen de drie pilaren van SEO. Enige basiskennis over de meer technische aspecten van SEO het verschil betekenen tussen een hoog scorende site en een site die helemaal niet scoort.
Technische SEO is niet eenvoudig, maar we zullen uitleggen op welke aspecten je moet letten bij het werken aan de technische basis van jouw website. Technische SEO zal bijdragen aan de organische zoekresultaten. We beginnen eerst bij wat Technische SEO is.
Wat is technische SEO?
Technische SEO is een onderdeel van zoekmachine optimalisatie en gaat over het verbeteren van de technische aspecten van een website om de ranking van de pagina’s in de zoekmachines te verhogen. Een website sneller, gemakkelijker te crawlen en begrijpelijker maken voor zoekmachines zijn een aantal pijlers van technische optimalisatie.
Technische SEO maakt deel uit van on-page SEO, dat zich richt op het verbeteren van elementen op jouw website om hogere rankings te krijgen. Het is het tegenovergestelde van off-page SEO, dat gaat over het genereren van exposure voor een website via andere kanalen.
Waarom moet je Technische SEO optimaliseren?
Google en andere zoekmachines willen hun gebruikers de best mogelijke resultaten voor hun zoekopdrachten presenteren. Daarom crawlen en beoordelen de robots van Google webpagina’s op een groot aantal factoren.
Sommige factoren zijn gebaseerd op de ervaring van de gebruiker, zoals hoe snel een pagina laadt. Andere factoren helpen de zoekmachinerobots te begrijpen waar jouw pagina’s over gaan. Dit is wat onder andere structured data doen.
Dus, door technische SEO aspecten te verbeteren, help je zoekmachines jouw site te crawlen en te begrijpen. Als je dit goed doet, kan je worden beloond met hogere rankings. Of zelfs met rijke resultaten!
Het werkt ook andersom: als je ernstige technische SEO fouten maakt op jouw site, kunnen die je duur komen te staan. Je bent niet de eerste zijn die zoekmachines volledig blokkeert van het crawlen van jouw site door per ongeluk een slash op de verkeerde plaats toe te voegen in jouw robots.txt-bestand.
Maar denk niet dat je je moet concentreren op de technische details van een website om zoekmachines een plezier te doen. Een website moet in de eerste plaats goed werken – snel, duidelijk en gebruiksvriendelijk zijn – voor jouw gebruikers.
Gelukkig valt het creëren van een sterke technische basis vaak samen met een betere ervaring voor zowel gebruikers als zoekmachines.
De techniek van een website is belangrijk, zodat crawlers jouw website eenvoudig kunnen lezen en indexeren. In de volgende alinea beschrijven we hoe crawlen werkt.
Hoe werkt crawlen?
Crawlen is het verkennen van websites door zoekmachinesoftware (bots) om de inhoud van sites te indexeren. Als een website niet goed gecrawld kan worden, heeft dit grote gevolgen voor de vindbaarheid van de site. Daarnaast zit er een limiet aan het crawlen, zoekmachines hebben geen onbeperkte capaciteit, dit heet het crawl budget.
Er zijn een paar manieren waarop je kan bepalen wat er op jouw website wordt gecrawld en dat de zoekmachines de juiste pagina’s vinden. Hier volgen een paar onderdelen.
Robots.txt
Een robots.txt bestand vertelt zoekmachines waar ze wel en niet mogen komen op jouw site.
Google kan pagina’s indexeren die het niet kan crawlen als er links naar die pagina’s verwijzen. Dit kan verwarrend zijn, maar als je wilt voorkomen dat pagina’s worden geïndexeerd.
Het is aan te raden om een robots.txt-bestand te hebben, maar het is een must als je wil voorkomen dat zoekmachines pagina’s of secties van je website crawlen en gaan we later dieper op in.
Crawl-snelheid
De term crawlsnelheid verwijst naar het aantal verzoeken per seconde dat een zoekmachine bot tijdens de crawlprocedure naar je site stuurt (bijvoorbeeld vijf verzoeken per seconde). Je kan instellen hoe vaak ze pagina’s kunnen crawlen. Helaas respecteert Google dit niet. Voor Google moet je de crawlsnelheid wijzigen in Google Search Console.
Linkstructuur
Een crawler moet zo makkelijk mogelijk over jouw website kunnen bewegen. Op jouw website beweegt een bot over de pagina’s door het volgen van links. Op basis van hoe makkelijk een bot over je website beweegt wordt er geïndexeerd. Om dit te optimaliseren is het verstandig een goede linkstructuur te maken.
Nu weet je wat technische SEO is, waarom het belangrijk is en hoe crawlen werkt. In de volgende alinea gaan we verder in op verschillende aspecten van technische SEO.
Wat zijn de aspecten van een technisch geoptimaliseerde website?
Een technisch goede website is snel voor gebruikers en gemakkelijk te crawlen voor zoekmachinerobots. Een goede technische website opzet helpt zoekmachines te begrijpen waar een site over gaat. Het voorkomt ook verwarring door bijvoorbeeld dubbele content (duplicate content).
Bovendien stuurt het bezoekers en zoekmachines niet naar doodlopende wegen (pagina’s) door niet-werkende links. Veel onderdelen van de onderstaande lijst zijn te vinden bij Core Web Vitals in Google Search Console, zoals een mobielvriendelijke website.
We gaan hier kort in op enkele belangrijke aspecten van een technisch geoptimaliseerde website.
1. De website is snel
Tegenwoordig moeten webpagina’s snel laden. Mensen zijn ongeduldig en willen niet wachten tot een pagina is geopend. In 2016 bleek al uit onderzoek dat 53% van de mobiele websitebezoekers afhaakt als een webpagina niet binnen drie seconden opent.
En de trend is niet verdwenen – onderzoek uit 2022 suggereert dat ecommerce conversiepercentages met ruwweg 0,3% dalen voor elke extra seconde die een pagina nodig heeft om te laden. Dus als jouw website traag is, raken mensen gefrustreerd en gaan ze naar een andere website, en loop je al dat verkeer mis.
Google weet dat trage webpagina’s een minder dan optimale ervaring bieden. Daarom geven ze de voorkeur aan webpagina’s die sneller laden. Een trage webpagina komt dus ook lager in de zoekresultaten terecht dan zijn snellere equivalent, met nog minder verkeer tot gevolg.
Sinds 2021 is paginabeleving (hoe snel mensen een webpagina ervaren) officieel een rankingfactor van Google geworden. Dus het hebben van pagina’s die snel genoeg laden is nu belangrijker dan ooit. Hierbij is het tevens belangrijk dat je een mobielvriendelijke website hebt.
Vraag je je af of jouw website snel genoeg is? Via Google Page Speed kan je eenvoudig de snelheid van jouw site testen. De meeste tests geven jou ook aanwijzingen over wat je kan verbeteren. Je kan ook een kijkje nemen bij de Core Web Vitals in Google Search Console.
Hier wordt de pagina-ervaring aangeven. DGTLbase kan jou altijd helpen met het verbeteren van je website snelheid. Wij geven graag SEO advies! Neem contact op!
2. De website is doorzoekbaar voor zoekmachines
Zoekmachines gebruiken robots om jouw website te doorzoeken. De robots volgen links om de inhoud van jouw site te ontdekken. Een goede interne linkstructuur zorgt ervoor dat ze begrijpen wat de belangrijkste inhoud op jouw site is.
Maar er zijn meer manieren om robots te sturen. Je kan ze bijvoorbeeld verhinderen bepaalde inhoud te crawlen als je niet wil dat ze daarheen gaan. Je kan ze ook een pagina laten crawlen, maar ze vertellen dat deze pagina niet in de zoekresultaten mag worden weergegeven of dat de links op die pagina niet mogen worden gevolgd.
Robots.txt bestand
Je kan robots aanwijzingen geven over jouw site door het bestand robots.txt te gebruiken. Het is een krachtig hulpmiddel, waarmee zorgvuldig moet worden omgegaan. Zoals we in het begin al zeiden, kan een kleine fout voorkomen dat robots (belangrijke delen van) jouw site crawlen.
Soms blokkeren mensen onbedoeld de CSS- en JS-bestanden van hun site in het robots.txt-bestand. Deze bestanden bevatten code die browsers vertelt hoe jouw site eruit moet zien en hoe hij werkt. Als die bestanden worden geblokkeerd, kunnen zoekmachines niet achterhalen of jouw site goed werkt.
Al met al raden wij jou aan om echt in robots.txt te duiken als je wil leren hoe het werkt. Of, misschien nog beter, laat DGTLbase het voor je doen!
De meta robots tag
De meta robots tag is een stukje code dat je als bezoeker niet op de pagina ziet. Het staat in de broncode van een pagina. Robots (bijvoorbeeld de Google Bot) lezen dit gedeelte wanneer ze een pagina vinden.
Daarin ontdekken ze informatie over wat ze op de pagina zullen vinden of wat ze ermee moeten doen. Er zijn verschillende soorten meta robots tags, zoals index, noindex, follow en nofollow.
Als je wil dat zoekmachinerobots een pagina crawlen, maar deze om een of andere reden uit de zoekresultaten houden, kan je dit aangeven met de robots meta-tag, dit is de noindex tag. Met de robots meta tag kun je ze ook opdragen een pagina te crawlen, maar de links op de pagina niet te volgen, een nofollow tag geeft dit aan.
Met plugins is het eenvoudig om een bericht of pagina te noindexeren of nofollowen. Hulp nodig? Wij helpen je graag! Neem contact met ons op!
3. De website heeft geen dode links
We hebben besproken dat trage websites frustrerend zijn. Wat misschien nog vervelender is voor bezoekers dan een trage pagina, is landen op een pagina die helemaal niet bestaat. Als een link naar een niet-bestaande pagina op jouw site leidt, komen mensen op een 404-foutpagina terecht. Daar gaat jouw zorgvuldig opgebouwde gebruikerservaring!
Bovendien vinden zoekmachines deze foutmeldingen ook niet leuk. En ze vinden nog meer dode links dan bezoekers tegenkomen, omdat ze elke link volgen die ze tegenkomen, zelfs als die verborgen is.
Helaas hebben de meeste sites (ten minste enkele) dode links, want een website is een voortdurend werk in uitvoering: mensen maken dingen en breken dingen. Gelukkig zijn er hulpmiddelen waarmee je dode links op jouw site kan terugvinden.
Om onnodige dode links te voorkomen, moet je de URL van een pagina altijd omleiden wanneer je deze verwijdert of verplaatst. Idealiter redirect je hem naar een pagina die de oude pagina vervangt. Dit kan je simpel doen met een plugin. Wij helpen je graag!
4. Jouw website verwart zoekmachines niet met duplicate content
Als je duplicate content op meerdere pagina’s van je site hebt – of zelfs op andere sites – kunnen zoekmachines in de war raken. Want als deze pagina’s dezelfde inhoud tonen, welke moeten ze dan als hoogste rangschikken? Het gevolg kan zijn dat ze alle dubbele pagina’s met dezelfde inhoud de ranking negatief beïnvloeden.
Helaas kun je problemen hebben met duplicate content zonder dat je het weet. Om technische redenen kunnen verschillende URL’s dezelfde inhoud tonen. Voor een bezoeker maakt dat geen verschil, maar voor een zoekmachine wel: die ziet dezelfde inhoud op een andere URL.
Gelukkig is er een technische oplossing voor dit probleem. Met het zogenaamde canonical link element kun je aangeven wat de oorspronkelijke pagina – of de pagina die je graag in de zoekmachines wilt laten ranken – is. In WordPress plugins (RankMath of Yoast) kan je eenvoudig een canonieke URL voor een pagina instellen. En, om het je gemakkelijk te maken, voeg WordPress plugins zelfverwijzende canonieke links toe aan al je pagina’s. Dit helpt duplicate content problemen te voorkomen waar je je misschien niet eens bewust van bent.
5. De website is veilig
Een technisch geoptimaliseerde website is een veilige website. Je website veilig maken voor gebruikers om hun privacy te garanderen is tegenwoordig een basisvereiste. Er zijn veel dingen die je kan doen om je (WordPress) website veilig te maken, en een van de meest cruciale dingen is het implementeren van HTTPS met een SSL-certificaat. Bezoekers moeten veilig browsen!
HTTPS zorgt ervoor dat niemand de gegevens kan onderscheppen die tussen de browser en de site worden verzonden. Dus als mensen bijvoorbeeld inloggen op jouw site, zijn hun gegevens veilig. Om HTTPS op jouw site te implementeren heb je een zogenaamd SSL-certificaat nodig. Google erkent het belang van veiligheid en heeft HTTPS daarom tot een ranking-signaal gemaakt: veilige websites scoren hoger dan onveilige equivalenten.
Je kan in de meeste browsers eenvoudig controleren of jouw website HTTPS is. Links in de zoekbalk van je browser zie je een slotje als het veilig is. Als je de woorden “niet veilig” ziet staan heb je (of je ontwikkelaar) nog wat werk te doen!
6. Pluspunt: De website heeft structured data
Structured data helpen zoekmachines jouw website, inhoud of zelfs jouw bedrijf beter te begrijpen. Met structured data kan je zoekmachines vertellen wat voor product of dienst jij verkoopt, of welke recepten je op jouw site hebt staan. Bovendien kan je dan allerlei details over die producten of recepten geven.
Er is een vast formaat waarin je deze informatie moet verstrekken, zodat zoekmachines het gemakkelijk kunnen vinden en begrijpen. Het helpt hen jouw inhoud in een groter geheel te plaatsen.
Het implementeren van structured data kan je meer opleveren dan alleen een beter begrip door zoekmachines. Het zorgt er ook voor dat je content in aanmerking komt voor rich results; die glimmende resultaten met sterren of details die opvallen in de zoekresultaten, vaak bovenaan in de zoekresultaten.
7. Pluspunt: De website heeft een XML-sitemap
Simpel gezegd is een XML-sitemap een lijst van alle pagina’s van jouw site. Het dient als een routekaart voor zoekmachines op jouw site. Hiermee zorg je ervoor dat zoekmachines geen belangrijke inhoud op jouw site missen. De XML-sitemap is vaak ingedeeld in berichten, pagina’s, tags of andere aangepaste posttypes, en bevat voor elke pagina het aantal afbeeldingen en de laatst gewijzigde datum.
Idealiter heeft een website geen XML-sitemap nodig. Als hij een interne linkstructuur heeft die alle inhoud netjes met elkaar verbindt, hebben robots het niet nodig. Maar niet alle sites hebben een goede structuur, en een XML sitemap kan dan geen kwaad. We raden dus altijd aan om een XML sitemap op je site te hebben.
8. Plus: Internationale websites gebruiken hreflang
Als jouw site gericht is op meer dan één land of op meerdere landen waar dezelfde taal wordt gesproken, hebben zoekmachines een beetje hulp nodig om te begrijpen welke landen of talen je probeert te bereiken (meertalige website). Als je hen helpt, kunnen ze mensen de juiste website voor hun gebied tonen in de zoekresultaten.
Hreflang-tags helpen je daarbij, een technische term. Je kan ze gebruiken om aan te geven voor welk land en welke taal elke pagina bedoeld is. Dit lost ook een mogelijk probleem met duplicate content op: zelfs als jouw Amerikaanse en Britse sites dezelfde inhoud tonen, weet Google dat ze voor verschillende regio’s zijn geschreven.
Het optimaliseren van internationale websites is een vak apart. Wij helpen je daar graag bij!
Overige belangrijke onderdelen van Technische SEO
Canonical tag
Een canonical tag (rel=”canonical”) is een stukje HTML-code dat de hoofdversie definieert voor dubbele, bijna-dubbele en soortgelijke pagina’s. Met andere woorden, als je dezelfde of soortgelijke inhoud beschikbaar hebt onder verschillende URL’s, kan je canonical tags gebruiken om aan te geven welke versie/pagina de belangrijkste is en dus moet worden geïndexeerd.
Hoe ziet een canonical tag eruit?
Canonical tags zien er als volgt uit en worden geplaatst in de <head>-sectie van een webpagina:
<link rel=”canonical” href=”https://dgtlbase.com/nl/seo-advies-amsterdam//”/>
Hier volgt wat elk deel van die code in gewoon Nederlands betekent:
link rel=”canonical”: De link in deze tag is de master (canonieke) versie van deze pagina.
href=”https://dgtlbase.com/nl/seo-advies-amsterdam//”: De canonieke pagina is te vinden op deze URL.
Waarom zijn canonical tags belangrijk voor SEO?
Google houdt niet van duplicate content. Het maakt het moeilijker voor hen om te kiezen:
- Welke versie van een pagina te indexeren (ze indexeren er maar één!)
- Welke versie van een pagina te rangschikken voor relevante zoekopdrachten.
- Of ze “link equity” op één pagina moeten consolideren, of verdelen over meerdere versies.
Te veel dubbele inhoud kan ook gevolgen hebben voor jouw crawl budget. Dat betekent dat Google uiteindelijk tijd kan verspillen aan het crawlen van meerdere versies van dezelfde pagina in plaats van het ontdekken van andere belangrijke inhoud op jouw website.
Website migratie
Tot slot, een website migratie. Wat is een website migratie? In dit artikel leggen wij het uit.
Bij het migreren van een website komt veel kijken. Er zijn verschillende redenen om een website migratie te doen. Daarnaast is het secuur werk en kan problemen veroorzaken. Problemen waarmee je te maken kan krijgen variëren van het verliezen van je rankings in zoekmachines tot het volledig verliezen van delen van jouw website. Voer dus niet zomaar een website migratie uit.
Wat is website migratie?
Website migratie is het proces van het maken van grote veranderingen aan de technologie, structuur, ontwerp of locatie van een website om een betere online zichtbaarheid te krijgen.
Een website migratie houdt serieuze veranderingen in. Het is een uitdagend proces, en je moet een echt goede reden hebben om het aan te nemen (we denken dat je er een hebt, aangezien je tot hier gelezen hebt). Enkele van de meest voorkomende redenen om een website te migreren zijn:
- Het veranderen van de structuur, de navigatie of het ontwerp van uw site: Voor als uw oude ontwerp een opfrisbeurt nodig heeft. Of misschien schrikken de structuur en navigatie van uw site crawlers af.
- Overstappen naar een nieuw framework of CMS: je dit kunnen doen als je de prestaties, veiligheid of zelfs functionaliteit van uw site wilt verbeteren.
- Een mobiele versie toevoegen: Een mobiele versie van uw site is belangrijk voor iedereen die een tablet of mobiele telefoon bezoekt.
- Overschakelen van HTTP naar HTTPS: Niemand wil een site bezoeken nadat een enge pop-up hem vertelt dat het niet veilig is om te surfen. Overschakelen van HTTP naar HTTPS helpt uw site te beveiligen door de informatie van bezoekers te versleutelen en enge meldingen af te weren.
- Overschakelen naar een nieuwe server: Overschakelen naar een nieuwe host kan uw site in het algemeen sneller maken, vooral als hij groeit. Een snelle site ziet er goed uit voor bezoekers en zoekmachines.
- Jouw domeinnaam veranderen: Misschien verander je jouw domeinnaam als onderdeel van een rebranding. Bij het veranderen van jouw domeinnaam is een website migratie noodzakelijk.
Een website migratie is meer dan een onderdeel van SEO. Het is noodzakelijk om alle betrokken marketeers in te schakelen en met hen duidelijk de planning af te stemmen.
Heb je hulp nodig bij een website migratie of wil je SEO advies? We hebben veel ervaring en begeleiden je graag! Neem vrijblijvend contact voor ons op!
Bij DGTLbase zijn wij gespecialiseerd in zoekmachine optimalisatie (SEO) en adverteren in Google. Daarnaast hebben wij ook veel ervaring met Digital Analytics, het instellen van Google Analytics 4, Google Tag Manager en Marketing Dashboards.