On-page SEO, off-page SEO, en technische SEO kan worden gezien als drie pijlers van organische zoekmachine optimalisatie.
Technical SEO vs. on-page SEO vs. off-page SEO
Uit de drie, wordt technische SEO het vaakst genegeerd, waarschijnlijk omdat het het lastigst is om onder de knie te krijgen. Echter, met de concurrentie in de zoekresultaten nu, ons marketeers niet kunnen veroorloven om uit de weg van de uitdagingen van technische SEO-having een site die is crawlbaar, snel en veilig is nog nooit zo essentieel geweest om ervoor te zorgen dat uw site goed presteert en goed scoort in zoekmachines.
Omdat technische SEO is zo’n groot onderwerp (en groeiende), zal dit stuk niet alles wat nodig is voor een volledige technische SEO audit te dekken. Het zal echter ingaan op zes fundamentele aspecten van technische SEO waar je naar zou moeten kijken om de prestaties van je website te verbeteren en deze effectief en gezond te houden. Zodra u deze zes bases hebt gedekt, kunt u verder gaan met meer geavanceerde technische SEO-strategieën. Maar eerst…
Een technische SEO definitie
Wat is technische SEO? Technische SEO omvat optimalisaties die uw site efficiënter maken om te crawlen en te indexeren, zodat Google de juiste inhoud van uw site op het juiste moment aan gebruikers kan leveren. Site architectuur, URL structuur, de manier waarop uw site is gebouwd en gecodeerd, redirects, uw sitemap, uw Robots.txt bestand, levering van afbeeldingen, site fouten, en vele andere factoren kunnen invloed hebben op uw technische SEO gezondheid.
Vandaag bekijken we de eerste zes dingen die u moet controleren voor een snelle technische SEO-audit.
Zorg ervoor dat uw site crawlbaar is
Het heeft geen zin om pagina’s met geweldige inhoud te schrijven als zoekmachines deze pagina’s niet kunnen crawlen en indexeren. Daarom moet u eerst uw robots.txt-bestand controleren. Dit bestand is het eerste aanknopingspunt voor webcrawling-software wanneer deze op uw site terechtkomt. In uw robots.txt-bestand wordt aangegeven welke delen van uw website wel en niet mogen worden gecrawld. Het doet dit door het gedrag van bepaalde gebruikersagenten “toe te staan” of “niet toe te staan”. Het robots.txt-bestand is openbaar toegankelijk en kan worden gevonden door /robots.txt toe te voegen aan het einde van een hoofddomein. Hier is een voorbeeld voor de Hallam site.
We kunnen zien dat Hallam verzoekt om URL’s die beginnen met /wp-admin (het backend van de website) niet te laten crawlen. Door aan te geven waar je deze user agents niet moet toelaten, bespaar je bandbreedte, server resources, en je crawl budget. Je wilt ook niet dat zoekmachine bots belangrijke delen van je website niet kunnen crawlen door ze per ongeluk “niet toe te staan”. Omdat het het eerste bestand is dat een bot ziet wanneer hij je site crawlt, is het ook best practice om naar je sitemap te verwijzen.
U kunt uw robots.txt-bestand bewerken en testen in de oude Google Search Console.
Hier kunt u elke URL op de site invoeren om te controleren of deze crawlbaar is en of er fouten of waarschuwingen in uw robots.txt-bestand staan.
Hoewel Google er relatief goed in is geslaagd om de belangrijkste aspecten van de oude tool over te zetten naar de nieuwe Google Search Console, biedt de nieuwe versie voor veel digitale marketeers nog steeds minder functionaliteit dan de oude versie. Dit is vooral relevant als het gaat om technische SEO. Op het moment van schrijven is het crawl-statistiekengebied op de oude zoekconsole nog steeds te bekijken en is het van fundamenteel belang om te begrijpen hoe je site wordt gecrawld.
Dit rapport toont drie hoofdgrafieken met gegevens van de laatste 90 dagen. Pagina’s gecrawld per dag, kilobytes gedownload per dag, en de tijd besteed aan het downloaden van een pagina (in milliseconden) geven allemaal een samenvatting van de crawl snelheid van uw website en de relatie met zoekmachine bots. U wilt dat uw website bijna altijd een hoge crawl rate heeft; dit betekent dat uw website regelmatig wordt bezocht door zoekmachine bots en duidt op een snelle en makkelijk te crawlen website. Consistentie is het gewenste resultaat van deze grafieken – grote schommelingen kunnen wijzen op kapotte HTML, verouderde inhoud of uw robots.txt-bestand dat te veel blokkeert op uw website. Als de tijd die wordt besteed aan het downloaden van een pagina zeer hoge getallen bevat, betekent dit dat Googlebot te lang bezig is met het crawlen en langzamer indexeren van uw website.
U kunt crawlfouten zien in het dekkingsrapport in de nieuwe zoekconsole.
Doorklikken naar deze geeft specifieke pagina’s met crawlproblemen. U moet er zeker van zijn dat deze pagina’s niet belangrijk zijn voor uw website en het probleem zo snel mogelijk aanpakken.
Als u significante crawlfouten of schommelingen in de crawlstatistieken of dekkingsrapporten vindt, kunt u dit verder onderzoeken door een logbestandanalyse uit te voeren. Toegang tot de ruwe gegevens van uw serverlogboeken kan een beetje een pijn zijn, en de analyse is zeer geavanceerd, maar het kan u helpen precies te begrijpen welke pagina’s wel en niet kunnen worden gecrawld, welke pagina’s prioriteit hebben, gebieden van crawlbudgetverspilling, en de serverreacties die bots tegenkomen tijdens hun crawl van uw website.
2. Controleer of uw site indexeerbaar is
Nu we hebben geanalyseerd of Googlebot onze website daadwerkelijk kan crawlen, moeten we begrijpen of de pagina’s op onze site worden geïndexeerd. Er zijn vele manieren om dit te doen. Als we terugduiken in het dekkingsrapport van Google Search Console, kunnen we kijken naar de status van elke pagina van de website.
In dit rapport kunnen we zien:
- Errors: Redirect errors, 404s.
- Geldig met waarschuwingen: Pagina’s die zijn geïndexeerd maar met waarschuwingen eraan verbonden
- Valid: Pagina’s die succesvol zijn geïndexeerd.
- Uitgesloten: Pagina’s die zijn uitgesloten van indexering en de redenen daarvoor, zoals pagina’s met redirects of geblokkeerd door de robots.txt.
U kunt ook specifieke URL’s analyseren met behulp van de URL inspectie tool. Misschien wilt u controleren of een nieuwe pagina die u hebt toegevoegd wordt geïndexeerd of een probleem oplossen als er een daling is in het verkeer naar een van uw belangrijkste pagina’s.
Een andere goede manier om de indexeerbaarheid van uw website te controleren is het uitvoeren van een crawl. Een van de meest krachtige en veelzijdige crawling software is Screaming Frog. Afhankelijk van de grootte van uw website, kunt u gebruik maken van de gratis versie met een crawl limiet van 500 URL’s, en meer beperkte mogelijkheden; of de betaalde versie die £ 149 per jaar kost met geen crawl limiet, meer functionaliteit en API’s beschikbaar.
Als de crawl is uitgevoerd, ziet u twee kolommen met betrekking tot de indexering.
Indexeerbaarheid: Hier wordt aangegeven of de URL “Indexeerbaar” of “Niet-Indexeerbaar” is.
Indexeerbaarheidsstatus: Dit geeft de reden aan waarom een URL niet indexeerbaar is. Bijvoorbeeld, als het is gecanonicaliseerd naar een andere URL of een no-index tag heeft.
Deze tool is een geweldige manier van bulk controle van uw site om te begrijpen welke pagina’s worden geïndexeerd en zal daarom verschijnen in de zoekresultaten en welke zijn niet-indexeerbare. Sorteer de kolommen en zoek naar anomalieën; het gebruik van de Google Analytics API is een goede manier om belangrijke pagina’s te identificeren waarvan u de indexeerbaarheid kunt controleren.
Finitief, de gemakkelijkste manier om te controleren hoeveel van uw pagina’s zijn geïndexeerd is met behulp van de site:domein Google Search parameter. Voer in de zoekbalk site:yourdomain in en druk op enter. De zoekresultaten tonen u elke pagina op uw website die door Google is geïndexeerd. Hier is een voorbeeld:
Hier zien we dat boots.com ongeveer 95.000 geïndexeerde URL’s heeft. Het gebruik van deze functie kan u een goed inzicht geven in het aantal pagina’s dat Google momenteel opslaat. Als je een groot verschil ziet tussen het aantal pagina’s dat je denkt te hebben en het aantal pagina’s dat geïndexeerd wordt, dan is het de moeite waard om dit verder te onderzoeken.
- Wordt de HTTP-versie van uw site nog steeds geïndexeerd?
- Heeft u dubbele pagina’s geïndexeerd die gecanonicaliseerd zouden moeten worden?
- Worden grote delen van uw website niet geïndexeerd die dat wel zouden moeten?
Met behulp van deze drie technieken kunt u een goed beeld krijgen van hoe uw site door Google wordt geïndexeerd en dienovereenkomstig wijzigingen aanbrengen.
Bekijk uw sitemap
Het belang van een uitgebreide en gestructureerde sitemap kan niet worden onderschat als het gaat om SEO. Uw XML sitemap is een kaart van uw website voor Google en andere zoekmachine crawlers. In wezen helpt het deze crawlers bij het vinden en rangschikken van uw websitepagina’s.
Er zijn een aantal belangrijke elementen te overwegen als het gaat om een effectieve sitemap:
- Uw sitemap moet goed worden geformatteerd in een XML-document.
- Het moet XML sitemap protocol volgen.
- Neem alleen canonieke versies van URL’s op.
- Neem geen “noindex” URL’s op.
- Neem alle nieuwe pagina’s op wanneer u ze bijwerkt of maakt.
Als u de Yoast SEO plugin gebruikt, kan deze een XML sitemap voor u maken. Als u Screaming Frog gebruikt, hun sitemap analyse is zeer gedetailleerd. Je kunt de URL’s in je sitemap zien, ontbrekende URL’s en verweesde URL’s.
Zorg ervoor dat je sitemap je belangrijkste pagina’s bevat, geen pagina’s bevat waarvan je niet wilt dat Google ze indexeert, en correct is gestructureerd. Als je dit allemaal hebt gedaan, moet je je sitemap opnieuw indienen bij je Google Search Console.
Zorg ervoor dat uw website mobielvriendelijk is
Vorig jaar kondigde Google de uitrol van mobile-first indexing aan. Dit betekende dat in plaats van het gebruik van de desktop versies van de pagina voor ranking en indexering, zouden ze gebruik maken van de mobiele versie van uw pagina. Dit maakt allemaal deel uit van het bijhouden van de manier waarop gebruikers omgaan met online content. 52% van het wereldwijde internetverkeer komt nu van mobiele apparaten, dus ervoor zorgen dat uw website mobielvriendelijk is, is belangrijker dan ooit.
Google’s mobiel-vriendelijke test is een gratis tool die u kunt gebruiken om te controleren of uw pagina mobiel-vriendelijk is en gemakkelijk te gebruiken. Voer uw domein in, en het zal u laten zien hoe de pagina wordt weergegeven voor mobiel en aangeven of het mobiel-vriendelijk is.
Het is belangrijk om uw website ook handmatig te controleren. Gebruik uw eigen telefoon en navigeer over uw site, spot eventuele fouten langs de belangrijkste conversiepaden van uw site. Controleer of alle contactformulieren, telefoonnummers en servicepagina’s correct functioneren. Als je op desktop, klik met de rechtermuisknop en inspecteer de pagina.
Als u niet uw website gebouwd om compatibel te zijn op mobiele, dan moet je dit onmiddellijk aan te pakken. Veel van uw concurrenten zullen hier al over nagedacht hebben en hoe langer u dit laat liggen, hoe verder u achterop raakt. Loop geen verkeer en potentiële conversies mis door het nog langer te laten liggen.
Bekijk paginasnelheid
Paginasnelheid is nu een rankingfactor. Het hebben van een site die snel, responsive en gebruiksvriendelijk is, is de naam van het spel voor Google in 2019.
Je kunt de snelheid van je site beoordelen met een hele reeks tools. Ik zal hier enkele van de belangrijkste behandelen en enkele aanbevelingen opnemen.
Google PageSpeed Insights
Google PageSpeed Insights is een ander krachtig en gratis hulpmiddel van Google. Het geeft u een score van “Snel,” “Gemiddeld,” of “Traag” op zowel mobiel als desktop, en het bevat aanbevelingen voor het verbeteren van uw paginasnelheid.
Test uw homepage en kernpagina’s om te zien waar uw website tekortschiet en wat u kunt doen om de snelheid van uw site te verbeteren.
Het is belangrijk om te begrijpen dat wanneer digitale marketeers het hebben over paginasnelheid, we niet alleen verwijzen naar hoe snel de pagina laadt voor een persoon, maar ook hoe gemakkelijk en snel het is voor zoekmachines om te crawlen. Dit is waarom het de beste praktijk is om uw CSS en Javascript bestanden te minificeren en te bundelen. Vertrouw niet alleen op het controleren hoe de pagina er met het blote oog uitziet, maar gebruik online tools om volledig te analyseren hoe de pagina laadt voor mensen en zoekmachines.
Google heeft nog een gratis tool voor site snelheid die zich met name richt op mobiele telefoons, waarmee nog eens benadrukt wordt hoe belangrijk mobiele site snelheid is voor Google. Test Mijn Site van Google biedt u een diepgaande analyse van hoe uw website voor mobiel, met inbegrip van:
Hoe snel uw site is op een 3G-en 4G-verbinding
Het zal uw snelheid in seconden, rating, en of het vertragen of versnellen op te nemen.
Custom fixes voor individuele pagina’s
Mogelijkheid om uw site snelheid te benchmarken tegen maximaal 10 concurrenten
Het allerbelangrijkste is, hoe uw omzet wordt beïnvloed door site snelheid
Dit is van vitaal belang als u een ecommerce site bezit, omdat het laat zien hoeveel potentiële omzet u misloopt door slechte mobiele site snelheid en de positieve impact die kleine verbeteringen kunnen hebben op uw bottom line.
Gemakelijk, het kan allemaal worden samengevat in uw gratis, eenvoudig te begrijpen rapport.
Google Analytics
U kunt Google Analytics ook gebruiken om gedetailleerde diagnostiek te zien van hoe u uw sitesnelheid kunt verbeteren. De site snelheid gebied in Analytics, te vinden in Gedrag > Site Snelheid, is vol met nuttige gegevens, met inbegrip van hoe specifieke pagina’s presteren in verschillende browsers en landen. U kunt dit controleren aan de hand van uw bekeken pagina’s om er zeker van te zijn dat u uw belangrijkste pagina’s prioriteit geeft.
De laadsnelheid van uw pagina is afhankelijk van veel verschillende factoren. Maar er zijn enkele veelvoorkomende oplossingen waar u naar kunt kijken als u uw onderzoek hebt gedaan, waaronder:
- Optimaliseren van uw afbeeldingen
- Opgeblazen javascript verhelpen
- Verzoeken van de server verminderen
- Zorgen voor effectieve caching
- Kijk naar uw server, hij moet snel zijn
- Overweeg het gebruik van een Content Delivery Network (CDN)
Content duplicate review
Tot slot is het tijd om te kijken naar de duplicate content van uw website. Zoals de meeste mensen in digitale marketing weten, is duplicate content een grote no-no voor SEO. Hoewel Google niet wordt gestraft voor duplicate content, houdt Google niet van meerdere kopieën van dezelfde informatie. Ze hebben weinig nut voor de gebruiker en Google heeft moeite om te begrijpen welke pagina moet worden gerangschikt in de SERP – wat uiteindelijk betekent dat de kans groter is dat een van de pagina’s van uw concurrent wordt gerangschikt.
Er is een snelle controle die u kunt doen met behulp van Google zoekparameters. Voer “info:www.your-domain-name.com”
Ga naar de laatste pagina van de zoekresultaten, als je dubbele inhoud hebt, kun je de volgende boodschap zien:
Als je dubbele inhoud hier ziet, is het de moeite waard om een crawl uit te voeren met Screaming Frog. U kunt dan sorteren op paginatitel om te zien of er dubbele pagina’s op uw site staan.
Get uw technische SEO gezond
Dit zijn echt de basisprincipes van technische SEO, elke digitale marketeer die zijn zout waard is, zal deze basisprincipes hebben werken voor elke website die ze beheren. Wat echt fascinerend is, is hoeveel dieper je kunt gaan in technische SEO: Het lijkt misschien ontmoedigend, maar hopelijk als je eenmaal je eerste audit hebt gedaan, zul je graag willen zien welke andere verbeteringen je kunt aanbrengen op je website. Deze zes stappen zijn een goed begin voor elke digitale marketeer die er zeker van wil zijn dat zijn website effectief werkt voor zoekmachines. Het belangrijkste is dat ze allemaal gratis zijn, dus ga aan de slag!
Over de auteur
Elliot Haines is een owned media consultant bij Hallam. Elliot heeft ervaring in het creëren en uitvoeren van SEO en Digital PR-strategieën voor zowel B2B- als B2C-klanten, met resultaten in een reeks van industrieën, waaronder financiën, horeca, reizen en de energiesector.