Onsida SEO, off-page SEO och teknisk SEO kan ses som tre pelare i organisk sökmotoroptimering.
Teknisk SEO vs on-page SEO vs off-page SEO
Om de tre är teknisk SEO oftast ignorerad, troligen för att den är svårast att bemästra. Men med den konkurrens som råder i sökresultaten nu har vi marknadsförare inte råd att skygga för utmaningarna med teknisk SEO – att ha en webbplats som är krypningsbar, snabb och säker har aldrig varit viktigare för att se till att din webbplats presterar bra och rankas väl i sökmotorerna.
Om tekniska SEO är ett så omfattande ämne (och växer) kommer den här artikeln inte att täcka allt som krävs för en fullständig teknisk SEO-granskning. Den kommer dock att ta upp sex grundläggande aspekter av teknisk SEO som du bör titta på för att förbättra din webbplats prestanda och hålla den effektiv och sund. När du har fått dessa sex grunder täckta kan du gå vidare till mer avancerade tekniska SEO-strategier. Men först…
- En teknisk SEO-definition
- Säkerställ att din webbplats är krypningsbar
- 2. Kontrollera att din webbplats är indexerbar
- Se över din webbplatskarta
- Säkerställ att din webbplats är mobilanpassad
- Att granska sidans hastighet
- Google PageSpeed Insights
- Google Analytics
- Granskning av duplicerat innehåll
- Get your technical SEO healthy
En teknisk SEO-definition
Vad är teknisk SEO? Teknisk SEO innebär optimeringar som gör din webbplats effektivare att crawla och indexera så att Google kan leverera rätt innehåll från din webbplats till användarna vid rätt tidpunkt. Webbplatsarkitektur, URL-struktur, hur din webbplats är uppbyggd och kodad, omdirigeringar, din sitemap, din Robots.txt-fil, bildleverans, webbplatsfel och många andra faktorer kan påverka din tekniska SEO-hälsa.
I dag går vi igenom de sex första sakerna som du bör kontrollera vid en snabb teknisk SEO-granskning.
Säkerställ att din webbplats är krypningsbar
Det är ingen idé att skriva sidor med bra innehåll om sökmotorerna inte kan krypa och indexera dessa sidor. Därför bör du börja med att kontrollera din robots.txt-fil. Den här filen är den första punkten för alla programvaror för webbkrypning när de kommer till din webbplats. I din robots.txt-fil anges vilka delar av din webbplats som ska och inte ska kryssas. Det gör den genom att ”tillåta” eller ”förbjuda” beteendet hos vissa användaragenter. Robots.txt-filen är allmänt tillgänglig och kan hittas genom att lägga till /robots.txt i slutet av en rotdomän. Här är ett exempel för webbplatsen Hallam.
Vi kan se att Hallam begär att alla webbadresser som börjar med /wp-admin (webbplatsens baksida) inte ska crawlas. Genom att ange var du inte vill tillåta dessa användaragenter sparar du bandbredd, serverresurser och din crawlbudget. Du vill inte heller att du ska ha hindrat sökmotorrobotar från att crawla viktiga delar av din webbplats genom att av misstag ”förbjuda” dem. Eftersom det är den första filen som en bot ser när den kryssar din webbplats är det också bäst att peka på din webbplatskarta.
Du kan redigera och testa din robots.txt-fil i den gamla Google Search Console.
Här kan du mata in vilken URL som helst på webbplatsen för att kontrollera om den går att crawla eller om det finns några fel eller varningar i din robots.txt-fil.
Och även om Google har gjort ett relativt bra jobb med att överföra de viktigaste aspekterna av det gamla verktyget till den nya Google Search Console, erbjuder den nya versionen för många digitala marknadsförare fortfarande mindre funktionalitet än den gamla. Detta är särskilt relevant när det gäller teknisk SEO. I skrivande stund kan området för crawlstatistik i den gamla sökkonsolen fortfarande visas och är grundläggande för att förstå hur din webbplats crawlas.
Denna rapport visar tre huvuddiagram med data från de senaste 90 dagarna. Sidor som kryssas per dag, kilobyte som laddas ner per dag och tid som går åt till att ladda ner en sida (i millisekunder) sammanfattar din webbplats kryssningshastighet och förhållandet med sökmotorrobotar. Du vill att din webbplats nästan alltid ska ha en hög crawlfrekvens; det betyder att din webbplats besöks regelbundet av sökmotorbotar och tyder på att det är en snabb och lättcrawlad webbplats. Konsekvens är det önskade resultatet av dessa grafer – alla större fluktuationer kan tyda på trasig HTML, föråldrat innehåll eller att din robots.txt-fil blockerar för mycket på din webbplats. Om din tidsåtgång för nedladdning av en sida innehåller mycket höga siffror betyder det att Googlebot spenderar för mycket tid på din webbplats för att kryssa och indexera den långsammare.
Du kan se crawlfel i täckningsrapporten i den nya sökkonsolen.
Klickar du dig vidare till dessa ger det en markering av specifika sidor med crawlproblem. Du vill försäkra dig om att dessa sidor inte är några viktiga sidor för din webbplats och åtgärda problemet som orsakar det så snart som möjligt.
Om du hittar betydande crawlfel eller fluktuationer i antingen crawlstatistiken eller täckningsrapporterna kan du undersöka saken närmare genom att utföra en analys av loggfilen. Det kan vara lite besvärligt att få tillgång till rådata från dina serverloggar och analysen är mycket avancerad, men den kan hjälpa dig att förstå exakt vilka sidor som kan och inte kan kryssas, vilka sidor som prioriteras, områden med slöseri med kryssningsbudgeten och de serverresponser som robotar stöter på under sin kryssning av din webbplats.
2. Kontrollera att din webbplats är indexerbar
När vi nu har analyserat om Googlebot faktiskt kan crawla vår webbplats måste vi förstå om sidorna på vår webbplats indexeras. Det finns många sätt att göra detta. Genom att dyka tillbaka till täckningsrapporten i Google Search Console kan vi titta på statusen för varje sida på webbplatsen.
I den här rapporten kan vi se:
- Fel: Omdirigeringsfel, 404.
- Gäller med varningar: Sidor som är indexerade men med varningar kopplade till dem
- Valid: Sidor som har indexerats med framgång.
- Exkluderade: Sidor som är uteslutna från indexering och orsakerna till detta, t.ex. sidor med omdirigeringar eller blockerade av robots.txt.
Du kan också analysera specifika webbadresser med hjälp av verktyget URL-inspektion. Kanske vill du kontrollera att en ny sida som du har lagt till är indexerad eller felsöka en URL om trafiken till en av dina huvudsidor har minskat.
Ett annat bra sätt att kontrollera din webbplats indexerbarhet är att köra en crawl. Ett av de mest kraftfulla och mångsidiga programmen för crawling är Screaming Frog. Beroende på hur stor din webbplats är kan du använda gratisversionen som har en crawlbegränsning på 500 webbadresser och mer begränsade möjligheter, eller betalversionen som kostar 149 pund per år och som inte har någon crawlbegränsning, större funktionalitet och tillgängliga API:er.
När crawlningen har körts kan du se två kolumner om indexering.
Indexering: Detta anger om URL:n är ”indexerbar” eller ”icke-indexerbar”
Indexerbarhetsstatus: Här anges om URL:n är ”indexerbar” eller ”icke-indexerbar”: Detta visar anledningen till att en URL inte kan indexeras. Till exempel om den är kanoniserad till en annan URL eller har en no-index-tagg.
Det här verktyget är ett utmärkt sätt att göra en bulkgranskning av din webbplats för att förstå vilka sidor som indexeras och därför visas i sökresultaten och vilka som inte är indexerbara. Sortera kolumnerna och leta efter avvikelser; att använda Google Analytics API är ett bra sätt att identifiera viktiga sidor som du kan kontrollera deras indexerbarhet.
Det enklaste sättet att kontrollera hur många av dina sidor som är indexerade är att använda Google Search-parametern site:domain. I sökfältet skriver du in site:yourdomain och trycker på enter. I sökresultatet visas alla sidor på din webbplats som har indexerats av Google. Här är ett exempel:
Här ser vi att boots.com har cirka 95 000 webbadresser indexerade. Genom att använda den här funktionen kan du få en bra förståelse för hur många sidor Google för närvarande lagrar. Om du märker en stor skillnad mellan det antal sidor du tror att du har och det antal sidor som indexeras är det värt att undersöka saken närmare.
- Indexeras HTTP-versionen av din webbplats fortfarande?
- Har du dubbla sidor indexerade som borde kanoniseras?
- Indexeras inte stora delar av din webbplats som borde indexeras?
Med hjälp av dessa tre tekniker kan du skapa en bra bild av hur din webbplats indexeras av Google och göra ändringar därefter.
Se över din webbplatskarta
Vikten av en omfattande och strukturerad webbplatskarta kan inte underskattas när det gäller SEO. Din XML-sitemap är en karta över din webbplats för Google och andra sökmotorcrawlare. I huvudsak hjälper den dessa crawlers att hitta och rangordna dina webbsidor.
Det finns några viktiga element att ta hänsyn till när det gäller en effektiv sitemap:
- Din webbplatskarta ska vara korrekt formaterad i ett XML-dokument.
- Den ska följa XML-protokollet för webbplatskartan.
- Inkludera endast kanoniska versioner av webbadresser.
- Inkludera inte webbadresser med ”noindex”-beteckning.
- Inkludera alla nya sidor när du uppdaterar eller skapar dem.
Om du använder Yoast SEO-pluginet kan det skapa en XML-sitemap åt dig. Om du använder Screaming Frog är deras sitemap-analys mycket detaljerad. Du kan se webbadresserna i din sitemap, saknade webbadresser och föräldralösa webbadresser.
Säkerställ att din sitemap innehåller dina viktigaste sidor, att den inte innehåller sidor som du inte vill att Google ska indexera och att den är korrekt strukturerad. När du har gjort allt detta bör du skicka in din sitemap på nytt till Google Search Console.
Säkerställ att din webbplats är mobilanpassad
Förra året meddelade Google att man började införa mobilindexering. Detta innebar att de i stället för att använda skrivbordsversionerna av sidan för rankning och indexering skulle använda mobilversionen av din sida. Allt detta är en del av att hålla jämna steg med hur användarna engagerar sig i innehåll på nätet. 52 % av den globala internettrafiken kommer nu från mobila enheter, så det är viktigare än någonsin att se till att din webbplats är mobilanpassad.
Google’s Mobile-Friendly Test är ett gratis verktyg som du kan använda för att kontrollera om din sida är mobilanpassad och lätt att använda. Ange din domän, så visar det hur sidan återges för mobilen och anger om den är mobilvänlig.
Det är viktigt att kontrollera din webbplats manuellt också. Använd din egen telefon och navigera över din webbplats och upptäck eventuella fel längs viktiga konverteringsvägar på din webbplats. Kontrollera att alla kontaktformulär, telefonnummer och viktiga servicesidor fungerar korrekt. Om du är på datorn kan du högerklicka och inspektera sidan.
Om du inte har byggt din webbplats så att den är kompatibel i mobilen bör du åtgärda detta omedelbart. Många av dina konkurrenter kommer redan att ha tänkt på detta och ju längre du låter bli, desto längre efter kommer du att hamna på efterkälken. Missa inte trafik och potentiella konverteringar genom att vänta längre.
Att granska sidans hastighet
Sidans hastighet är nu en rankingfaktor. Att ha en webbplats som är snabb, responsiv och användarvänlig är vad som gäller för Google 2019.
Du kan bedöma webbplatsens hastighet med en mängd olika verktyg. Jag kommer att täcka några av de viktigaste här och inkludera några rekommendationer.
Google PageSpeed Insights
Google PageSpeed Insights är ett annat kraftfullt och gratis Google-verktyg. Det ger dig en poäng på ”Snabb”, ”Medel” eller ”Långsam” på både mobil och dator och innehåller rekommendationer för att förbättra din sidhastighet.
Testa din startsida och dina huvudsidor för att se var din webbplats kommer till korta och vad du kan göra för att förbättra webbplatsens hastighet.
Det är viktigt att förstå att när digitala marknadsförare talar om sidans hastighet syftar vi inte bara på hur snabbt sidan laddas för en person utan även på hur lätt och snabbt den är för sökmotorer att kryssa. Det är därför som det är bästa praxis att minska och paketera dina CSS- och Javascript-filer. Lita inte bara på att kontrollera hur sidan ser ut med blotta ögat, använd onlineverktyg för att fullständigt analysera hur sidan laddas för människor och sökmotorer.
Google har ett annat gratis verktyg för webbplatsens snabbhet med särskilt fokus på mobiler, vilket förstärker hur viktig mobil webbplatsens snabbhet är för Google. Test My Site från Google ger dig en djupgående analys av hur din webbplats för mobilen, inklusive:
Hur snabb din webbplats är på en 3G- och 4G-anslutning
Det kommer att inkludera hastigheten i sekunder, betyg och om den saktar ner eller ökar i hastighet.
Anpassade korrigeringar för enskilda sidor
Möjlighet att jämföra din webbplatshastighet med upp till 10 konkurrenter
Mestadels, hur dina intäkter påverkas av webbplatsens hastighet
Detta är viktigt om du äger en e-handelswebbplats, eftersom det visar hur mycket potentiella intäkter du förlorar på grund av dålig webbplatshastighet för mobiler och vilken positiv inverkan små förbättringar kan ha på ditt resultat.
Det är bekvämt att sammanfatta allt detta i din kostnadsfria, lättförståeliga rapport.
Google Analytics
Du kan också använda Google Analytics för att se detaljerad diagnostik av hur du kan förbättra hastigheten på din webbplats. Området för webbplatsens hastighet i Analytics, som du hittar under Beteende > Webbplatshastighet, är fullt av användbar data, bland annat om hur specifika sidor fungerar i olika webbläsare och länder. Du kan kontrollera detta mot dina sidvisningar för att se till att du prioriterar dina viktigaste sidor.
Din sidladdningshastighet beror på många olika faktorer. Men det finns några vanliga lösningar som du kan titta på när du har gjort din undersökning, t.ex:
- Optimera dina bilder
- Bättar på uppblåst javascript
- Reducerar serverförfrågningar
- Säkerställ effektiv caching
- Kolla på din server, den måste vara snabb
- Överväg att använda ett Content Delivery Network (CDN)
Granskning av duplicerat innehåll
Till sist är det dags att titta på din webbplats duplicerade innehåll. Som de flesta som arbetar med digital marknadsföring vet är duplicerat innehåll ett stort nej för SEO. Även om Google inte straffar duplicerat innehåll, gillar Google inte flera kopior av samma information. De tjänar inte mycket till för användaren och Google har svårt att förstå vilken sida som ska rankas i SERP – vilket i slutändan innebär att det är mer sannolikt att en av dina konkurrenters sidor kommer att rankas.
Det finns en snabb kontroll som du kan göra med hjälp av Googles sökparametrar. Skriv in ”info:www.your-domain-name.com”
Hoppa upp till sista sidan i sökresultatet, om du har duplicerat innehåll kan du se följande meddelande:
Om du har duplicerat innehåll som visas här, så är det värt att köra en crawl med Screaming Frog. Du kan sedan sortera efter sidtitel för att se om det finns några dubbla sidor på din webbplats.
Get your technical SEO healthy
Det här är verkligen grunderna för teknisk SEO, alla digitala marknadsförare värda sitt salt kommer att ha dessa grunder som fungerar för alla webbplatser de hanterar. Det som verkligen är fascinerande är hur mycket djupare man kan gå in i teknisk SEO: Det kan verka skrämmande, men när du väl har gjort din första granskning är du förhoppningsvis sugen på att se vilka andra förbättringar du kan göra på din webbplats. Dessa sex steg är en bra start för alla digitala marknadsförare som vill se till att deras webbplats fungerar effektivt för sökmotorerna. Viktigast av allt är att de alla är gratis, så sätt igång!
Om författaren
Elliot Haines är konsult inom ägda medier på Hallam. Elliot har erfarenhet av att skapa och genomföra SEO- och digitala PR-strategier för både B2B- och B2C-kunder och har levererat resultat inom en rad olika branscher, bland annat finans, värdskap, resor och energisektorn.