On-page SEO, off-page SEO og teknisk SEO kan betragtes som de tre søjler i organisk søgemaskineoptimering.
Teknisk SEO vs. on-page SEO vs. off-page SEO
Ud af de tre bliver teknisk SEO oftest ignoreret, sandsynligvis fordi det er det vanskeligste at mestre. Men med den nuværende konkurrence i søgeresultaterne har vi marketingfolk ikke råd til at vige tilbage for udfordringerne ved teknisk SEO – at have et websted, der er crawlbart, hurtigt og sikkert, har aldrig været mere afgørende for at sikre, at dit websted fungerer godt og rangerer godt i søgemaskinerne.
Da teknisk SEO er et så omfattende emne (og voksende), vil denne artikel ikke dække alt, hvad der kræves for en fuld teknisk SEO-revision. Den vil dog tage seks grundlæggende aspekter af teknisk SEO op, som du bør kigge på for at forbedre dit websteds ydeevne og holde det effektivt og sundt. Når du har fået dækket disse seks baser, kan du gå videre til mere avancerede tekniske SEO-strategier. Men først…
En teknisk SEO-definition
Hvad er teknisk SEO? Teknisk SEO omfatter optimeringer, der gør dit websted mere effektivt at crawle og indeksere, så Google kan levere det rigtige indhold fra dit websted til brugerne på det rigtige tidspunkt. Webstedsarkitektur, URL-struktur, den måde, dit websted er opbygget og kodet på, omdirigeringer, dit sitemap, din Robots.txt-fil, levering af billeder, fejl på webstedet og mange andre faktorer kan påvirke din tekniske SEO-sundhed.
I dag gennemgår vi de første seks ting, du bør kontrollere i forbindelse med en hurtig teknisk SEO-revision.
Sørg for, at dit websted er crawlbart
Det nytter ikke noget at skrive sider med godt indhold, hvis søgemaskinerne ikke kan crawle og indeksere disse sider. Derfor bør du starte med at tjekke din robots.txt-fil. Denne fil er det første punkt, som enhver web-crawling-software skal henvende sig til, når den ankommer til dit websted. Din robots.txt-fil angiver, hvilke dele af dit websted der skal og ikke skal crawles. Det gør den ved at “tillade” eller “forbyde” visse brugeragenters adfærd. robots.txt-filen er offentligt tilgængelig og kan findes ved at tilføje /robots.txt til slutningen af ethvert roddomæne. Her er et eksempel for Hallam-webstedet.
Vi kan se, at Hallam anmoder om, at alle URL’er, der starter med /wp-admin (webstedets backend), ikke skal crawles. Ved at angive, hvor du ikke vil tillade disse brugeragenter, sparer du båndbredde, serverressourcer og dit crawlbudget. Du ønsker heller ikke at have forhindret søgemaskinernes robotter i at crawle vigtige dele af dit websted ved ved et uheld at “afvise” dem. Da det er den første fil, som en bot ser, når den gennemtrawler dit websted, er det også den bedste praksis at pege på dit sitemap.
Du kan redigere og teste din robots.txt-fil i den gamle Google Search Console.
Her kan du indtaste en hvilken som helst URL på webstedet for at kontrollere, om den kan crawles, eller om der er fejl eller advarsler i din robots.txt-fil.
Selv om Google har gjort et relativt godt stykke arbejde med at overføre de vigtigste aspekter af det gamle værktøj til den nye Google Search Console, tilbyder den nye version for mange digitale marketingfolk stadig mindre funktionalitet end den gamle version. Dette er især relevant, når det drejer sig om teknisk SEO. I skrivende stund kan man stadig se crawlstatistikområdet i den gamle Search Console, og det er grundlæggende for at forstå, hvordan dit websted bliver crawlet.
Denne rapport viser tre hovedgrafer med data fra de sidste 90 dage. Sider crawlet pr. dag, kilobyte downloadet pr. dag og den tid, der bruges på at downloade en side (i millisekunder), opsummerer alle dit websteds crawlhastighed og forhold til søgemaskinernes robotter. Du ønsker, at dit websted næsten altid skal have en høj crawlrate; det betyder, at dit websted besøges regelmæssigt af søgemaskinernes bots og indikerer, at det er et hurtigt og let at crawle-websted. Konsistens er det ønskede resultat af disse grafer – alle større udsving kan tyde på ødelagt HTML, forældet indhold eller at din robots.txt-fil blokerer for meget på dit websted. Hvis den tid, du bruger på at downloade en side, indeholder meget høje tal, betyder det, at Googlebot bruger for lang tid på at crawle og indeksere dit website langsommere.
Du kan se crawlfejl i dækningsrapporten i den nye søgekonsol.
Klikker du dig videre til disse, får du fremhævet specifikke sider med crawlproblemer. Du skal sikre dig, at disse sider ikke er vigtige sider for dit websted, og du skal løse det problem, der forårsager det, så hurtigt som muligt.
Hvis du finder betydelige crawlfejl eller udsving i enten crawlstatistikken eller dækningsrapporterne, kan du undersøge det nærmere ved at foretage en logfilanalyse. Det kan være lidt besværligt at få adgang til de rå data fra dine serverlogfiler, og analysen er meget avanceret, men den kan hjælpe dig med at forstå præcis, hvilke sider der kan og ikke kan crawles, hvilke sider der prioriteres, områder med spild af crawlbudget og de serversvar, som robotter støder på under deres crawl af dit websted.
2. Kontroller, at dit websted kan indekseres
Nu har vi analyseret, om Googlebot rent faktisk kan crawle vores websted, og vi skal forstå, om siderne på vores websted bliver indekseret. Der er mange måder at gøre dette på. Hvis vi dykker tilbage i rapporten om dækning i Google Search Console, kan vi se på status for hver enkelt side på webstedet.
I denne rapport kan vi se:
- Fejl: Omdirigeringsfejl, 404’er.
- Gyldig med advarsler: Sider, der er indekseret, men med advarsler knyttet til dem
- Valid: Sider, der er indekseret med succes.
- Udelukket: Sider, der er udelukket fra at blive indekseret, og årsagerne hertil, f.eks. sider med omdirigeringer eller blokeret af robots.txt.
Du kan også analysere specifikke URL’er ved hjælp af URL-inspektionsværktøjet. Måske vil du kontrollere, om en ny side, du har tilføjet, er indekseret, eller du vil fejlfinde en URL, hvis der er sket et fald i trafikken til en af dine hovedsider.
En anden god måde at kontrollere dit websteds indekseringsevne på er ved at køre en crawl. Et af de mest kraftfulde og alsidige stykker crawling-software er Screaming Frog. Afhængigt af størrelsen af dit websted kan du bruge den gratis version, som har en crawl-grænse på 500 URL’er og mere begrænsede muligheder, eller den betalte version, som koster 149 £ om året og ikke har nogen crawl-grænse, større funktionalitet og API’er til rådighed.
Når crawlingen er kørt, kan du se to kolonner vedrørende indeksering.
Indeksering: Dette angiver, om URL’en er “indeksérbar” eller “ikke indeksérbar”
Indeksérbarhedsstatus: Dette vil vise årsagen til, at en URL ikke kan indekseres. F.eks. hvis den er canonicalised til en anden URL eller har et no-index-tag.
Dette værktøj er en god måde at foretage en bulkaudit af dit websted på for at forstå, hvilke sider der bliver indekseret og derfor vises i søgeresultaterne, og hvilke der ikke kan indekseres. Sorter kolonnerne og kig efter uregelmæssigheder; at bruge Google Analytics API er en god måde at identificere vigtige sider, som du kan kontrollere deres indekseringsevne på.
Den nemmeste måde at kontrollere, hvor mange af dine sider der er indekseret, er endelig at bruge Google Search-parameteren site:domain. Indtast site:yourdomain i søgelinjen, og tryk på enter. Søgeresultaterne viser dig alle de sider på dit websted, der er blevet indekseret af Google. Her er et eksempel:
Her kan vi se, at boots.com har omkring 95.000 URL’er indekseret. Ved at bruge denne funktion kan du få en god forståelse af, hvor mange sider Google i øjeblikket lagrer. Hvis du bemærker en stor forskel mellem det antal sider, du tror, du har, og det antal sider, der bliver indekseret, er det værd at undersøge det nærmere.
- Er HTTP-versionen af dit websted stadig indekseret?
- Er du indekseret med dublerede sider, som burde være kanoniserede?
- Er store dele af dit websted ikke indekseret, som burde være det?
Med disse tre teknikker kan du danne dig et godt billede af, hvordan dit websted bliver indekseret af Google, og foretage ændringer i overensstemmelse hermed.
Gennemgå dit sitemap
Vigtigheden af et omfattende og struktureret sitemap kan ikke undervurderes, når det kommer til SEO. Dit XML-sitemap er et kort over dit websted for Google og andre søgemaskinecrawlere. Det hjælper i bund og grund disse crawlere med at finde og rangere dine websider.
Der er nogle vigtige elementer, der skal overvejes, når det gælder et effektivt sitemap:
- Din sitemap skal være formateret korrekt i et XML-dokument.
- Det skal følge XML-sitemap-protokollen.
- Inkluder kun kanoniske versioner af URL’er.
- Indlem ikke “noindex”-URL’er.
- Indlem alle nye sider, når du opdaterer eller opretter dem.
Hvis du bruger Yoast SEO-plugin’et, kan det oprette et XML-sitemap for dig. Hvis du bruger Screaming Frog, er deres sitemap-analyse meget detaljeret. Du kan se URL’erne i dit sitemap, manglende URL’er og forældreløse URL’er.
Sørg for, at dit sitemap indeholder dine vigtigste sider, at det ikke indeholder sider, som du ikke ønsker, at Google skal indeksere, og at det er struktureret korrekt. Når du har gjort alt dette, skal du sende dit sitemap til din Google Search Console igen.
Sørg for, at dit websted er mobilvenligt
Sidste år annoncerede Google udrulningen af mobile-first indexing. Det betød, at de i stedet for at bruge desktopversionerne af siden til rangering og indeksering ville bruge mobilversionen af din side. Dette er alt sammen en del af at holde trit med, hvordan brugerne engagerer sig i indhold online. 52 % af den globale internettrafik kommer nu fra mobile enheder, så det er vigtigere end nogensinde før at sikre, at dit websted er mobilvenligt.
Google’s Mobile-Friendly Test er et gratis værktøj, som du kan bruge til at kontrollere, om din side er mobilvenlig og nem at bruge. Indtast dit domæne, og det vil vise dig, hvordan siden gengives til mobilen, og angive, om den er mobilvenlig.
Det er også vigtigt at kontrollere dit websted manuelt. Brug din egen telefon og naviger rundt på dit websted og find eventuelle fejl langs de vigtigste konverteringsveje på dit websted. Kontroller, at alle kontaktformularer, telefonnumre og vigtige servicesider fungerer korrekt. Hvis du er på desktop, skal du højreklikke og inspicere siden.
Hvis du ikke har bygget dit websted til at være kompatibelt på mobilen, bør du straks rette op på dette. Mange af dine konkurrenter vil allerede have overvejet dette, og jo længere du lader det ligge, jo mere bagud kommer du til at være. Gå ikke glip af trafik og potentielle konverteringer ved at lade det ligge længere.
Gennemgå sidehastighed
Sidehastighed er nu en rankingfaktor. At have et websted, der er hurtigt, responsivt og brugervenligt, er det vigtigste for Google i 2019.
Du kan vurdere dit websteds hastighed med en lang række værktøjer. Jeg vil dække nogle af de vigtigste her og inkludere nogle anbefalinger.
Google PageSpeed Insights
Google PageSpeed Insights er et andet kraftfuldt og gratis værktøj fra Google. Det giver dig en score på “Hurtig”, “Gennemsnitlig” eller “Langsom” på både mobil og desktop, og det indeholder anbefalinger til at forbedre din sidehastighed.
Test din startside og dine kernesider for at se, hvor dit websted kommer til kort, og hvad du kan gøre for at forbedre din websteds hastighed.
Det er vigtigt at forstå, at når digitale marketingfolk taler om sidehastighed, henviser vi ikke kun til, hvor hurtigt siden indlæses for en person, men også til, hvor let og hurtigt den er for søgemaskinerne at crawle. Derfor er det den bedste praksis at minificere og bundle dine CSS- og Javascript-filer. Stol ikke blot på at kontrollere, hvordan siden ser ud med det blotte øje, men brug onlineværktøjer til at analysere fuldt ud, hvordan siden indlæses for mennesker og søgemaskiner.
Google har et andet gratis værktøj til webstedshastighed, der især fokuserer på mobil, hvilket styrker, hvor vigtig mobil webstedshastighed er for Google. Test My Site fra Google giver dig en dybdegående analyse af, hvordan dit websted til mobil, herunder:
Hvor hurtigt dit websted er på en 3G- og 4G-forbindelse
Det vil omfatte din hastighed i sekunder, bedømmelse, og om den bliver langsommere eller hurtigere.
Brugerdefinerede rettelser til individuelle sider
Mulighed for at benchmarke din websteds hastighed i forhold til op til 10 konkurrenter
Mest vigtigt, hvordan din indtjening påvirkes af webstedets hastighed
Dette er afgørende, hvis du ejer et e-handelswebsted, fordi det viser, hvor meget potentiel indtjening du mister på grund af dårlig mobilwebstedshastighed og den positive indvirkning, som små forbedringer kan have på din bundlinje.
Det hele kan bekvemt nok sammenfattes i din gratis, letforståelige rapport.
Google Analytics
Du kan også bruge Google Analytics til at se detaljerede diagnoser af, hvordan du kan forbedre hastigheden på dit websted. Området for webstedshastighed i Analytics, som du finder under Adfærd > Webstedshastighed, er fyldt med nyttige data, herunder hvordan specifikke sider fungerer i forskellige browsere og lande. Du kan tjekke dette i forhold til dine sidevisninger for at sikre, at du prioriterer dine vigtigste sider.
Din sideindlæsningshastighed afhænger af mange forskellige faktorer. Men der er nogle almindelige rettelser, som du kan kigge på, når du har lavet din research, herunder:
- Optimer dine billeder
- Fix bloated javascript
- Reducer serveranmodninger
- Sørg for effektiv caching
- Kig på din server, den skal være hurtig
- Overvej at bruge et Content Delivery Network (CDN)
Gennemgang af duplikatindhold
Endeligt er det tid til at se på dit websteds duplikatindhold. Som de fleste inden for digital markedsføring ved, er duplicate content et stort nej til SEO. Selv om der ikke er nogen Google-bødestraf for duplicate content, bryder Google sig ikke om flere kopier af den samme information. De tjener ikke meget formål for brugeren, og Google har svært ved at forstå, hvilken side der skal rangeres i SERP’erne – hvilket i sidste ende betyder, at det er mere sandsynligt, at det er en af dine konkurrenters sider, der bliver rangeret.
Der er en hurtig kontrol, du kan foretage ved hjælp af Google-søgeparametre. Indtast “info:www.your-domain-name.com”
Gå til den sidste side i søgeresultaterne, hvis du har duplikeret indhold, kan du se følgende meddelelse:
Hvis du har duplikeret indhold, der vises her, så er det værd at køre en crawl med Screaming Frog. Du kan derefter sortere efter sidetitel for at se, om der er nogen duplikerede sider på dit websted.
Få din tekniske SEO sund
Dette er virkelig det grundlæggende i teknisk SEO, enhver digital marketingmedarbejder, der er sit salt værd, vil have disse grundlæggende elementer til at fungere for ethvert websted, de administrerer. Det, der virkelig er fascinerende, er, hvor meget dybere man kan gå ind i teknisk SEO: Det kan virke skræmmende, men når du først har foretaget din første revision, vil du forhåbentlig være ivrig efter at se, hvilke andre forbedringer du kan foretage på dit websted. Disse seks trin er en god start for enhver digital marketingmedarbejder, der ønsker at sikre, at deres websted fungerer effektivt for søgemaskinerne. Og vigtigst af alt, de er alle gratis, så gå i gang!
Om forfatteren
Elliot Haines er konsulent for ejede medier hos Hallam. Elliot har erfaring med at skabe og udføre SEO- og digitale PR-strategier for både B2B- og B2C-kunder og har leveret resultater på tværs af en række brancher, herunder finans, hotel- og restaurationsbranchen, rejsebranchen og energisektoren.