Hvad er teknisk SEO?
Teknisk SEO handler om at gøre det nemt og ubesværet for søgemaskiner at læse din hjemmeside. Søgemaskiner har travlt og de har derfor kun en bestemt mængde tid til at besøge din side. Denne besøgstid kaldes crawlbudget og jo mere autoritet din side får, jo mere besøgstid/crawlbudget får dit site til rådighed. For at få mest muligt ud af vores crawlbudget, så skal vi undgå at spilde søgemaskinernes crawlbudget. Teknisk SEO er håndværket at få mest muligt ud af søgemaskinernes crawlbudget.
3 hurtige (og ofte stillede) spørgsmål
Hvad er forskellen mellem Teknisk SEO og OnPage SEO?
Disciplinen Teknisk SEO bliver ofte sammenblandet med disciplinen OnPage SEO hvilket skyldes at begge er relativt tekniske aspekter i søgemaskine optimeringer. Den store forskel er dog at onPage SEO handler om optimering af indholdet på hver enkelt side og teknisk SEO handler om at fjerne friktion for søgemaskiner.
Kan jeg selv udføre teknisk SEO?
Svaret er ja! Med de rigtige værktøjer, lidt knofedt og den rigtige portion tålmodighed kan man lave 95% af det tekniske SEO arbejde, som en mellemstor dansk webshop har brug for. Jeg har på citatplakat.dk fulgt samme tjekliste og med rigtig gode resultater.
Hvilke arbejdsopgaver hører ind under teknisk SEO?
I det følgende vil jeg gennemgå alle de arbejdsopgaver og de problemer, som jeg kigger efter i mit arbejde med teknisk SEO. Jeg vil også gennemgå de værktøjer, som jeg bruger. Glæd dig!
Værktøjer til teknisk SEO
Jeg har benyttet mig af ScreamingFrog, SEMrush, Google Search Console og ikke mindst manuelt at kigge på siderne.
ScreamingFrog
ScreamingFrog er et betalt værktøj, som bruges til at crawle dit site fra din egen computer. Programmet kan bruges til at finde en lang række tekniske SEO og OnPage SEO problemer og skabe overblik over udfordringerne. Ofte eksporteres resultatet fra ScreamingFrog over i excel eller google sheets til videre behandling.
SEMrush
SEMrush (SearchEngineMarketing-rush) er et online keyword analyse værktøj, som også har en lang række andre features. SEMrush kan også lave site audits på regelmæssig basis og løbende holde øje med om fejl skulle opstå. SEMrush er et dyrt værktøj men dog virkelig effektivt og kan godt være investeringen værd.
Google Search Console
Google search console er google’s eget værktøj til hjælpe websites med at performe i søgeresultaterne. Et af de vigtigste rapporter i Google Search Console er “index”/crawl-rapporten, som angiver antal sider, der er blevet indekseret pr. dag. Index er altså resultatet af hvor meget vi har fået ud af crawlbudgettet. Optimalt vil vi gere set et stabilt eller jævnt stigende antal crawlede sider pr. dag og flere måneder. Hvis der vises store udsving eller faldende antal sider crawlet, så kan det tyde på problemer.
Hvordan laves teknisk SEO Analyse?
Som sagt, så vil jeg gerne hjælpe med at internettet bliver et bedre sted at surfe, så derfor vil jeg i det følgende beskrive, hvordan jeg laver teknisk SEO for kunder og på mine egne webshops og blogs.
Generelt består processen af følgende trin
- Crawl af sitet i ScreamingFrog og i SEMrush
- Gennemgå fejl og rapporter i Google Search Console
- Identificere hvilke problemer, som er største problemer (denne kræver lidt erfaring)
- Tidsprioritere indsatsen efter hvilke problemer, der skal løses først og om der er nogle, som ikke kan betale sig at løse på nuværende tidspunkt (kræver en del erfaring).
Som beskrevet, så er teknisk SEO at få mest muligt ud af crawlbudgettet og det gøres ved at fjerne forhindringer og friktion for søgemaskinernes indekserings process. Jeg vil herunder beskrive den SEO checkliste, som jeg benytter i mit arbejde med teknisk SEO.
Teknisk SEO checkliste – og hvordan man løser dem
Orphan pages (Forlældreløse sider er sider, som ikke har inlink til sig).
Brug ScreamingFrog til at identificer sider som har 0 inlinks. Lav inlinks til siderne, hvis de er vigtige. Ellers skal de slettes.
Langsomme sider (lang load tid)
Søgemaskinerne henter din side, når de crawler, så hvis siden er langsom bruges meget af crawlbudgettet. SEMrush site audit og Google Search Console (hvis du har nok trafik) kan angive om du har langsomme sider. Sider kan være langsomme af MANGE årsager, men noget vi hurtigt kan tjekke er:
- Tunge billeder (mere end 100kB). Findes i ScreamingFrog under images. Nedskaler og komprimer billederne så de kommer under 100kB.
- Manglende caching af sitet. Bed udvikler opsætte caching.
- Afviklingsblokkerende javascript. Bed udvikler undersøge og fjerne blokkerende javascript.
- Lang server responstid. Kan i nogle tilfælde fikses med caching ellers køb hurtigere hosting.
- Langsom hosting og CDN. Køb bedre hosting.
Indholdsfattige sider –
Typisk automatisk genererede sider som fx “tag” eller “egenskab/attribute”-sider
Brug ScreamingFrog til først at tjekke Lowcontent page filtret. Ikke alle indholdsfattige sider fanges af den, så brug derudover HTML filteret til at gennemgå alle sider manuelt. Rul ned over listen og led efter sider som er autogenereret eller som ikke bidrager til din SEO profil. Tilføj et noindex tag på siderne og fjern dem fra sitemappet.
Sider, der ikke med i sitemappet
Hvis du har vigtige sider, som ikke er med i sitemappet, så ved søgemaskinerne ikke at de skal lede efter dem. De kan derfor kun blive fundet, hvis der linkes til dem. Gør livet nemt for søgemaskinerne ved at sørge for at alle dine sider er med i sitemappet.
High Page Depth/Crawl Depth – Høj klikdybde (højere end 4)
Brug ScreamingFrog og sorter efter fanen Crawl Depth. Under 5 er okay, højere end 6 er problematisk og højere end 8 er skidt. Hvis en side med høj klikdybde er vigtig, så skal der linkes til den fra en prominent side, så der skal færre kliks til for at nå den vigtige side. Hvis siden ikke er så vigtig, så kan der laves link fra mindre prominent side.
Ødelagte links
Brug ScreamingFrog og filtrer efter 4xx fejl. Sider, som har har 1 eller flere inlinks er sider med ødelagte links. Ret linket til på de fundne sider.
Duplicate content
Samme indhold ligger på to eller flere URL’er. Søgemaskinerne har svært ved at finde ud af hvad der er det originale indhold og derfor vil begge sider falde i søgeresultaterne.
Brug scannet fra ScreamingFrog og filtrer for Duplicate Content. Løsningen er at fjerne den mindst vigtige, som der kun er en side eller bruge et canonical tag på dem begge hvor linket peger på den vigtigste URL.
Canonicaliserede URL’er
Brug ScreamingFrog filtrer for “cannonicalised” og manuelt tjek siderne, hvor om der er nogen der ikke skal have tagget.
Paginerede sider skal IKKE være canonicalised. Der er originalt indhold på side 2, 3 osv.
Canonicaliserede sider i sitemappet
Tjek sitemappet og find sider, som har canonicalised tag. Kan gøres i excel/sheets med lidt snilde. SEMrush gør dette som en del af site audit. Fjern sider med canonicalised tag fra sitemappet.
H1 problemer – Mere end 1 <h1>, ingen <h1> eller samme <h1> på flere sider.
Brug ScreamingFrog og kig H1 sektionen igennem. Der skal være 1 <h1> på alle sider og den skal være unik. Ret fejlene.
Hreflangs
Sprog indikator, som fortæller søgemaskine at siden er den fx danske version af et andet site. Skal kun bruges, hvis sitet findes på flere sprog. Brug ScreamingFrog til at tjekke om alle sider har hreflang tagget og om de opfylder standarden. Ret fejlene.
Noindex sider – Tjek om der er sider, som ikke skulle have haft noindex tagget
Gennemgå listen i ScreamingFrog for sider, som du gerne vil ranke på. Fjern noindex tagget
Noindex sider i sitemappet.
Tjek sitemappet og find sider, som har noindex tag. Kan gøres i excel/sheets med lidt snilde. Fjern sider med noindex fra sitemappet.
SEMrush gør dette som en del af site audit
NoFollow sider – Tjek om der er sider, som ikke skulle have haft NoFollow tagget. Gennemgå listen i ScreamingFrog for sider, som du gerne vil have skal rankes. Fjern NoFollow tagget på identificerede sider.
404 sider – manglende sider
Brug ScreamingFrog og filtrer på 4xx fejl. Hvis sidens URL er forkert, så ret den. Hvis siden er blevet slettet, så slet linket.
Keyword Cannibalisation
Sker når man har mere end en side, som forsøger at ranke på samme keyword. Det gør det svært for google vælge den vigtigste og siderne hopper op og ned i søgeresultaterne. skifte placeringer meget hurtigt. Vi ønsker at have 1 side til 1 keyword.
SEMrush har et keyword cannibalisation værktøj på en af de dyrere pakker, men det jeg har gjort er at følge rankings i SEMrushs normale pakke og tjekke alle vigtige keywords for om der er konsistente placeringer (ingen store hop ud og ind af ranglinsterne)
Ved problemer skal sider med ens keywords samles til en side eller en af siderne skal have et canonical tag.
Redirect Chains – Omdiregeringskæder
Sider som via flere af omdiregeringer kommer frem til den rigtige side. Omdiregeringen skal helst være direkte.
SEMrush site audit finder kæder med mere end 7 omdiregeringer ellers kan ScreamingFrog bruges ved at filtrer på “Redirection (3xx)” og lave en manuel gennemgang af listen og finde URL’er som går igen på både i start og slut af omdiregeringen.
Broken Redirects – Ødelagte omdiregeringer (301)
Brug ScreamingFrog, filtrer på “Redirection (3xx)” og lav en manuel gennemgang af listen og find forkerte URL’er. Ret URL’en
0 Impressions sider
kan være fordi siden ikke er læsbar til søgemaskiner eller at siden ikke er særlig god til at få organisk trafik.
Brug Google Search Console’s Impresssions side til at finde siderne. Vurder hver enkelt side om de har tekniske SEO problemer eller om siderne skal slettes og dermed ikke spilde crawlbudget på dem.
Strukturet data
Fx breadcrumbs, produkter og artikler på din hjemmeside skal være have struktureret data, så google ved hvad det er. Brug Google Search Console til at identificere problemer med struktureret data. Implementer schema tag for manglende elementer.
Dækningsproblemer
Brug Google Search Console’s Coverage til at finde problemer som 404 sider, langsomme sider eller sider som ikke er optimeret til mobil.
Facet Navigation – Links i filtrer på produktkategori sider.
Tjek manuelt. Med mindre at man har supergode sider for fx sorte nike sko i størrelse 44, så skal der nofollow tags på facet navigation.
Breadcrumbs
Skal fortælle med både bruger og søgemaskine, hvor man er. Tjek manuelt om breadcrumbs som således ud: shop > kategori > underkategori > produkt. Det er oplagt at breadcrumbs afspejler URL strukturen.
URL strukturen
Skal give mening og helst ikke være i for lang. Undgå derudover at gentage de samme ord mange gange som fx /hund/hunde-foder/vaadfoder-til-hund/. En bedre version er /hund/fodder/vaad/.
Hvis der laves ændringer i URL struktur skal der laves 301 redirects for at undgå 404 sider.
HTTPS / HTTP / WWW / NON-WWW redirects skal sendes samme sted hen.
Tjek manuelt om http://andreashelbo.com, http://andreashelbo.com, www.andreashelbo.com og andreashelbo.com redirect’er til https://andreashelbo.com.
Hvis dette ikke er på plads er der meget at hente, da alle sider på domænet kan være duplicate content.
Skal fikses i .htaccess filen. Hvis man ikke ved hvad man laver, så tag fat i en udvikler, da fejl i .htaccess filen kan lave meget skade.
Pagination – links til side 2, 3, 4 osv af blogs eller produkter.
Må ikke være noindex eller nofollow! Tjek at links til næste og forrige side har følgende tags:
<link rel="prev" href="<https://andreashelbo.com/side/1>" />
<link rel="next" href="<https://andreashelbo.com/side/3>" />
Produktvarianter
Hvis produktervarianter har individuelle URL’er skal alle have canonical tag som peger på det samme hovedprodukt eller produktvariant for at undgå duplicate content.
Link arkitektur – silostruktur for sites.
Gennemgå kategorisider om der bliver linket til underliggende kategorier. Er der en god struktur for dette ellers er det en give linkjuice til underliggende kategorier. Findes det på alle kategorier?
God SEO arbejdslyst!
Jeg håber at denne guide kan hjælpe dig videre på din internetrejse. Kommenter gerne herunder og giv råddet videre til andre. Sammen gør vi internettet lidt mindre frustrerende at surfe på.
– Andreas Helbo