Kapitel 2: Hur sökmotorer arbetar: crawling, indexering och ranking

Börja med att dyka upp.

Som vi nämnde i kapitel 1 är sökmotorer svarsmaskiner. De finns för att upptäcka, förstå och organisera Internetinnehållet för att erbjuda de mest relevanta resultaten till de frågor som sökarna ställer.

För att dyka upp i sökresultaten måste ditt innehåll till en början vara synligt för sökmotorerna. Det är utan tvekan den viktigaste delen av SEO-pusslet: Om din webbplats inte kan hittas, finns det inget sätt du någonsin kommer att dyka upp i SERPer (resultatsida för sökmotor).

Ranking SEO

Hur fungerar sökmotorer?

Sökmotorer har tre huvudsakliga funktioner:

1. Crawl (genomsökning): Söka av Internet efter innehåll se över koden / innehållet för varje URL de hittar.

2. Indexera: Lagra och organisera innehållet som hittats under processen för genomsöknings. När en sida är i indexet kommer den att visas som ett resultat av relevanta frågor.

3. Ranking: Ange de innehållsdelar som bäst svarar på en sökares fråga, vilket innebär att resultaten ordnas från de mest relevanta till minst relevanta.

Vad genomsöker sökmotorerna?

Crawling är genomsökningsprocessen där sökmotorer skickar ut ett team av robotar (kända som crawlers eller spindlar) för att hitta nytt och uppdaterat innehåll. Innehållet kan variera – det kan vara en webbsida, en bild, en video, en PDF etc. – men oavsett format upptäcks innehåll via länkar.

Googlebot börjar med att hämta några få webbsidor och följer sedan länkarna på dessa webbsidor för att hitta nya webbadresser. Genom att hoppa längs denna sökväg kan sökroboten hitta nytt innehåll och lägga till det i sitt index som heter Caffeine – en massiv databas med upptäckta webbadresser – vilken senare kan hämtas när en sökare söker information om innehållet på denna URL är en bra matchning.

Vad är ett sökmotorindex?

Sökmotorer bearbetar och lagrar information de hittar i ett index, en enorm databas med allt innehåll de har upptäckt och anser vara tillräckligt bra för att betjäna sökaren.

Sökmotor ranking

När någon utför en sökning scannar sökmotorerna sitt index för mest relevanta innehåll och sorterar sedan innehållet i hopp om att besvara sökarens fråga. Denna beställning av sökresultat enligt relevans kallas ranking. I allmänhet kan du anta att ju högre en webbplats rankas, desto mer relevant anser sökmotorn att webbplatsen är angående den ställda frågan.

Det är möjligt att blockera en sökmotors sökrobotar från en del av eller hela din webbplats, eller instruera sökmotorer att undvika att lagra vissa sidor i sitt index. Det kan finnas skäl för att göra detta, men om du vill att ditt innehåll hittas av sökare måste du först se till att det är tillgängligt för sökrobotar och är indexerbart. Annars är det så gott som osynlig.

I slutet av detta kapitel har du det sammanhang du behöver för att arbeta med sökmotorn, snarare än mot den!

Crawling: Kan sökmotorer hitta dina sidor?

Som du just lärt dig, att säkerställa din webbplats genomsöks och indexeras är en förutsättning för att den skall dyka upp i SERPer. Om du redan har en webbplats kan det vara en bra idé att börja med att se hur många av dina sidor som finns i indexet. Detta kommer att ge bra insikt i huruvida Google genomsöker och hittar alla sidor du vill den skall hitta, och ingen som du inte vill den skall hitta.

Ett sätt att kontrollera dina indexerade sidor är ”site: yourdomain.com”, en avancerad sökoperatör. Gå till Google och skriv ”site: yourdomain.com” i sökfältet. Detta ger resultaten som Google har i sitt index för den angivna webbplatsen:

Antalet resultat som Google visar (se ”AboutXX-results” ovan) är inte exakt, men det ger dig en gedigen uppfattning om vilka sidor som är indexerade på din webbplats och hur de för närvarande visas i sökresultaten.

För mer exakta resultat kan du övervaka och använda täckningsrapporten för index i Google Search Console. Du kan registrera dig för ett gratis Google Search Console-konto om du för närvarande inte har ett. Med det här verktyget kan du skicka webbplatskartor för din webbplats och bland annat övervaka hur många skickade sidor som faktiskt har lagts till i Googles index.

Om du inte dyker upp någonstans i sökresultaten finns det några möjliga skäl till varför:

·         Din webbplats är helt ny och har inte genomsökts ännu

·         Din webbplats är inte länkad till från några externa webbplatser

·         Navigering på din webbplats gör det svårt för en robot att genomsöka den effektivt

·         Din webbplats innehåller grundläggande kod kallad crawler direktiv vilken blockerar sökmotorer

·         Din webbplats har ”bestraffats” av Google för aktivitet med skräppost

De flesta personer tänker på att se till så att Google kan hitta deras viktiga sidor, men det är lätt att glömma att det troligtvis finns sidor som du inte vill att Googlebot ska hitta. Dessa kan innefatta saker som gamla webbadresser vilka har skralt innehåll, duplicerade webbadresser (som sorterings- och filterparametrar för e-handel), speciella kampanjkodsidor, iscensättnings- eller testsidor och så vidare.

För att rikta Googlebot bort från vissa sidor och delar på din webbplats, använd robots.txt.

Robots.txt

Robots.txt-filer finns i rotkatalogen för webbplatser (t.ex. yourdomain.com/robots.txt) och föreslår vilka delar av webbplatsen sökmotorer bör och inte bör genomsöka, liksom hastigheten med vilken de genomsöker din webbplats via specifika robots.txt-direktiv.

Hur Googlebot behandlar robots.txt-filer

·         Om Googlebot inte kan hitta en robots.txt-fil för en webbplats fortsätter den att genomsöka webbplatsen

·         Om Googlebot hittar en robots.txt-fil för en webbplats kommer den vanligtvis att följa förslagen och fortsätta att genomsöka webbplatsen

·         Om Googlebot stöter på ett fel när du försöker komma åt en webbplats robots.txt-fil och inte kan avgöra om en finns eller inte, kommer den inte att genomsöka webbplatsen

Inte alla webbrobotar följer robots.txt. Personer med dåliga avsikter (t.ex. de som samlar e-postadresser) bygger bots vilka inte följer detta protokoll. Faktum är att vissa dåliga aktörer använder robots.txt-filer för att hitta var du har lagt ditt privata innehåll. Även om det kan tyckas logiskt att blockera sökrobotar från privata sidor såsom inloggnings- och administrationssidor så att de inte dyker upp i indexet, att placera platsen för dessa webbadresser i en offentligt tillgänglig robots.txt-fil innebär också att personer med dåliga avsikt kan hitta dem lättare. Det är bättre att NoIndex dessa sidor och stänga dem bakom ett inloggningsformulär istället för att placera dem i din robots.txt-fil.

Definiera URL-parametrar i GSC

Vissa webbplatser (vanligast med e-handel) gör samma innehåll tillgängligt på flera olika webbadresser genom att lägga till vissa parametrar till webbadresser. Om du någonsin har handlat online har du troligen minskat mer din sökning via filter. Till exempel kan du söka efter ”skor” på Amazon och sedan förfina din sökning efter storlek, färg och stil. Varje gång du förfina ändras URLen något:

https://www.example.com/products/women/dresses/green.htmhttps://www.example.com/products/women?category=dresses&color=greenhttps://example.com/shopindex.php?product_id=32&highlight=green+dress&cat_id = 1&sessionid=123$=43

Hur vet Google vilken version av webbadressen som ska användas för sökare? Google gör ett ganska bra jobb med att ta reda på den representativa webbadressen på egen hand, men du kan använda URL-parametrarna i Google Search Console för att berätta för Google exakt hur du vill att de ska behandla dina sidor. Om du använder den här funktionen att berätta för Googlebot ”crawl no URLs with____parameter”, ber du i huvudsak att detta innehåll skall döljas från Googlebot, vilket kan leda till att dessa sidor tas bort från sökresultaten. Det är vad du vill skall ske om dessa parametrar skapar dubbla sidor, men inte idealisk om du vill att dessa sidor skall indexeras.

Kan sökrobotar hitta allt ditt viktiga innehåll?

Nu när du känner till viss taktik för att se till att crawlers i sökmotor håller sig borta från ditt oväsentliga innehåll, låt oss lära om optimeringarna vilken kan hjälpa Googlebot att hitta dina viktiga sidor.

Ibland kan en sökmotor hitta delar av din webbplats via genomsökning, men andra sidor eller sektioner kan döljas av en eller annan anledning. Det är viktigt att se till att sökmotorerna kan upptäcka allt innehåll du vill ha indexerat och inte bara din hemsida.

Fråga dig själv detta: Kan botten krypa genom din webbplats och inte bara till den?

 Döljs ditt innehåll bakom inloggningsformulär?

Om du kräver att användare loggar in, fyller i formulär eller svarar på undersökningar innan de får tillgång till visst innehåll, kommer sökmotorerna inte att se de skyddade sidorna. En sökrobot kommer definitivt inte att logga in.

Lita du på sökformulär?

Robotar kan inte använda sökformulär. Vissa individer tror att om de placerar en sökruta på sin webbplats, kan sökmotorerna hitta allt som deras besökare söker efter.

Döljs text i innehåll utan text?

Medieformat som inte är text (bilder, video, GIF, etc.) bör inte användas för att visa text som du vill indexeras. Samtidigt som sökmotorerna blir bättre på att känna igen bilder, finns det ingen garanti för att de kommer att kunna läsa och förstå det ännu. Det är alltid bäst att lägga till text inom <HTML> -markeringen på din webbsida.

Kan sökmotorer följa din navigering på webbsida?

Precis som en sökrobot behöver upptäcka din webbplats via länkar från andra webbplatser, behöver den en sökväg på din egen webbplats för att vägleda den från sida till sida. Om du har en sida som du vill att sökmotorer ska hitta men den inte är länkad till från andra sidor är den så bra som osynlig. Många webbplatser gör det kritiska misstaget att strukturera sin navigering på sätt som är otillgängliga för sökmotorer, vilket hindrar deras förmåga att bli listade i sökresultaten.

Vanliga navigationsfel som kan hindra sökrobotar från att se hela din webbplats:

·         Att ha en mobilnavigering som visar andra resultat än din stationära navigering

·         Alla typer av navigering där menyalternativen inte finns i HTML, till exempel JavaScript-aktiverade navigeringar. Google har blivit mycket bättre på crawling och förstå Javascript, men det är fortfarande inte en perfekt process. Det mer säkra sättet att säkerställa att något blir hittat, förstått och indexerat av Google är genom att sätta det i HTML-koden

·         Anpassning, eller visning av unik navigering till en viss typ av besökare jämfört med andra, kan tyckas släppa till en sökmotors sökrobot

·         Glömma att länka till en primär sida på din webbplats genom din navigering – kom ihåg att länkar är sökvägarnas bana till nya sidor!

Därför är det viktigt att din webbsida har en tydlig navigering och användbara mappstrukturer för URL.

Har du ren informationsarkitektur?

Informationsarkitektur är metoden att organisera och märka innehåll på en webbsida för att förbättra användarnas effektivitet och förmåga att hitta. Den bästa informationsarkitekturen är intuitiv, vilket innebär att användare inte behöver tänka väldigt mycket för att flyta igenom din webbplats eller hitta något.

Använder du webbplatskartor?

En webbplatskarta är precis som det låter: en lista med webbadresser på din webbplats vilka sökrobotar kan använda för att upptäcka och indexera ditt innehåll. Ett av de enklaste sätten att se till att Google hittar dina sidor med högsta prioritet är att skapa en fil som uppfyller Googles standard och skicka denna via Google Search Console. När du skickar en webbplatskarta ersätter det inte behovet av bra webbplatsnavigering, men det kan säkert hjälpa sökrobotar att följa en väg till alla dina viktiga sidor.

Om din webbsida inte har några andra webbsidor vilka länkar till den kan du fortfarande få den indexerad genom att skicka din XML webbplatskarta till Google Search Console. Det finns ingen garanti för att de kommer att inkludera en skickad URL i sitt index, men det är värt ett försök!

Får sökrobotar fel när de försöker komma åt dina webbadresser?

I processen med crawling av webbadresserna på din webbplats kan en sökrobot stöta på fel. Du kan gå till Google Search Consoles rapport ”Genomsökningsfel” för att upptäcka webbadresser vilka detta kan ske med – den här rapporten visar dig serverfel och ej hittade fel. Serverloggfiler kan också visa dig detta, liksom en skatt med annan information såsom crawling-frekvens. Men eftersom åtkomst till och dissekering av serverloggfiler är en mer avancerad taktik kommer vi inte att diskutera den i omfattning i nybörjarguiden, även om du kan lära dig mer om det här.

Innan du kan göra något meningsfullt med felrapporten för crawling är det viktigt att förstå serverfel och ”ej hittade” fel.

4xx-koder: När crawler för sökmotor inte kan komma åt ditt innehåll på grund av ett klientfel

4xx-fel är klientfel, vilket innebär att den begärda webbadressen innehåller dålig syntax eller inte kan uppfyllas. Ett av de vanligaste 4xx-felen är felet ”404 – not found”. Dessa kan inträffa på grund av skrivfel i URL, raderad sida eller felaktig omdirigering, bara för att nämna några exempel. När sökmotorer träffar en 404 kan de inte komma åt URLen. När användare träffar en 404 kan de bli frustrerade och lämna.

5xx-koder: När crawler för sökmotor inte kan komma åt ditt innehåll på grund av ett serverfel

5xx-fel är serverfel, vilket innebär att servern som webbsidan ligger på misslyckades med att uppfylla sökaren eller sökmotorns begäran om åtkomst till sidan. I rapporten ”Genomsökningsfel” i Google Search Console finns en flik avsedd för dessa fel. Dessa inträffar vanligtvis på grund av att begäran om webbadressen har gått ut, så Googlebot övergav begäran. Se Googles dokumentation för att lära dig mer om hur du fixar serveranslutningsfrågor.

Tack och lov finns det ett sätt att berätta för både sökare och sökmotorer att din sida har flyttat – 301 (permanent) omdirigering.

 Säg att du flyttar en sida från exempel.com/young-dogs/ till exempel.com/puppies/. Sökmotorer och användare behöver en bro för att gå över från den gamla URL till den nya. Den bron är en 301 omdirigering.

 När du implementerar en 301:När du inte implementerar en 301:
Länk LikhetÖverföringar av lika länkar från sidans gamla plats till den nya webbadressenUtan en 301 överförs inte källan från den föregående URL till den nya versionen av URL
IndexeringHjälper Google att hitta och indexera den nya versionen av sidanFörekomsten av 404-fel på din webbplats skadar inte sökprestandan i sig, men att låta sidor 404 rangordnas / trafikeras kan resultera i att de faller ur indexet, med rangordningar och trafik som ryker med dem
AnvändarupplevelseSe till att användare hittar sidan de letar efterGenom att låta dina besökare klicka på döda länkar kommer de till felsidor istället för den avsedda sidan, vilket kan vara frustrerande

Själva statuskoden för 301 innebär att sidan permanent har flyttats till en ny plats, så undvik att omdirigera webbadresser till irrelevanta sidor – webbadresser där den gamla URLens innehåll faktiskt inte finns. Om en sida rankas för en fråga och du 301ar den till en URL med annat innehåll, kan den sjunka i rankningsposition eftersom innehållet som gjorde den relevant för den specifika frågan inte finns längre. 301or är kraftfulla – flytta webbadresser ansvarsfullt!

Du har också möjligheten att 302 omdirigera en sida, men detta bör reserveras för tillfälliga drag och i de fall där upprätthållande av lika länk inte är lika stort. 302or är som en omväg. Du skickar tillfälligt trafik genom en viss rutt, men det kommer inte att vara så för alltid.

När du har säkerställt att din webbsida är optimerad för crawling är nästa steg att se till så den kan indexeras.

Indexering: Hur tolkar och lagrar sökmotorer dina sidor?

När du har säkerställt att din webbsida genomsökts är nästa steg att se till så den kan indexeras. Det stämmer – bara för att din webbsida kan upptäckas och genomsökas av en sökmotor betyder det inte nödvändigtvis att den kommer att lagras i deras index. I föregående avsnitt om genomsökning diskuterade vi hur sökmotorer upptäcker dina webbsidor. Indexet är var dina upptäckta sidor lagras. När en sökrobot har hittat en sida hanterar sökmotorn den precis som en webbläsare skulle göra. I processen analyserar sökmotorn den sidans innehåll. All den informationen lagras i dess index.

Läs vidare för att lära dig hur indexering fungerar och hur du kan se till så att din webbsida hamnar i den här viktiga databasen.

Kan jag se hur en Googlebot sökrobot ser mina sidor?

Ja, den cache-lagrade versionen av din sida återspeglar en ögonblicksbild av förra gången Googlebot genomsökte den.

Google genomsöker och cachar webbsidor med olika frekvenser. Mer etablerade, välkända webbsidor som publicerar ofta såsom https://www.nytimes.com kommer att genomsökas oftare än den mycket obekanta webbplatsen som säljer maskeradkostymer.

Du kan se hur din cache-version av en sida ser ut genom att klicka på pilen i rullgardinen bredvid URLen i SERP och välja ”Cache”:

Du kan också se den textversion av din webbplats för att avgöra om ditt viktiga innehåll kryper och cachas effektivt.

Tas sidor någonsin bort från indexet?

Ja, sidor kan tas bort från indexet! Några av de främsta orsakerna till att en URL kan tas bort innefattar:

·         Webbadressen returnerar ett ”ek hittat” -fel (4XX) eller serverfel (5XX) – Detta kan vara oavsiktligt (sidan flyttades och en 301-omdirigering gjordes inte) eller avsiktlig (sidan raderades och hamnade som 404 för att få det bort från indexet)

·         Webbadressen har lagt till en metatagg från noindex – Den här taggen kan läggas till av webbplatsägaren för att instruera sökmotorn att utelämna sidan från dess index

·         URLen har bestraffats manuellt för brott mot Sökmotorns Riktlinjer för Webbansvariga och som ett resultat av detta har den tagits bort från indexet

·         Webbadressen har blockerats från genomsökning för att krav om lösenord lagts till innan besökare kan komma åt sidan

Om du tror att en sida på din webbplats som tidigare fanns i Googles index inte längre dyker upp, kan du använda URL inspektionsverktyg för att kontrollera status på sidan eller använda Fetch as Google som har en funktion ”Begär indexering” för att skicka in enskilda webbadresser till indexet. (Bonus: GSCs ”fetch” verktyg har också ett alternativ för ”render” vilket låter dig se om det finns några problem med hur Google tolkar din sida).

Berätta för sökmotorer hur de skall indexerar din webbsida – Robotens metadirektiv

Metadirektiv (eller ”metataggar”) är instruktioner du kan ge till sökmotorer om hur du vill att din webbsida ska behandlas.

Du kan berätta till crawlers för sökmotorer saker såsom ”inte indexera den här sidan i sökresultaten” eller ”skicka inte någon lika länk till någon länk på sidan”. Dessa instruktioner körs via Robot Metataggar i <head> på dina HTML-sidor (oftast använd) eller via X-Robots-taggen i HTTP-header.

Robotens metataggar

Robotens metatagg kan användas inom <head> i HTML-koden på din webbsida. Det kan utesluta alla eller specifika sökmotorer. Följande är de vanligaste metadirektiven, tillsammans med vilka situationer du kan tillämpa dem i.

index / noindex berättar för sökmotorerna om sidan skall genomsökas och förvaras i en sökmotors index för hämtning. Om du väljer att använda ”noindex”, kommunicerar du till sökrobotar där du vill att sidan skall uteslutas från sökresultaten. Som standard antar sökmotorerna att de kan indexera alla sidor, så att använda värdet ”index” är onödigt

·         När du kan använda: Du kan välja att markera en sida som ”noindex” om du försöker klippa ut tunna sidor från Googles index för din webbplats (ex: användargenererade profilsidor) men du fortfarande vill ha dem tillgängliga för besökare.

follow / nofollow berättar för sökmotorer om länkar på sidan ska följas eller inte följas. ”follow” resulterar i att bots följer länkarna på din sida och skickar länkinnehåll till dessa webbadresser. Eller, om du väljer att använda ”nofollow” kommer sökmotorerna inte att följa eller skicka något länkinnehåll till länkarna på sidan. Som standard antas att alla sidor har attributet ”follow”.

·         När du kanske använder: nofollow används ofta tillsammans med noindex när du försöker förhindra att en sida indexeras samt förhindrar att sökroboten följer länkar på sidan.

noarchive används för att begränsa sökmotorer från att spara en cache-kopia av sidan. Som standard kommer motorerna att behålla synliga kopior av alla sidor de har indexerat, tillgängliga för sökare via cache-länken i sökresultaten.

·         När du kanske använder: Om du driver en e-handelswebbplats och dina priser förändras regelbundet, kan du överväga taggen noarchive för att förhindra att sökare ser gamla priser.

Här är ett exempel på en metrobot noindex, nofollow-tagg:

<! DOCTYPE html> <html> <head> <meta name = ”robots” content = ”noindex, nofollow” /> </head> <body> … </body> </html>

Detta exempel exkluderar alla sökmotorer från att indexera sidan och från att följa samtliga länkar på sidan. Om du vill utesluta flera sökrobotar, som till exempel googlebot och bing, är det okej att använda flera uteslutningstaggar för robotarl.

Metadirektiv påverkar indexering, inte crawling

Googlebot måste genomsöka din sida för att se metadirektiven, så om du försöker förhindra sökrobotar att komma åt vissa sidor är metadirektiven inte sättet att göra det på. Robottaggar måste genomsökas för att följas.

X-Robots-Tag

X-robot-taggen används i HTTP-rubriken på din URL, vilket ger mer flexibilitet och funktionalitet än metataggar om du vill blockera sökmotorer i mängd eftersom du kan använda reguljära uttryck, blockera icke-HTML-filer och tillämpa noindex-taggar över hela sidor.

Som exempel kan du enkelt utesluta hela mappar eller filtyper (såsom moz.com/no-bake/old-recipes-to-noindex):

<Files ~ ”\ /? No \ -bake \ /.*”> Header set X-Robots-Tag ”noindex, nofollow” </Files>

Derivaten som används i en metatagg för robotar kan också användas i en X-Robots-tagg.

Eller specifika filtyper (som PDF-filer):

<Files ~ ”\ .pdf $”> Header set X-Robots-Tag ”noindex, nofollow” </Files>

För mer information om Meta Robot Taggar, utforska Googles Robot Meta Tag Specifikationer.

Att förstå de olika sätten du kan påverka genomsökning och indexering hjälper dig att undvika de vanliga fallgroparna som kan förhindra att dina viktiga sidor hittas.

Ranking: Hur rankar sökmotorer URLer?

Hur ser sökmotorerna till att när någon skriver en fråga i sökfältet, att de får relevanta resultat i gengäld? Den processen kallas ranking eller sortering på sökresultat av de mest relevanta och till minst relevanta för en viss fråga.

För att avgöra relevansen använder sökmotorer algoritmer, en process eller formel genom vilken lagrad information hämtas och ordnas på meningsfulla sätt. Dessa algoritmer har genomgått många förändringar genom åren för att förbättra sökresultatens kvalitet. Google gör till exempel algoritmjusteringar varje dag – några av dessa uppdateringar är justeringar av mindre art, medan andra är fundamentala / breda algoritmuppdateringar som används för att ta itu med en specifik fråga, såsom Penguin för att hantera spam av länkar. Kolla in vår Google Alghorithm Change History för en lista över både bekräftade och okontrollerade Google uppdateringar vilken går tillbaka till år 2000.

Varför ändras algoritmen så ofta? Försöker Google bara hålla oss på tårna? Även om Google inte alltid avslöjar detaljer om varför de gör vad de gör, vet vi att Googles mål när man gör algoritmjusteringar är att förbättra den övergripande sökkvaliteten. Därför kommer Google att svara på frågor om algoritmuppdatering med något i linje med: ”Vi gör kvalitetsuppdateringar hela tiden.” Detta indikerar att om din webbsida drabbats efter en algoritmjustering, jämför den mot Googles Riktlinjer för Kvalitet eller Riktlinjer för Sökkvalitet. Båda är mycket avslöjande vad gäller sökmotorer önskar.

Vad vill sökmotorerna?

Sökmotorer har alltid velat samma sak: att ge användbara svar på sökarens frågor i de mest användbara formaten. Om det är sant, varför ser det ut som att SEO är annorlunda nu än tidigare år?

Tänk på det i termer att någon lär sig ett nytt språk.

Till en början är deras förståelse för språket mycket rudimentärt. Med tiden börjar deras förståelse fördjupas och de lär sig semantik – innebörden bakom språket och förhållandet mellan ord och fraser. Så småningom, efter tillräckligt med övning, kan eleven språket tillräckligt för att till och med förstå nyanser och kan ge svar på även vaga eller ofullständiga frågor.

När sökmotorerna precis började lära sig vårt språk var det mycket lättare att lura systemet genom att använda trick och taktik som faktiskt strider mot kvalitetsriktlinjer. Ta som exempel påfyllning av nyckelord. Om du ville rangordna för ett visst nyckelord som ”roliga skämt”, kunde du lägga till orden ”roliga skämt” en mängd gånger på din sida i hoppet om att öka din ranking för den termen:

Välkommen till roliga skämt! Vi berättar världens roligaste skämt. Roliga skämt är roliga och galna. Ditt roliga skämt väntar. Luta dig tillbaka och läs roliga skämt eftersom roliga skämt kan göra dig lycklig och roligare. Några roliga favorit skämt.

Denna taktik skapade fruktansvärda användarupplevelser, och istället för att skratta åt roliga skämt bombarderades personer med irriterande, svårläst text. Det kan ha fungerat tidigare, men det är aldrig vad sökmotorerna ville ha.

Rollen länkar spelar i SEO

När vi talar om länkar kan det betyda två saker. Backlinks eller ”inkommande länkar” är länkar från andra webbplatser vilka pekar mot din webbsida, medan interna länkar är länkar på din egen webbsida vilka pekar mot dina andra sidor (på samma webbsida).

Länkar har historiskt spelat en stor roll i SEO. Mycket tidigt behövde sökmotorer hjälp med att ta reda på vilka URLer som var mer tillförlitliga än andra, för att hjälpa dem att avgöra hur man skulle rangordna sökresultaten. Att beräkna antalet länkar som pekar på en given webbplats hjälpte dem att göra detta.

Backlinks fungerar i stort på samma sätt som i verkligheten och från mun till mun. Låt oss ta ett hypotetiskt kafé, Jennys Kafé, som exempel:

·         Hänvisningar från andra = gott tecken på tillförlitlighet

o Exempel: Flera olika personer har alla sagt att Jennys kaffe är det bästa i stan.

·         Hänvisningar från dig själv = partisk, så inte ett bra tecken på tillförlitlighet

o Exempel: Jenny hävdar att Jennys kaffe är bäst i stan

·         Hänvisningar från irrelevanta källor eller de av låg kvalitet = inte ett bra tecken på tillförlitlighet och kan till och med få dig flaggad för skräppost

o Exempel: Jenny betalade en mängd personer som aldrig har besökt hennes kafé att berättar för andra hur bra det är.

·         Inga hänvisningar = oklar tillförlitlighet

o Exempel: Jennys kaffe kan vara bra, men du har inte hittat någon som har en åsikt så du kan inte vara säker.

Det är därför sidrankning skapades. PageRank (del av Googles kärnalgoritm) är en algoritm för länkanalys uppkallad efter en av Googles grundare, Larry Page. PageRank uppskattar vikten av en webbsida genom att mäta kvaliteten och mängden länkar som pekar mot den. Antagandet är att ju mer relevant, viktig och pålitlig en webbsida är, desto fler länkar har den tjänat ihop.

Ju mer naturliga backlinks du har från webbplatser med hög tillförlitlighet, desto bättre är dina odds att rankas högre inom sökresultaten.

Rollen som innehåll spelar i SEO

Det skulle inte finnas någon mening med länkar om de inte riktade sökare till något. Att något är innehåll! Innehållet är mer än bara ord; det är allt som ska konsumeras av sökare – det finns videoinnehåll, bildinnehåll och naturligtvis text. Om sökmotorer är svarsmaskiner, då är innehållet det sätt på vilket sökmotorerna levererar dessa svar.

Varje gång någon utför en sökning finns det tusentals möjliga resultat. Så hur bestämmer sökmotorer vilka sidor sökaren kommer att finna värdefulla? En stor del av att bestämma var din sida skall rankas för en given fråga är hur väl innehållet på din sida matchar frågeställningens avsikt. Med andra ord, matchar den här sidan orden som sökts och hjälper det till att utföra uppgiften som sökaren försökte fullgöra?

På grund av detta fokus vad gäller användartillfredsställelse och utförande av uppgifter finns det inga strikta riktmärken för hur långt ditt innehåll skall vara, hur många gånger det skall innehålla ett nyckelord eller vad du sätter i dina rubriktaggar. Alla dessa kan spela en roll i hur bra en sida presterar i sökningen, men fokus bör vara på användarna som kommer att läsa innehållet.

Idag, med hundratals eller till och med tusentals rankningssignaler, har de tre i toppen hållit sig ganska konsekvent: länkar till din webbplats (som fungerar såsom en tredjeparts trovärdighetssignal), innehåll på sidan (kvalitativt innehåll som uppfyller en sökares avsikt) och RankBrain.

Vad är RankBrain?

RankBrain är maskininlärningskomponenten i Googles kärnalgoritm. Maskininlärning är ett datorprogram som fortsätter att förbättra sina förutsägelser över tid genom nya observationer och träningsdata. Med andra ord, det är alltid inlärande och eftersom det alltid lär sig bör sökresultaten ständigt förbättras.

Om exempelvis RankBrain märker att en lägre rankad URL som ger ett bättre resultat för användare än de högre rankade URLen, kan du ge dig på att RankBrain kommer att justera dessa resultat, flytta det mer relevanta resultatet högre och nedgradera de mindre relevanta sidorna som en biprodukt.

Liksom de flesta saker med sökmotorn vet vi inte exakt vad som innefattar RankBrain, men tydligen gör inte heller folket på Google det.

Vad betyder detta för SEO?

Eftersom Google kommer att fortsätta utnyttja RankBrain för att marknadsföra det mest relevanta, användbara innehållet, måste vi fokusera på att uppfylla sökarens avsikt mer än någonsin tidigare. Ge bästa möjliga information och upplevelse för sökare som kan landa på din sida, och då har du tagit ett stort första steg för att prestera bra i en RankBrain värld.

Engagemangsstatistik: korrelation, orsakssamband eller båda?

Med Googles rankningar är engagemangsmetrik troligtvis en del och en del orsak.

När vi säger engagemangsmetoder menar vi data som representerar hur sökare interagerar med din webbsida från sökresultat. Detta innefattar saker såsom:

·         Klick (besök från sökning)

·         Tid på sidan (den tid som besökaren tillbringade på en sida innan han lämnade den)

·         Avvisningsfrekvens (procentandelen av alla webbplatssessioner där användare bara tittade på en sida)

·         Pogo-sticking (klickar på ett organiskt resultat och återgår sedan snabbt till SERP för att välja ett annat resultat)

Många test, inklusive Mozs egna faktorundersökning för ranking har visat att engagemangsmetrik korrelerade med högre ranking, men orsakssamband har diskuterats mycket. Är god engagemangsstatistik bara en indikation på högt rankade webbplatser? Eller rankas webbplatser högt eftersom de har goda engagemangsmätningar?

Vad Google har sagt

Samtidigt som de aldrig har använt termen ”direkt rankingssignal” har Google varit tydligt att de absolut använder klick-data för att modifiera SERP för specifika frågor.

Enligt Googles tidigare chef för sökkvalitet, Udi Manber:

”Själva rankingen påverkas av klickdata. Om vi ​​upptäcker att för en viss fråga klickar 80 % av personerna på nr 2 och bara 10 % klickar på nr 1, efter ett tag räknar vi med att antagligen är nummer 2 den som folk vill ha, så vi kommer att byta det.”

En annan kommentar från den tidigare Google-ingenjören Edmond Lau bekräftar detta:

”Det är ganska tydligt att alla sökmotorer av vikt skulle använda klick-data på sina egna resultat för att återmata till ranking för att förbättra sökresultatens kvalitet. Den faktiska mekaniken för hur klick-data används är ofta proprietär, men Google gör det uppenbart att det använder klick-data med sina patent på system som rankingjusterade innehållsobjekt.”

Eftersom Google behöver upprätthålla och förbättra sökkvaliteten verkar det oundvikligt att engagemangsmetriker är mer än korrelation, men det verkar som om Google inte har några anropsmetoder som en ”rangordningssignal” eftersom dessa mätvärden används för att förbättra sökkvaliteten och rankning av enskilda webbadresser bara är en biprodukt av det.

Vilka test har bekräftat

Olika test har bekräftat att Google kommer att justera SERP-ordningen som svar på sökarens engagemang:

·         Rand Fishkins test 2014 resulterade i att ett Nr 7 resultat flyttade upp till plats 1 efter att ha fått cirka 200 personer att klicka på URLen från SERP. Intressant nog tycktes rankningsförbättringen vara isolerad till platsen där de personer som besökte länken levde. Rankingpositionen nådde topp i USA, där många deltagare bodde, medan den förblev lägre på sidan i Google Kanada, Google Australien, etc.

·         Larry Kims jämförelse av toppsidorna och deras genomsnittliga uppehållstid före och efter RangBrain tycktes tyda på att maskininlärningskomponenten i Googles algoritm visar rankningspositionen för sidor som folk inte lägger så mycket tid på.

·         Darren Shaws test har också visat att användarnas beteende påverkade på lokala sökresultat.

Eftersom användarnas engagemangsmetoder tydligt används för att anpassa SERPerna vad gäller kvalitet och rangordna positionsändringar som en del i detta, kan man säkert säga att SEOer bör optimeras för engagemang. Engagemang ändrar inte den objektiva kvaliteten på din webbsida, utan snarare ditt värde för sökare i förhållande till andra resultat för den frågan. Det är därför, efter inga ändringar på din sida eller dess backlinks, den kan sjunka i ranking om sökarnas beteende indikerar att de gillar andra sidor bättre.

När det gäller rankning av webbsidor fungerar engagemangsmetriker som en faktakontroll. Objektiva faktorer som länkar och innehåll rangordnar först sidan, sedan hjälper engagemangsmetrik Google att anpassa sig om den inte hade rätt.

Utvecklingen av sökresultat

Då när sökmotorerna saknade mycket av det sofistikerade de har idag, myntades termen ”10 blå länkar” för att beskriva den platta strukturen i SERP. Varje gång en sökning utfördes skickade Google tillbaka en sida med 10 organiska resultat, var och ett i samma format.

I detta söklandskap var SEO heliga graal att bibehålla plats 1. Men då hände något. Google började lägga till resultat i nya format på sina sidor, kallade SERP-funktioner. Några av dessa SERP-funktioner innefattade:

·         Betalda annonser

·         Utvalda utdrag

·         Folk frågar också rutor

·         Lokalt paket (karta)

·         Kunskapspanelen

·         Sidlänkar

Och Google lägger till nya hela tiden. De experimenterade till och med, med ”nollresultat SERPer”, ett fenomen där endast ett resultat från kunskapsgrafen visades på SERP utan resultat under den, med undantag för ett alternativ att ”visa fler resultat.”

Tillägget av dessa funktioner orsakade viss initial panik av två huvudsakliga skäl. Till en början den att många av dessa funktioner orsakade organiska resultat att sänkas ner ytterligare på SERP. En annan biprodukt är att färre sökare klickar på de organiska resultaten eftersom fler frågor besvaras på själva SERP.

Så varför gjorde Google detta? Allt går tillbaka till sökupplevelsen. Användarens beteende indikerar att vissa frågor är besvarade med olika innehållsformat. Lägg märke till hur de olika typerna av SERP-funktionerna matchar de olika typerna av frågeställningar.

Frågans SyfteMöjlig SERP-funktion som utlöses
InformativtUtvalda utdrag
Informativt med ett svarKunskapsdiagram / omedelbart svar
LokaltKartpaket
TransaktionellShopping

Vi kommer att prata mer angående avsikt i kapitel 3, men för tillfället är det viktigt att veta att svar kan levereras till sökare i en mängd olika format, och hur du strukturerar ditt innehåll kan påverka formatet som det visas i sökningen.

Lokaliserad sökning

En sökmotor som Google har sitt eget patenterade index för lokala företagsförteckningar, från vilka den skapar lokala sökresultat.

Om du utför lokalt SEO-arbete för ett företag som har en fysisk plats vilken kunder kan besöka (ex: tandläkare) eller för ett företag som reser för att besöka sina kunder (ex: rörmokare), se till att du gör anspråk på, verifierar och optimerar ett gratis Google My Business Listing.

När det gäller lokaliserade sökresultat använder Google tre huvudfaktorer för att bestämma ranking:

1. Relevans

2. Avstånd

3. Prominens

Relevans

Relevans är hur väl ett lokalt företag matchar vad sökaren letar efter. För att säkerställa att verksamheten gör allt den kan för att vara relevant för sökare, se till att företagets information är noggrant och korrekt ifylld.

Distans

Google använder din geografiska plats för att bättre ge dig lokala resultat. Lokala sökresultat är extremt känsliga vad gäller närhet, vilket avser platsen för sökaren och / eller den plats som anges i frågan (om sökaren inkluderade en).

Organiska sökresultat är känsliga vad gäller en sökares plats, men sällan så uttalade som i paket för lokala resultat.

Prominens

Med prominens som en faktor vill Google belöna företag vilka är välkända i den verkliga världen. Förutom ett företags offentliga framträdande tittar Google också på vissa faktorer online för att bestämma lokal ranking, till exempel:

Recensioner

Antalet Google recensioner som ett lokalt företag får, och innehållet i dessa recensioner har en betydande inverkan på deras förmåga att rankas i lokala resultat.

Listning

En ”företagslistning” eller ”företagsförteckning” är en webbaserad referens till ett lokalt företag (namn, adress, telefonnummer) på en lokal plattform (Yelp, Acxiom, YP, Infogroup, Localeze, etc.) .

Lokala rankningar påverkas av antalet och konsistensen i de lokala företagslistningarna. Google hämtar data från en mängd olika källor för att kontinuerligt skapa sitt lokala affärsindex. När Google hittar flera konsekventa referenser till ett företags namn, plats och telefonnummer stärker det Googles ”förtroende” för giltigheten av dessa uppgifter. Detta leder sedan till att Google kan visa verksamheten med högre grad av förtroende. Google använder också information från andra källor på webben, till exempel länkar och artiklar.

Organisk rangordning

SEOs bästa förfarande gäller även för lokal SEO, eftersom Google också beaktar en webbplats position i organiska sökresultat när man bestämmer lokal ranking.

I nästa kapitel kommer du att lära dig bästa metoder som hjälper Google och användare att bättre förstå ditt innehåll.

Kapitel 4: On-page SEO och innehåll

On-page SEO

Nu när du vet hur din målgrupp söker är det dags att dyka in i on-page SEO. Begreppet On-page är sättet att skapa webbsidor som svarar på sökandens frågor. On-page SEO är mångfacetterad och sträcker sig utöver innehåll till andra saker som scheman och metataggar, som vi kommer att diskutera längre om i nästa kapitel angående teknisk optimering. Just nu, ta fram din författareförmåga – det är dags att skapa ditt innehåll!

Skapa ditt innehåll

Tillämpa din efterforskning för sökord

I det förra kapitlet lärde vi oss om metoder för att upptäcka hur din målgrupp söker efter ditt innehåll. Nu är det dags att genomföra den efterforskningen i praktiken. Här är en enkel översikt att följa och tillämpa i din efterforskning av sökord:

1. Undersök dina nyckelord och gruppera dem med liknande ämnen och avsikter. Dessa grupper kommer vara dina sidor, snarare än att skapa enskilda sidor för varje sökordsvariant.

2. Om du inte redan har gjort det, utvärdera SERP för varje sökord eller grupp av nyckelord för att avgöra vilken typ och format ditt innehåll skall vara. Några egenskaper hos rankningssidor att notera:

A. Är de tunga bilder eller videos?

B. Är innehållet långt eller kort och tydligt?

C. Är innehållet formaterat i listor, punkter eller stycken?

3. Fråga dig själv: ”Vilket unikt värde kan jag erbjuda för att göra min sida bättre än de sidor som för närvarande rankar för mitt sökord?”

On-page SEO låter dig omvandla din efterforskning till innehåll som din publik kommer att älska. Se bara till att undvika att ramla i fällan med lågt värderad taktik vilken kan skada mer än hjälpa!

Lågt värderad taktik att undvika

Ditt webbinnehåll bör existera för att svara på sökares frågor, för att vägleda dem genom din webbplats och för att hjälpa dem att förstå webbplatsens syfte. Innehåll ska inte skapas i syfte att enbart ranka högt i sökningen. Ranking är ett medel för ändamål, där ändamålet är att hjälpa sökarna. Om vi sätter vagnen framför hästen riskerar vi att ramla i fällan med lågt värderad taktik och innehåll.

Vissa av dessa taktiker introducerades i kapitel 2 men genom granskning, låt oss ta en djupdykning i vissa lågt värderade taktiker som du bör undvika när du skapar optimerat sökmotorinnehåll.

Blekt innehåll

Det är vanligt att en webbplats har unika sidor om olika ämnen, men en äldre innehållsstrategi var att skapa en sida för varje enskild iteration av dina sökord för att rankas på första sidan för de dör högst specifika frågorna.

Om du till exempel sålde brudklänningar kunde du ha skapat enskilda sidor för brudklänningar och bröllopsklänningar, även om varje sida egentligen sa samma sak. En liknande taktik för lokala företag var att skapa flera sidor med innehåll för varje stad eller region från vilken de ville ha kunder från. Dessa ”geografiska sidor” hade ofta samma eller mycket liknande innehåll, med ortsnamnet som den enda unika faktorn.

Taktiker som dessa var helt klart inte användbar för användare, så varför gjorde utgivarna detta? Google var inte alltid lika bra som det är idag när det gäller att förstå förhållandena mellan ord och fraser (eller semantik). Så om du ville ranka på första sidan för ”brudklänningar” men du bara hade en sida om ”bröllopsklänningar”, kanske det inte ordnade saken.

Denna praxis skapade mängder av blekt innehåll av låg kvalitet på nätet vilket Google adresserade specifikt med sin uppdatering 2011, den så kallade Panda uppdateringen. Denna algoritmuppdatering straffade sidor av låg kvalitet, vilket resulterade i att sidor med högre kvalitet fick topplaceringar på SERPen. Google har fortsatt upprepa den här processen för nedmontering av innehåll med låg kvalitet och för att idag främja innehåll av hög kvalitet.

Google är tydliga med att du bör ha en omfattande sida om ett ämne istället för flera, svagare sidor för varje variant av ett sökord.

Duplicera innehåll

Som det låter avser ”duplicerat innehåll” det innehåll som delas mellan domäner eller mellan flera sidor i en enda domän. ”Skrapat” innehåll går ett steg längre och innebär det uppenbart obehöriga användandet av innehåll från andra webbplatser. Detta kan innefatta att ta innehåll och publicera som det är eller ändra det bara något innan du publicerar, utan att lägga till något originalinnehåll eller värde.

Det finns gott om legitima skäl för internt innehåll eller duplicerat innehåll varför Google uppmuntrar användningen av en rel=canonical tag för att peka på den ursprungliga versionen av webbinnehållet. Även om du inte behöver veta om den här taggen ännu, är det viktigaste att för närvarande notera att ditt innehåll skall vara unikt i ord och värde.

Cloaking

En grundläggande princip i riktlinjerna för sökmotorer är att visa samma innehåll till motorns sökrobotar som du skulle visa för en riktig besökare. Detta innebär att du aldrig skall dölja text i HTML-koden på din webbsida som en vanlig besökare inte kan se.

När denna riktlinje bryts, kallar sökmotorer det ”cloaking” och vidtar åtgärder för att förhindra att dessa sidor rankas i sökresultaten. Cloaking kan utföras på olika sätt och av olika skäl, både positiva och negativa. Nedan visas ett exempel där Spotify visade annat innehåll för användare än till Google.

Användarna presenterades en inloggningssida i Spotify när de sökte efter National Philharmonic Orchestra.

Om du tittade på Googles cache-version av sidan, visades innehållet Spotify tillhandahöll sökmotorn.

I vissa fall kan Google låta praxis som tekniskt är cloaking passera eftersom de bidrar till en positiv användarupplevelse.

Stoppning av nyckelord

Om du någonsin har fått höra ”Du måste inkludera {kritiskt nyckelord} på den här sidan X gånger” har du sett förvirringen över användande av sökord. Många tror felaktigt att om du bara inkluderar ett nyckelord i din sidas innehåll X gånger så kommer du automatiskt att rangordnas för det. Sanningen är, även om Google letar efter omnämnanden av nyckelord och relaterade koncept på din webbplats sidor, måste själva sidan tillföra värde bortom ren sökordsanvändning. Om en sida kommer att vara värdefull för användaren kommer den inte låta som om den var skriven av en robot, så för in dina sökord och fraser naturligt på ett sätt som är förståeligt för dina läsare.

Automatiskt genererat innehåll

Troligtvis är en av de mest stötande formerna av låg kvalitet på innehåll den typ som genereras automatiskt eller skapas programmerat med avsikt att manipulera sökrankningar och inte alls hjälpa användare. Du kanske känner igen en del av automatiskt genererade innehåll från hur lite mening det innehåller när du läser – det är tekniskt ord, men sammanflätade av ett program snarare än en människa.

Det är värt att notera att framstegen inom maskininlärning har bidragit till mer sofistikerat automatiskt genererat innehåll vilket bara kommer att bli bättre med tiden. Det är därför troligt att Google i sina riktlinjer för kvalitet för automatiskt genererat innehåll specifikt uppmärksammar om varumärken med automatiskt genererat innehåll som försöker manipulera sökrankning, snarare än allt automatiskt genererat innehåll.

Vad du ska göra istället: 10x det!

Det finns ingen ”hemlig lösning” för att rankning i sökresultaten. Google rankar sidor högt eftersom det har fastställt att de är dem bästa svaren på sökarens frågor. I dagens sökmotor räcker det inte att din sida inte dupliceras, genererar skräppost eller är trasig. Din sida måste ge värde för sökarna och vara bättre än någon annan sida som Google för närvarande serverar som svaret på en viss fråga. Här är en enkel formel för innehållsskapande:

·         Sök de sökord du vill att din sida ska rankas efter

·         Identifiera vilka sidor som rankas högst för dessa sökord

·         Bestäm vilka egenskaper dessa sidor har

·         Skapa innehåll som är bättre än så

Vi vill kalla detta 10x innehåll. Om du skapar en sida bara på ett nyckelord som är 10 gånger bättre än sidorna som visas i sökresultaten (för det sökordet) kommer Google att belöna dig för det, och ännu bättre, du kommer naturligtvis att få folk att länka till det! Att skapa 10x innehåll är hårt arbete, men kommer att ge utdelning i form av organisk trafik.

Kom bara ihåg att det inte finns något magiskt nummer när det gäller ord på en sida. Det vi borde sträva efter är vad som tillräckligt tillfredsställer användarens avsikt. Vissa frågor kan besvaras noggrant och korrekt med 300 ord medan andra kan kräva 1000 ord!

NAP: En notis för lokala företag

Om du är ett företag som träffar dina kunder personligen, se till att du inkluderar ditt företags namn, adress och telefonnummer (NAP) tydligt, korrekt och konsekvent i hela webbplatsens innehåll. Denna information visas ofta i sidfot eller sidhuvud på ett lokalt företags webbplats, liksom på alla ”kontakta oss” sidor.

Om du är ett företag med lokal på flera platser är det bäst att bygga unika, optimerade sidor för varje plats. Till exempel bör ett företag som har platser i Malmö, Göteborg och Stockholm överväga att ha en sida för varje:

example.com/goteborgexample.com/malmoexample.com/stockholm

Varje sida bör vara unikt optimerad för den platsen, så Stockholmssidan skulle ha unikt innehåll vilket diskuterar Stockholmsplatsen, listar Stockholms NAP och till och med recensioner specifikt från Stockholmskunder. Om det finns dussintals, hundratals eller till och med tusentals platser, kan en store locator widget användas för att hjälpa dig att skala.

Lokalt kontra nationellt kontra internationellt

Kom bara ihåg att inte alla företag verkar på lokal nivå och utför det vi kallar ”lokal SEO.” Vissa företag vill locka kunder på nationell nivå (ex: hela Sverige) och andra vill locka kunder från flera länder (”internationell SEO”). Ta till exempel Volvo. Deras produkt (SEO-programvara) är inte bunden till en specifik plats, medan ett kafés är, eftersom kunderna måste resa till platsen för att få sin koffein-fix.

I det här scenariot bör kaféet optimera sin webbplats för sin fysiska plats, medan Volvo skulle inrikta sig på ”SEO-programvara” utan en platsspecifik modifierare som ”Stockholm”

Hur du väljer att optimera din webbsida beror till stor del på din publik, så se till att du har dem i åtanke när du skapar webbsidans innehåll.

Hoppas att du fortfarande har lite energi kvar efter att ha hanterat den svåra, men givande uppgiften att sätta ihop en sida som är 10 gånger bättre än dina konkurrenters sidor, för det finns endast några fler saker som behövs innan din sida är klar! I nästa avsnitt kommer vi att prata om de andra optimeringarna på sidan som den behöver, samt att namnge och organisera ditt innehåll.

Bortom innehåll: andra optimeringar som dina sidor behöver

Kan jag bara öka teckenstorleken för att skapa rubriker?

Hur kan jag kontrollera vilken titel och beskrivning som visas på min sida i sökresultaten?

När du har läst det här avsnittet kommer du förstår andra viktiga element på sidan vilka hjälper sökmotorer att förstå det 10x innehåll du just har skapat, så låt oss dyka in!

Rubriktaggar

Rubriktaggar är ett HTML-element som används för att beteckna rubriker på din sida. Huvudrubrik, kallad H1, är vanligtvis reserverad för sidans titel. Den ser ut så här:

< h 1 > Sidtitel < / h 1 >

Rubriktaggar

Rubriktaggar är ett HTML-element som används för att beteckna rubriker på din sida. Huvudetiketten, kallad en H1, är vanligtvis reserverad för sidans titel. Det ser ut så här:

< h 1 > Sidtitel < / h 1 >

Det finns också underrubriker som sträcker sig från H2 till H6-taggar, även om det inte krävs att alla dessa används på en sida. Hierarkin med rubriktaggar går från H1 till H6 i fallande ordning av betydelse.

Varje sida bör ha en unik H1 som beskriver sidans huvudämne. Detta skapas ofta automatiskt utifrån sidans titel. Som huvudsakligt beskrivande titel på sidan bör H1 innehålla sidans primära nyckelord eller fras. Du bör undvika att använda rubriktaggar för att markera upp element som inte är rubrik, till exempel navigeringsknappar och telefonnummer. Använd rubriktaggar för att presentera innehåll som följer kommer att avhandla.

Ta denna sida om att turnera Köpenhamn, till exempel:

< h 1 > Köpenhamns reseguide < / h 1 > < h 2 > Köpenhamn under säsongerna < / h 2 > <h3> Besök på vintern < / h 3 > < h 3 > Besök på våren < / h 3 >

Huvudämnet på sidan introduceras i huvudsakliga < h 1 >, och varje ytterligare rubrik används för att introducera ett nytt underämne. I det här exemplet är < h 2 > mer specifika än < h 1 > och < h 3 > -taggarna är mer specifika än < h 2 >. Detta är bara ett exempel på en struktur du kan använda.

Även om det du väljer att sätta i dina rubriktaggar kan användas av sökmotorer för att utvärdera och rangordna din sida, är det viktigt att undvika att överdriva deras betydelse. Rubriktaggar är en bland många SEO-faktorer på sidan, och vanligtvis skulle de inte flytta nålen såsom kvalitativa backlinks och kvalitativt innehåll, så fokusera på dina besökare när du skapar dina rubriker.

Interna länkar

I kapitel 2 diskuterade vi vikten av att ha en sökbar webbsida. En del av en webbsidans förmåga till crawling ligger i dess interna länkstruktur. När du länkar till andra sidor på din webbsida ser du till att sökmotorns crawler kan hitta alla sidor på din webbplats. Du skickar länkkapital (rankningskraft) till andra sidor på din webbplats och hjälper besökare att navigera din webbplats.

Vikten av intern koppling är väl etablerad, men det kan finnas förvirring över hur det ser ut i praktiken.

Länktillgänglighet

Länkar som kräver ett klick (som en rullgardinsmeny för att visa) är ofta dolda för sökmotors sökrobotar så om de enda länkarna till interna sidor på din webbplats är genom dessa typer av länkar kan du ha problem med att få de sidorna indexerade. Välj istället länkar som är direkt tillgängliga på sidan.

Ankartext

Ankartext är den text som du länkar till sidor med. Nedan kan du se ett exempel på hur en hyperlänk utan ankartext och en hyperlänk med ankartext ser ut i HTML.

<a href=”http://www.example.com/”> </a> <a href=”http://www.example.com/” title=”Keyword Text”> Sökordstext </a>

I visning live skulle det se ut så här:

http://www.example.com/

Nyckelordstext

Ankartexten skickar signaler till sökmotorer angående innehållet på målsidan. Om jag till exempel länkar till en sida på min webbplats med ankartexten ”lära sig SEO”, är det en bra indikator för sökmotorer att den målsökta sidan är en plats där folk kan lära sig om SEO. Var dock noga med att inte överdriva. För många interna länkar som använder samma ankartext stoppad med sökord kan det för vissa sökmotorer verka som att du försöker manipulera en sidas ranking. Det är bäst att göra ankartexten naturlig snarare än formulerande.

Länkvolym

I Googles allmänna riktlinjer för webbansvariga säger de att man skall ”begränsa antalet länkar på en sida till ett rimligt antal (högst några tusen).” Detta är en del av Googles tekniska riktlinjer snarare än avsnittet om kvalitetsriktlinjer, så att ha för många interna länkar är inte något som i sig kommer att få dig straffad, men det påverkar hur Google hittar och utvärderar dina sidor.

Ju fler länkar på en sida, desto mindre kapital kan varje länk överföra till sin målsida. En sida har begränsat med mycket kapital att sprida.

Förutom att överföra behörighet mellan sidor är en länk också ett sätt att hjälpa användare att navigera till andra sidor på din webbplats. Detta är ett fall där man gör det bästa för sökmotorerna och gör det bästa för sökarna. För många länkar späder bara inte auktoriteten för varje länk, utan de kan också vara ohjälpsamma och överväldigande. Tänk på hur en sökare kan känna om han landar på en sida som ser ut så här:

Välkommen till vår trädgårdswebbplats! Vi har många artiklar om trädgårdsskötsel, hur man arbetar i trädgård, och användbara tips om örter, frukt, grönsaker, perenner och ettåriga växter. Läs mer om trädgårdsskötsel från vår trädgårdsblogg.

Puh! Det är inte bara så många länkar att bearbeta, utan när man läser det ser det också ganska onaturligt ut och innehåller inte mycket att ha (kan betraktas som ”blekt innehåll” av Google). Fokusera på kvalitet och hjälp dina användare att navigera på din webbplats, och du behöver förmodligen inte oroa dig om för många länkar.

Omdirigering

Att ta bort och byta namn på sidor är vanligt, men i händelse av att du flyttar en sida, se till att uppdatera länkarna till den gamla webbadressen! Åtminstone bör du se till att omdirigera webbadressen till dess nya plats, men om möjligt uppdatera alla interna länkar till den URLen i källan så att användare och sökrobotar inte behöver gå igenom omdirigeringar för att komma till destinationssidan. Om du bara väljer att omdirigera, var noga med att undvika omdirigeringskedja som är för långa (Google säger: ”Undvik att länka omdirigeringar för många gånger. Håll antalet omdirigeringar i kedjan få, helst högst 3 och färre än 5.”)

Exempel på en omdirigeringskedja:

(ursprunglig plats för innehållet) exempel.com/location1 → exempel.com/ location2 → (aktuell plats för innehåll) exempel.com/ location3

Bättre:

exempel.com/ location1 → exempel.com/ location3

Bildoptimering

Bilder är de mest skyldiga till långsamma webbsidor! Det bästa sättet att lösa för detta är att komprimera dina bilder. Även om det inte finns någon storlek som passar allt när det gäller bildkomprimering, att testa olika alternativ såsom ”spara för webb”, bildstorlek och komprimeringsverktyg såsom Optimizilla eller ImageOptim för Mac (eller Windows-alternativ), samt utvärdera det som fungerar bäst, är rätt väg att gå.

Ett annat sätt att hjälpa dig optimera dina bilder (och förbättra din sidhastighet) är genom att välja rätt bildformat.

Hur man väljer vilket bildformat som ska användas

·         Om din bild kräver animering, använd en GIF

·         Om du inte behöver bevara hög bildupplösning, använd JPEG (och testa olika komprimeringsinställningar)

·         Om du behöver bevara hög bildupplösning, använd PNG

o Om din bild har många färger, använd PNG-24

o Om din bild inte har många färger, använd PNG-8

Läs mer om hur du väljer bildformat i Googles bildoptimeringsguide.

Det finns olika sätt att behålla besökare på en medel långsam laddningssida genom att använda bilder som skapar en färgad ruta eller en mycket suddig / lågupplöst version, då får du besökarna att känna som om saker laddas snabbare. Vi diskuterar dessa alternativ mer detaljerat i kapitel 5.

Alt text

Alt-text (alternativ text) i bilder är en princip för webbtillgänglighet och används för att beskriva bilder för synskadade via skärmläsare. Det är viktigt att ha alt-text beskrivningar så att alla synskadade kan förstå vad bilderna på din webbplats visar.

Sökmotorbottar genomsöker också alt-text för att bättre förstå dina bilder, vilket ger dig den extra fördelen att ge bättre bildkontext till sökmotorer. Se bara till att dina alt-beskrivningar framstår naturligt för människor och undvik att fylla på med nyckelord för sökmotorer.

Dålig:

<img src = ”grumpycat.gif” alt = ”grumpy cat, cat is grumpy, grumpy cat gif”>

Bra:

<img src = ”grumpycat.gif” alt = ”A black cat looking very grumpy at a big dog”>

Skicka in en webbplatskarta

För att säkerställa att Google kan genomsöka och indexera dina bilder, skicka in en webbplatskarta på ditt Google Search Console-konto. Detta hjälper Google att upptäcka bilder som de annars har missat.

Formatera för läsbarhet & presenterade utdrag

Din sida kan innehålla det bästa innehållet som någonsin har skrivits om ett ämne, men om det har formaterats felaktigt kanske din publik aldrig läser det! Vi kan aldrig garantera att besökare läser vårt innehåll, men det finns några principer som kan främja läsbarheten, innefattande:

·         Textstorlek och färg – Undvik teckensnitt som är för små. Google rekommenderar 16-punkters teckensnitt och högre för att minimera behovet av att ”klämma och zooma” på mobilen. Textfärgen i förhållande till sidans bakgrundsfärg bör också främja läsbarheten. Ytterligare information om text finns i riktlinjerna för webbplatsens tillgänglighet och via Googles grundläggande riktlinjer för webbtillgänglighet.

·         Rubriker – Att bryta upp ditt innehåll med användbara rubriker kan hjälpa läsarna att navigera på sidan. Detta är särskilt användbart på långa sidor där en läsare kanske bara letar efter information från ett visst avsnitt.

·         Punktlistor – Perfekt för listor kan punktlistor hjälpa läsarna att skumma igenom och snabbare hitta den information de behöver.

·         Avsnittsbrott – Att undvika textväggar kan hjälpa till att förhindra borttagning av sidor och uppmuntra besökare på webbplats att läsa mer av din sida.

·         Stödjande media – Om det är lämpligt, inkludera bilder, video och widgetar som kan komplettera ditt innehåll.

·         Fet och kursiv för betoning – Att sätta ord i fetstil eller kursiv kan lägga tonvikt, så de bör vara undantaget, inte regeln. Lämplig användning av dessa formateringsalternativ kan framkalla viktiga punkter som du vill kommunicera.

Formatering kan också påverka din sidas förmåga att dyka upp i presenterade utdrag. Dessa ”position 0” -resultat som visas ovanför resten av organiska resultaten.

Det finns ingen speciell kod som du kan lägga till på din sida för att den skall dyka upp här, och du kan inte heller betala för den här placeringen, men om du tar del av frågeställningen kan du bättre strukturera ditt innehåll för presenterade utdrag. Om du till exempel försöker rangordna ”kaka kontra paj” kan det vara meningsfullt att inkludera en tabell i ditt innehåll, med fördelarna för kakan i en kolumn och fördelarna med paj i den andra. Eller om du försöker högt enligt ”bästa restauranger att prova i Malmö”, kan det indikera att Google vill ha en lista, så att formatera ditt innehåll i punkter kan hjälpa.

Titel taggar

En sidas titeltagg är ett beskrivande HTML-element som anger titeln på en viss webbsida. De är kapslade i huvudetiketten på varje sida och ser ut såhär:

<head> <title> Exempel Titel </title> </head>

Varje sida på din webbplats bör ha en unik, beskrivande titel tagg. Det du matar in i ditt fält för titelmärkning kommer att visas här i sökresultaten, även om Google i vissa fall kan justera hur din titeltagg visas i sökresultaten.

Det kan också dyka upp i webbläsare.

Eller när du delar länken till din sida på vissa externa webbplatser.

Din titel tagg spelar en stor roll i personens första intryck av din webbplats, och det är ett otroligt effektivt verktyg för att dra besökare till din sida, överträffa alla andra resultat på SERP. Ju mer övertygande din titel tagg, i kombination med hög ranking i sökresultaten, desto fler besökare kommer du att locka till din webbplats. Detta understryker att SEO inte bara handlar om sökmotorer utan snarare hela användarupplevelsen.

Vad är en effektiv titeltagg?

·         Användning av nyckelord: Att ha ditt sökord i titeln kan hjälpa både användare och sökmotorer att förstå vad din sida handlar om. Ju närmare framsidan av titel taggen dina sökord är, desto mer sannolikt kommer en användare att läsa dem (och förhoppningsvis klicka) och desto mer användbara kan de vara för rankning.

·         Längd: Sökmotorerna visar i genomsnitt de första 50–60 tecknen (ca 512 pixlar) i en titeltagg i sökresultaten. Om din titel tagg överskrider de tecken som är tillåtna på SERP, kommer en ellips ”…” att visas där titeln blir avskuren. Även om det är säkert att hålla sig till 50–60 tecken, skall du aldrig offra kvalitet för strikt teckenantal. Om du inte kan få din titeltagg till 60 tecken utan att skada dess läsbarhet, gör den längre (inom rimlighet).

·         Branding: Hos oss älskar vi att avsluta våra titeltaggar med ett varumärkesnamn eftersom det främjar varumärkesmedvetenhet och skapar en högre klickfrekvens bland personer som känner till oss. Ibland är det vettigt att placera ditt varumärke i början av titel taggen, till exempel på din hemsida, men tänk på vad du försöker rangordna och placera dessa ord närmare början på din titel tagg.

Meta beskrivningar

Liksom titeltaggar är metabeskrivningar HTML-element vilka beskriver innehållet på sidan som de finns på. De är också kapslade i huvudtaggen och ser ut så här:

<head> <meta name = ”description” content = ”Description of page here.” /> </head>

Detta hjälper ofta till att förbättra dina metabeskrivningar för unika sökningar. Låt dock inte detta avskräcka dig från att skriva en metabeskrivning för sidan – de är fortfarande extremt värdefulla.

Vad utgör en effektiv metabeskrivning?

De egenskaper som utgör en effektiv titeltagg gäller också effektiva metabeskrivningar. Även om Google säger att metabeskrivningar inte är en rankningsfaktor, såsom titeltaggar, är de otroligt viktiga för klickfrekvens.

·         Relevans: Metabeskrivningar bör vara mycket relevanta för innehållet på din sida, så det bör sammanfatta ditt nyckelkoncept i någon form. Du bör ge sökaren tillräckligt med information för att de skall veta att de har hittat en sida som är tillräckligt relevant för att få sin fråga besvarad, utan att avslöja så mycket information att det eliminerar behovet av att klicka igenom till din webbsida.

·         Längd: Sökmotorer tenderar att korta av metabeskrivningar till cirka 155 tecken. Det är bäst att skriva metabeskrivningar mellan 150–300 tecken i längd. På vissa SERP kommer du att märka att Google ger mycket mer utrymme till beskrivningarna på vissa sidor. Detta händer vanligtvis för webbsidor som rankas precis under ett presenterat utdrag.

URL-struktur: Namnge och organisera dina sidor

URL står för Uniform Resource Locator. URLar är platser eller adresser för enskilda innehåll på webben. Liksom titeltaggar och metabeskrivningar visar sökmotorer URLar på SERPerna, så URL-namn och format kan påverka klickfrekvensen. Sökare använder inte bara dem för att fatta beslut om vilka webbsidor de skall klicka på, webbadresser används också av sökmotorer för att utvärdera och rangordna sidor.

Tydlig namngivning av sida

Sökmotorer kräver unika webbadresser för varje sida på din webbplats så att de kan visa dina sidor i sökresultat, men tydlig URL-struktur och namngivning är också bra för personer som försöker förstå vad en specifik URL handlar om. Vilken URL är till exempel tydligare?

example.com/desserts/chocolate-pie

eller

example.com/asdf/453?=recipe-23432-1123

Det är troligare att sökare klickar på webbadresser som förstärker och klargör vilken information som finns på den sidan och mindre troligt att de klickar på webbadresser som förvirrar dem.

Webbadressen är en mindre rankningsignal, men du kan inte förvänta dig att bli rangordnad enbart på grundval av orden i domän- / sidnamn (se Google EMD-uppdatering). När du namnger dina sidor eller väljer ett domännamn skall du ha din målgrupp i åtanke först.

Sidorganisation

Om du avhandlar flera ämnen på din webbplats bör du också se till att undvika sidor under irrelevanta mappar. Till exempel:

example.com/commercial-litigation/alimony

Det hade varit bättre för den här fiktiva webbplatsen för flera praktiserande advokatbyråer att lägga alimony (underhåll) under ”/ familjerätt /” än under den irrelevanta delen ”/ kommersiell rättstvist /” på webbplatsen.

Mapparna där du hittar ditt innehåll kan också skicka signaler om typen, inte bara ämnet, för ditt innehåll. Till exempel kan daterade webbadresser indikera tidskänsligt innehåll. Även om de är lämpliga för nyhetsbaserade webbplatser, kan daterade webbadresser för tidlöst innehåll faktiskt få sökare att undvika den eftersom informationen verkar föråldrad. Till exempel:

example.com/2015/april/what-is-seo/

mot

example.com/what-is-seo/

Eftersom ämnet ”Vad är SEO?” inte är begränsad till ett specifikt datum, är det bäst att den ligger på en icke-daterad URL-struktur annars riskeras att din information tycks föråldrad.

Som du kan se, vad du namnger dina sidor och i vilka mappar du väljer att organisera dina sidor under är ett viktigt sätt att förtydliga ämnet på din sida för användare och sökmotorer.

URL-längd

Även om det inte är nödvändigt att ha en helt platt URL-struktur, indikerar många studier om klickfrekvens att vid valet mellan en URL och en kortare URL, föredrar sökare ofta kortare webbadresser. Liksom titeltaggar och metabeskrivningar som är för långa, kommer för långa URLer också att kapas av med en ellips. Kom bara ihåg att det är lika viktigt att ha en beskrivande URL, så kapa inte ner URL-längden om det innebär att detta offrar URLens beskrivande del.

example.com/services/plumbing/plumbing-repair/toilets/leaks/

mot

example.com/plumbing-repair/toilets/

Minimering av längden, både genom att ha färre ord i dina sidonamn och att ta bort onödiga undermappar, gör dina webbadresser enklare att kopiera och klistra in, såväl som mer klickbara.

Nyckelord i URL

Om din sida riktar sig mot en specifik term eller fras, se till att inkludera den i webbadressen. Gå dock inte till överdrift genom att försöka fylla i flera sökord av rent SEO-syften. Det är också viktigt att se upp för upprepade sökord i olika undermappar. Som exempel kan du naturligtvis ha inkorporerat ett nyckelord i ett sidnamn, men om det finns i andra mappar vilka också är optimerade med det sökordet, kan URL-adressen börja verkad stoppad med nyckelord.

Exempel:

example.com/seattle-dentist/dental-services/dental-crowns/

Överanvändning av sökord i URLer kan vara spam-iga och manipulerande. Om du inte är säker på om din sökordsanvändning är för aggressiv läser du bara din URL genom en sökares ögon och frågar: ”Ser det här naturligt ut? Skulle jag klicka på det här?”

Statiska URLer

De bästa webbadresserna är de som lätt kan läsas av personer, så du bör undvika överanvändning av parametrar, siffror och symboler. Med hjälp av teknologier såsom mod_rewrite för Apache och ISAPI_rewrite för Microsoft kan du enkelt omvandla dynamiska webbadresser så här:

http://moz.com/blog?id=123

till en mer läsbar statisk version som denna:

https://moz.com/google-algorithm-change

Bindestreck för ordseparation

Inte alla webbapplikationer tolkar separatorer såsom understreck (_), plustecken (+) eller mellanslag (% 20) korrekt. Sökmotorer förstår inte heller hur man ska skilja ord i URLer när de körs utan en separator (exempel.com/optimizefeaturedsnippets/). Använd istället bindestreck (-) för att skilja ord i en URL.

Känslighet för teckenformat

Webbplatser bör undvika URL känsliga för teckenformat. I stället för exempel.com/desserts/Chocol-Pie-Recipe skulle det vara bättre att använda exempel.com/desserts/chocol-pie- recept. Om webbplatsen du arbetar med har mängder av URL-adresser med gemener och versaler, oroa dig inte – dina utvecklare kan hjälpa. Be dem lägga till en omskrivningsformel i något som kallas .htaccess-filen för att automatiskt göra alla URL-adresser med stora bokstäver till små.

Geografiska modifierare i URLer

Vissa lokala företagare utesluter geografiska termer vilka beskriver deras fysiska plats eller serviceområde eftersom de tror att sökmotorer kan räkna ut detta på egen hand. Tvärtom, det är viktigt för lokala företags webbplatsers innehåll, webbadresser och andra tillgångar på sidan specifikt nämner stadsnamn och andra regionala beskrivningar. Låt både konsumenter och sökmotorer vet exakt var du är och var du betjänar, snarare än att enbart lita på din fysiska plats.

Protokoll: HTTP kontra HTTPS

Ett protokoll är det där ”http” eller ”https” före ditt domännamn. Google rekommenderar att alla webbplatser har ett säkert protokoll (”s” i ”https” står för ”säkert”). För att se till att dina webbadresser använder https: // -protokollet istället för http: //, måste du få ett SSL-certifikat (Secure Sockets Layer). SSL-certifikat används för att kryptera data. De säkerställer att all information som skickas mellan webbservern och sökarens webbläsaren förblir privat. Från och med juli 2018 visar Google Chrome ”inte säker” för alla HTTP-webbplatser, vilket kan leda till att dessa webbplatser verkar opålitliga för besökarna och resultera i att de lämnar webbplatsen.

Källa: moz.com

Kapitel 3: Hitta rätt nyckelord

Nyckelord till din SEO

Förstå vad din publik vill hitta.

Nu när du har lärt dig hur du dyker upp i sökresultaten, låt oss bestämma vilka strategiska nyckelord som du vill rikta in dig på i webbsidans innehåll och hur du skapar det innehållet så att det tillfredsställer både användare och sökmotorer.

Kraften i efterforskning av sökord ligger i att bättre förstå din målmarknad och hur de söker efter ditt innehåll, tjänster eller produkter.

Efterforskning av sökord ger dig specifik sökdata som kan hjälpa dig att svara på frågor såsom:

·         Vad söker personer efter?

·         Hur många personer söker efter det?

·         I vilket format vill de ha den informationen?

I det här kapitlet får du verktyg och strategier för att avslöja den informationen, såväl som att lära dig taktik vilken hjälper dig att undvika problem med efterforskning av sökord och bygga starkt innehåll. När du har upptäckt hur din målgrupp söker efter ditt innehåll börjar du avslöja en helt ny värld av strategisk SEO!

Ställ frågor innan efterforskning av sökord

Innan du kan hjälpa ett företag att växa genom sökmotoroptimering måste du först förstå vem de är, vem deras kunder är och deras mål.

Det är där man ofta tar genvägar. Alltför många hoppar över detta avgörande planeringssteg eftersom efterforskning av sökord tar tid och varför spendera tiden när du redan vet vad du vill rangordna?

Svaret är att vad du vill rangordna för och vad din publik faktiskt vill ha ofta är två väldigt olika saker. Att fokusera på din publik och sedan använda sökordsdata för att finslipa dessa insikter kommer att skapa mycket mer framgångsrika kampanjer, än att fokusera på godtyckliga nyckelord.

Här är ett exempel. Frankie & Jo’s (en vegan, glutenfri glassbutik i Osby) har hört talas om SEO och vill ha hjälp med att förbättra hur och hur ofta de dyker upp i organiska sökresultat. För att hjälpa dem måste du först förstå lite mer om deras kunder. För att göra det kan du ställa frågor som:

·         Vilka typer av glass, desserter, snacks etc. söker människor efter?

·         Vem söker efter dessa termer?

·         När söker människor efter glass, snacks, desserter etc.?

o Finns det tendenser till säsong under året?

·         Hur söker personer efter glass?

o Vilka ord använder de?

o Vilka frågor ställer de?

o Gör fler sökningar på mobila enheter?

·         Varför söker personer efter glass?

o Söker individer specifikt efter hälsomedveten glass eller vill de bara tillfredsställa ett sug?

·         Var finns potentiella kunder – lokalt, nationellt eller internationellt?

Och slutligen – här är slutklämmen – hur kan du hjälpa till att ge det bästa innehållet om glass för att odla en gemenskap och uppfylla vad alla dessa människor söker efter? Att ställa dessa frågor är ett avgörande planeringssteg som kommer att styra din efterforskning av sökord och hjälpa dig att skapa bättre innehåll.

Vilka termer söker personer efter?

Du kan ha ett sätt att beskriva vad du gör, men hur söker din publik efter produkten, tjänsten eller informationen du tillhandahåller? Att besvara denna fråga är ett avgörande första steg i processen för efterforskning av sökord.

Upptäck nyckelord

Du har troligen några nyckelord i åtanke som du vill rankas efter. Det här är saker som dina produkter, tjänster eller andra uppgifter som din webbsida adresserar, och de är fantastiska nyckelord för din efterforskning, så börja där! Du kan ange dessa nyckelord i ett sökordsverktyg för att upptäcka genomsnittlig månatlig sökvolym av liknande sökord. Vi kommer att ge oss in på sökvolym mer djupgående i nästa avsnitt, men under upptäcktsfasen kan det hjälpa dig att avgöra vilka varianter på dina sökord som är mest populära bland sökare.

När du väl skriver in dina nyckelord i ett efterforskningsverktyg för nyckelord kommer du att börja upptäcka andra sökord, vanliga frågor och ämnen för ditt innehåll vilka du annars skulle ha missat.

Låt oss använda exemplet på en blomsterhandlare som är specialiserad på bröllop.

Om du skriver ”bröllop” och ”blomsterhandlare” i ett sökordsverktyg kan du upptäcka mycket relevanta, mycket sökta efter relaterade termer som:

·         Bröllopsbuketter

·         Brudblommor

·         Blomsterhandel Bröllops

När du hittar relevanta nyckelord för ditt innehåll kommer du troligen märka att sökvolymen för dessa sökord varierar mycket. Även om du definitivt vill rikta in dig på termer som din publik söker efter, kan det i vissa fall vara mer fördelaktigt att rikta in sig på termer med lägre sökvolym eftersom de är mycket mindre konkurrenskraftiga.

Eftersom både nyckelord med hög konkurrens och låg konkurrens kan vara fördelaktiga för din webbsida kan du lära dig mer om sökvolym för att prioritera sökord och välja de som kommer att ge din webbsida den största strategiska fördelen.

Hur ofta söks dessa termer?

Upptäck sökvolym

Ju högre sökvolym för ett visst nyckelord eller nyckelfras, desto mer arbete krävs vanligtvis för att uppnå högre ranking. Detta kallas ofta svårigheter med nyckelords och innehåller ibland SERP-funktioner. Som exempel, om många SERP-funktioner (såsom presenterade utdrag, kunskapsgraf, karuseller osv) täpper till ett sökords resultatsida, kommer svårigheterna att öka. Stora varumärken tar ofta de 10 bästa resultaten för nyckelord med hög volym i anspråk, så om du bara börjat på webben och använder samma nyckelord kan kampen om att lyfta i ranking ta flera år av ansträngning.

Vanligtvis gäller att desto högre sökvolym, desto större konkurrens och ansträngning krävs för att uppnå organisk rankning. Dock, att sikta för lågt riskerar att inte att dra några sökare till din webbsida. I många fall kan det vara mest fördelaktigt att rikta in sig på mycket specifika, termer med mindre konkurrens. I SEO kallar vi dessa long-tail nyckelord.

Att förstå long tail

Det skulle vara bra att rankas som nr 1 för nyckelordet ”skor”, eller skulle det?

Det är underbart att hantera nyckelord som har 50 000 sökningar i månaden, eller till och med 5 000 sökningar i månaden, men i själva verket utgör dessa populära söktermer bara en bråkdel av alla sökningar som utförs på webben. Faktum är att nyckelord med mycket höga sökvolymer till och med kan indikera tvetydigt avsikt, vilka, om du siktar in dig på dessa termer, kan riskera att dra besökare till din webbplats vars mål inte stämmer överens med innehållet på din sida.

Vill sökaren veta näringsvärdet på pizza? Beställa en pizza? Hitta en restaurang för att ta sin familj till? Google vet inte det, så de erbjuder dessa funktioner vilka hjälper dig att förfina. Inriktning på ”pizza” innebär att du troligtvis kastar ett för stort nät.

Om du söker efter ”pizza” tror Google att du också kan vara intresserad av ”ost.” De har inte fel.

Var din avsikt att hitta en pizza för lunch? SERP-funktionen ”Upptäck fler platser” täcker det.

De återstående 75 % ligger i sökningens ”chunky middle” och ”long tail”.

Underskott inte dessa mindre populära sökord. Long tail nyckelord med lägre sökvolym konverterar ofta bättre eftersom sökare är mer specifika och avsiktliga i sina sökningar. Till exempel surfar en person som söker efter ”skor” förmodligen bara. Å andra sidan har någon som söker efter ”bästa pris röda löparskor dam i storlek 7” praktiskt taget sin plånbok framme!

Att bli strategisk med sökvolym

Nu när du har upptäckt relevanta söktermer för din webbsida och deras motsvarande sökvolymer kan du bli ännu mer strategisk genom att titta på dina konkurrenter och ta reda på hur sökningar kan skilja sig efter säsong eller plats.

Nyckelord för konkurrent

Du kommer sannolikt att sammanställa många sökord. Hur vet du vad du ska ta itu med först? Det kan vara en bra idé att prioritera nyckelord med hög volym vilka dina konkurrenter för närvarande inte rankar för. Samtidigt kan du också kan se vilka nyckelord från din lista dina konkurrenter redan rankar för och prioritera dem. Det förstnämnda är fantastiskt när du vill utnyttja dina konkurrenters missade möjligheter, samtidigt som det senare är en aggressiv strategi vilken gör att du kan tävla om sökord vilka dina konkurrenter redan har bra resultat för.

Nyckelord efter säsong

Att känna till om säsongsbetonade trender kan vara fördelaktigt när man sätter en innehållsstrategi. Om du till exempel vet att ”julask” börjar nå sin topp från oktober till december i Sverige, kan du förbereda innehåll månader i förväg och ge det en stor push runt de månaderna.

Nyckelord efter region

Du kan mer strategiskt rikta in dig på en specifik plats genom att begränsa din efterforskning av sökord till specifika städer, län eller landskap i Google Keyword Planner eller utvärdera ”intresse efter subregion” i Google Trends. Geografiskt specifik efterforskning kan hjälpa dig att göra ditt innehåll mer relevant för din målgrupp. Som exempel kan du ta reda på att i Dalarna är den föredragna termen för en stor lastbil ”truck”, medan ”tradare” är den föredragna terminologin i Skåne.

Vilket format passar bäst för sökarens avsikt?

I kapitel 2 lärde vi oss om SERP-funktioner. Den bakgrunden kommer att hjälpa oss att förstå hur sökare vill konsumera information för ett visst nyckelord. Formatet som Google väljer att visa sökresultat beror på avsikt, och varje fråga har en unikt. Google beskriver dessa avsikter i sina Quality Rater Guidelines vilka antingen ”vet” (hitta information), ”gör” (uppnå ett mål), ”webbsida” (hitta en specifik webbsida) eller ”besök personligen” (besök ett lokal företag).

Samtidigt som det finns tusentals möjliga söktyper, låt oss titta närmare på fem huvudkategorier vad gäller avsikt:

1.Informationsfrågor: Sökaren behöver information, till exempel namnet på ett band eller höjden på Empire State Building.

2. Navigeringsfrågor: Sökaren vill gå till en viss plats på Internet, till exempel Facebook eller SHLs hemsida.

3. Transaktionsfrågor: Sökaren vill göra något, till exempel köpa en flygbiljett eller lyssna på en låt.

4. Kommersiell utredning: Sökaren vill jämföra produkter och hitta den bästa för deras specifika behov.

5. Lokala frågor: Sökaren vill hitta något lokalt, till exempel ett kafé i närheten, läkare eller musikplats.

Ett viktigt steg i processen för efterforskning av sökord är att kartlägga SERP-landskapet för det sökord du vill rikta in dig på för att få ett bättre mått på sökarens avsikt. Om du vill veta vilken typ av innehåll din målgrupp vill ha, se till SERPerna!

Google har noggrant utvärderat beteendet hos miljarder sökningar i ett försök att tillhandahålla det mest önskade innehållet för varje specifik sökning av ord.

Ta till exempel sökningen ”klänningar”:

Genom shoppingkarusellen kan du dra slutsatsen att Google har bestämt att många personer som söker efter ”klänningar” vill handla klänningar online.

Det finns också en Local Pack-funktion för det här sökordet, vilken indikerar Googles önskan att hjälpa sökare som kanske letar efter lokala klädförsäljare.

Om frågan är tvetydig kommer Google ibland att inkludera funktionen ”förfina efter” för att hjälpa sökare att ytterligare specificera vad de letar efter. Genom att göra detta kan sökmotorn ge resultat vilka bättre hjälper sökaren att utföra sin uppgift.

Google har ett brett utbud av resultattyper som de kan servera beroende på frågan, så om du kommer att rikta in dig på ett nyckelord, titta till SERP för att förstå vilken typ av innehåll du behöver skapa.

Verktyg för att bestämma värdet på ett sökord

Hur mycket värde skulle ett nyckelord tillföra din webbplats? Dessa verktyg kan hjälpa dig att besvara den frågan, så de skulle vara bra tillägg till din arsenal av efterforskning för sökord:

·         Moz Keyword Explorer – Ange ett nyckelord i Keyword Explorer och få information såsom månadsvis sökvolym och SERP-funktioner (såsom lokala paket eller presenterade utdrag) vilka rankas för den termen. Verktyget extraherar exakt sökvolymdata med live klickströmdata. För att lära dig mer om hur vi producerar vår sökorddata, kolla in Announcing Keyword Explorer.

Bonus! Keyword Explorers poäng för ”Svårighetsgrad” kan också hjälpa dig att begränsa dina sökordsalternativ till de fraser du har bäst möjlighet att rangordna. Ju högre ett sökords poäng är, desto svårare skulle det vara att rangordna för den termen.

·         Google Keyword Planner – Googles AdWords Keyword Planner har historiskt sett varit den vanligaste utgångspunkten för efterforskning av sökord till SEO. Emellertid begränsar sökordsplaneraren sökvolymdata genom att klumpa samman nyckelord till stora sökvolymintervaller.

·         Google Trends – Googles verktyg för trender gällande nyckelord är bra för att hitta säsongsbetonade svängningar av nyckelord. Som exempel kommer ”roliga idéer för Halloweenkostym” att toppa veckorna före Halloween.

·         AnswerThePublic – Detta gratisverktyg innehåller populära sökningar efter frågor kring ett specifikt nyckelord. Bonus! Du kan använda det här verktyget i tandem med ett annat fritt verktyg, Keywords Everywhere, för att prioritera ATPs förslag efter sökvolym.

·         SpyFu Keywords Research Tool – Ger en del verkligen bra konkurrenskraftig sökordsdata.

Källa: moz.com

Kapitel 5: teknisk SEO

Teknisk SEO

Grundläggande teknisk kunskap hjälper dig att optimera din webbplats för sökmotorer och skapa trovärdighet hos utvecklare.

Nu när du har skapat värdefullt innehåll på grundval av en solid efterforskning av sökord är det viktigt att se till att det inte bara är läsbart för personer utan också av sökmotorer!

Du behöver inte ha en djup teknisk förståelse vad gäller dessa koncept, men det är viktigt att förstå vad dessa tekniska tillgångar gör så att du kan tala intelligent om dem med utvecklare. Att tala dina utvecklares språk är viktigt eftersom du förmodligen behöver dem för att utföra några av dina optimeringar. Det är osannolikt att de prioriterar dina frågor om de inte kan förstå din begäran eller se dess betydelse. När du skapar trovärdighet och förtroende för dina enheter, kan du börja riva bort byråkratin som ofta hindrar avgörande arbete från att bli gjort.

Utöver support på flera håll är det viktigt att förstå teknisk optimering av SEO om du vill se till att dina webbsidor är strukturerade för både människor och sökrobotar. Därför har vi delat upp detta kapitel i tre avsnitt:

1. Hur webbplatser fungerar

2. Hur sökmotorer förstår webbplatser

3. Hur användare interagerar med webbplatser

Eftersom den tekniska strukturen på en webbplats kan ha en enorm inverkan på dess prestanda är det avgörande för alla att förstå dessa principer. Det kan också vara en bra idé att dela denna del av guiden med dina programmerare, innehållsförfattare och designers så att alla parter som är involverade i en sajtkonstruktion är enade.

Hur webbplatser fungerar

Om sökmotoroptimering är processen för att optimera en webbplats för sökning, behöver skapare av SEO åtminstone en grundläggande förståelse för det de optimerar!

Nedan beskriver vi webbplatsens resa från köp av domännamn till dess fullt återgivna tillstånd i en webbläsare. En viktig komponent i webbplatsens resa är rendering vilken är processen då  en webbläsare förvandlar en webbsidas kod till en synlig sida.

Att veta detta om webbplatser är viktigt för skapare av SEO att förstå av några anledningar:

·         Stegen i den här sammansättningsprocessen för webbsidan kan påverka belastningstider, och hastighet är inte bara viktigt för att hålla kvar användare på din webbplats, det är också en av Googles rankingfaktorer.

·         Google renderar vissa resurser, såsom JavaScript, på ett ”andra pass”. Google kommer först att titta på sidan utan JavaScript, därefter några dagar till några veckor senare kommer den att rendera JavaScript, vilket innebär att SEO-kritiska element som läggs till på sidan med hjälp av JavaScript kanske inte kommer att indexeras.

Föreställ dig att webbplatsens laddningsprocess är din pendling till arbetet. Du gör dig redo hemma, samlar ihop dina saker att ta med till kontoret och tar sedan den snabbaste vägen från ditt hem till ditt arbete. Det vore dumt att bara ta på dig av dina skor, ta en längre väg till arbetet, släppa dina saker på kontoret och sedan omedelbart återvända hem för att ta på din andra skor, eller hur? Det är på sätt och vis vad ineffektiva webbplatser gör. I detta kapitel kommer du att lära dig hur du kan diagnostisera var din webbplats kan vara ineffektiv, vad du kan göra för att effektivisera och de positiva konsekvenserna av din ranking och användarupplevelse som kan vara resultatet av den effektiviseringen.

Innan en webbplats kan nås måste den installeras!

1. Domännamn köps. Domännamn som .com köps från en registrator av domännamn. Dessa registratorer är endast organisationer vilka hanterar reservationer av domännamn.

2. Domännamnet länkas till IP-adress. Internet förstår inte namn såsom ”abba.com” som webbplatsadresser utan hjälp av domännamnservrar (DNS). Internet använder en serie nummer som kallas IP-adress (ex: 127.0.0.1), men vi vill använda namn som abba.com eftersom de är lättare för människor att komma ihåg. Vi måste använda en DNS för att länka de mänskliga läsbara namnen med nummer läst av maskin.

Hur en webbplats når från server till webbläsare

1. Användare begär domän. Nu när namnet är länkat till en IP-adress via DNS kan personer begära en webbplats genom att skriva domännamnet direkt i sin webbläsare eller genom att klicka på en länk till webbplatsen.

2. Webbläsaren gör förfrågningar. Den begäran om en webbsida uppmanar webbläsaren att göra en DNS sökningsbegäran för att konvertera domännamnet till sin IP-adress. Webbläsaren gör sedan en begäran till servern om koden din webbsida är konstruerad med, till exempel HTML, CSS och JavaScript.

3. Servern skickar resurser. När servern har fått begäran om webbplatsen skickar den webbplatsfilerna som ska monteras i sökarens webbläsare.

4. Webbläsaren sätter ihop webbsidan. Webbläsaren har nu fått resurserna från servern, men den måste fortfarande sätta ihop allt och skapa webbsidan så att användaren kan se den i sin webbläsare. När webbläsaren analyserar och organiserar alla webbsidans resurser skapar den en Document Object Model (DOM). DOM är vad du kan se när du högerklickar och ”inspekterar element” på en webbsida i din Chrome webbläsare.

5. Webbläsaren gör slutliga förfrågningar. Webbläsaren kommer bara att visa en webbsida efter att all nödvändig kod har laddats ner, tolkats och körts, så när webbläsaren behöver någon ytterligare kod för att visa din webbplats kommer den att göra en ytterligare begäran från din server.

6. Webbplatsen visas i webbläsaren. I slutändan har din webbplats nu omvandlats (renderats) från kod till vad du ser i din webbläsare.

Nu när du vet hur en webbplats visas i en webbläsare kommer vi att fokusera på vad en webbplats är gjord av – med andra ord koden (programmeringsspråk) som används för att konstruera dessa webbsidor.

De tre vanligaste är:

·         HTML – Vad en webbplats säger (titlar, grundläggande innehåll etc.)

·         CSS – Hur en webbplats ser ut (färg, teckensnitt etc.)

·         JavaScript – Hur den beter sig (interaktivt, dynamiskt osv.)

HTML: Vad en webbplats säger

HTML står för hypertext markup language, och det fungerar som ryggraden på en webbplats. Element som rubriker, stycken, listor och innehåll definieras i HTML.

HTML är viktigt för skapare av SEO att kunna eftersom det är vad som finns ”under huven” på alla sidor de skapar eller arbetar med. Samtidigt som ditt CMS troligen inte kräver att du skriver dina sidor i HTML (ex: genom att välja ”hyperlänk” kan du skapa en länk utan att du behöver skriva in ”a href =”), är det vad du ändrar varje gång du gör något på en webbsida, till exempel lägga till innehåll, ändra ankartexten för interna länkar, och så vidare. Google genomsöker dessa HTML-element för att avgöra hur relevant ditt dokument är för en viss fråga. Med andra ord, vad som finns i din HTML spelar en enorm roll i hur din webbsida rankas i Googles organiska sökning!

CSS: Hur en webbplats ser ut

CSS står för ”cascading style sheets”, och det är detta som får dina webbsidor att ta in vissa teckensnitt, färger och layouter. HTML skapades för att beskriva innehåll, snarare än för att styla det, så när CSS kom in på scenen var det en stor förändring. Med CSS kan webbsidor ”förskönas” utan att det kräver manuellt kodning av stilar i HTML på varje sida – en besvärlig process, särskilt för stora webbplatser.

Först 2014 började Googles indexeringssystem rendera webbsidor mer som en faktisk webbläsare, i motsats till en webbläsare som bara är text. Ett black hat SEO förfarande vilket försökte utnyttja Googles äldre indexeringssystem dolde text och länkar via CSS i syfte att manipulera sökmotorns ranking. Denna ”dold text och länkar” -praxis bryter mot Googles kvalitetsriktlinjer.

Komponenter i CSS som skapare av SEO särskilt bör bry sig om:

·         Eftersom stildirektiv kan leva i externa filer för stil (CSS-filer) istället för sidans HTML, gör det din sida mindre tung av kod, vilket minskar filöverföringsstorleken och gör laddningstider snabbare.

·         Webbläsare måste fortfarande ladda ner resurser såsom din CSS-fil, så komprimering av dem kan göra att dina webbsidor laddas snabbare och sidhastigheten är en rankningsfaktor.

·         Att dina sidor är mer fulla av innehåll än tyngda av kod kan leda till bättre indexering av webbplatsens innehåll.

·         Om du använder CSS för att dölja länkar och innehåll kan din webbplats manuellt straffas och tas bort från Googles index.

JavaScript: Hur en webbplats beter sig

Under Internets tidiga dagarna byggdes webbsidor med HTML. När CSS kom in hade webbsidan förmåga att anpassa med en stil. När programmeringsspråket JavaScript kom in i bilden kunde webbplatser nu inte bara ha struktur och stil, utan de kunde vara dynamiska.

JavaScript har öppnat upp många möjligheter för skapande av icke-statisk webbsida. När någon försöker få åtkomst till en sida som har förbättrats med detta programmeringsspråk, kommer användarens webbläsare att köra JavaScript mot den statiska HTML-koden som servern skickade tillbaka, vilket resulterar i en webbsida som kommer till liv med någon form av interaktivitet.

Du har definitivt sett JavaScript i aktion – du kanske bara inte visste om det! Det beror på att JavaScript kan göra nästan vad som helst på en sida. Det kan till exempel skapa en popup, eller så kan den begära tredjepartsresurser såsom annonser att visas på din sida.

Tack och lov finns det ett sätt att kontrollera om Google ser det.

Rendering av klientsidan kontra rendering på serversidan

JavaScript kan dock ge vissa problem för SEO, eftersom sökmotorer inte ser JavaScript på samma sätt som mänskliga besökare gör. Det beror på klientsida kontra serversida rendering. Det flesta JavaScript körs i en klients webbläsare. Med rendering på serversidan, å andra sidan, där körs filerna på servern och servern skickar dem till webbläsaren i fullt återgivet tillstånd.

SEO-kritiska sidelement som text, länkar och taggar vilka laddas på klientens sida med JavaScript, snarare än vara representerade i din HTML, är osynliga från sidans kod tills de återges. Detta innebär att robotar för sökmotor inte ser vad som finns i din JavaScript – åtminstone inte initialt.

Google säger att så länge du inte blockerar Googlebot från att genomsöka dina JavaScript-filer så kan de i allmänhet återge och förstå dina webbsidor precis som en webbläsare kan, vilket innebär att Googlebot bör se samma saker som en användare vilken tittar på en webbplats i sin webbläsare. På grund av denna ”andra våg av indexering” för JavaScript på klientsidan kan Google dock missa vissa element vilka endast är tillgängliga när JavaScript har körts.

Det finns också några andra saker som kan gå fel under Googlebots process för att rendera dina webbsidor, vilket kan hindra Google från att förstå vad som finns i din JavaScript:

·         Du har blockerat Googlebot från JavaScript-resurser (ex: med robots.txt, som vi lärde oss om i kapitel 2)

·         Din server kan inte hantera alla förfrågningar angående genomsökande av ditt innehåll

·         JavaScript är för komplext eller föråldrat för att Googlebot ska förstå

·         JavaScript ”laddar inte” innehåll på sidan förrän efter att sökroboten har slutat med sidan och gått vidare

Samtidigt som JavaScript öppnar många möjligheter för skapande av webbsidor, kan det också ha några allvarliga konsekvenser för din SEO om du inte är försiktig.

Tack och lov finns det ett sätt att kontrollera om Google ser samma sak som dina besökare. Om du vill se en sida om hur Googlebot visar din sida använder du Google Search Consoles verktyg ”URL-inspektion”. Klistra bara in sidans URL i GSC-sökfältet.

Härifrån klickar du på ”Testa URL Live”.

När Googlebot har crawlat om din URL klickar du på ”Visa testad sida” för att se hur din sida genomsöks och återges.

Klicka på fliken ”Skärmdump” intill ”HTML” för att visa hur Googlebot smarttelefon renderar din sida.

I gengäld kommer du se hur Googlebot ser din sida kontra hur en besökare (eller du) kan se sidan. På fliken ”Mer information” visar Google dig också en lista över de resurser som de kanske inte har kunnat få för webbadressen du angav.

Att förstå hur webbplatser fungerar ger en bra grund för det vi ska prata om härefter: tekniska optimeringar vilka hjälper Google att förstå sidorna på din webbplats bättre.

Hur sökmotorer förstår webbplatser

Föreställ dig att du är en sökmotors sökrobot som skannar ner en artikel på 10000 ord om hur man bakar en tårta. Hur identifierar du författaren, receptet, ingredienserna eller stegen som krävs för att baka en tårta? Det är här schema markup kommer in. Det låter dig mata sökmotorer med mer specifika klassificeringar angående vilken typ av information som finns på din sida.

Schema är ett sätt att märka eller organisera ditt innehåll så att sökmotorerna får bättre förståelse för vad vissa element på dina webbsidor är. Den här koden tillhandahåller strukturer för dina data, varför schema ofta kallas ”strukturerad data.” Processen med att strukturera dina data benämns ofta ”mark up” eftersom du markerar upp ditt innehåll med organisationskod.

JSON-LD är Googles föredragna schema mark up (tillkännagavs i maj 16), vilket Bing också stödjer. För att se en fullständig lista över de tusentals schema mark up tillgängliga, besök Schema.org eller se Google Developer’s Introduction to Structured Data mer information om hur du implementerar strukturerade data. När du har implementerat de strukturerade data som bäst passar dina webbsidor kan du testa din mark up med Googles Structured Data Testing Tool.

Förutom att hjälpa bots som Google att förstå vad ett visst innehåll handlar om, kan schema mark up även göra det möjligt för specialfunktioner att följa dina sidor i SERPerna. Dessa specialfunktioner kallas ”rich snippets”, och du har antagligen sett hur de fungerar. Det är saker som:

·         Karuseller i Top Stories

·         Recensioner med stjärnor

·         Sökrutor för webblänkar

·         Recept

Kom ihåg att användning av strukturerad data kan hjälpa till att aktivera så rich snippet finns presenterad, men garanterar inte det. Andra typer av rich snippet kommer sannolikt att läggas till i framtiden när användningen av schema mark up ökar.

Några slutliga råd för framgång med schemat:

·         Du kan använda flera typer av schema markup på en sida. Men om du markerar ett element, till exempel en produkt, och det finns andra produkter som listas på sidan, måste du också markera dessa produkter.

·         Markera inte innehåll som inte är synligt för besökare och följ Googles kvalitetsriktlinjer. Om du till exempel lägger till en strukturerad granskning till en sida, se till att dessa recensioner verkligen syns på den sidan.

·         Om du har duplicerade sidor ber Google att du markerar varje duplikat sida med din strukturerade mark up, inte bara den kanoniska versionen.

·         Tillhandhåll original och uppdaterat (om tillämpligt) innehåll på dina strukturerade datasidor.

·         Strukturerad mark up bör vara en exakt återspegling av din sida.

·         Försök att använda den mest specifika typen av schema mark up för ditt innehåll.

·         Recensioner som markerats upp bör inte skrivas av företaget. De bör vara äkta obetalda företagsrecensioner från faktiska kunder.

Berätta för sökmotorer om dina önskade sidor med kanonisering

När Google genomsöker samma innehåll på olika webbsidor vet det ibland inte vilken sida som ska indexeras i sökresultaten. Därför uppfanns rel=”canonical” tagg, för att hjälpa sökmotorer att bättre indexera den föredragna versionen av innehållet och inte alla dess duplikat.

Rel=”canonical” tagg låter dig berätta för sökmotorer var den ursprungliga, huvudversionen av ett innehåll innehåller. Du säger i huvudsak ”Hej sökmotor! Indexera inte detta; indexera källsidan istället.” Så om du vill publicera en del av innehållet, oavsett om det är exakt eller något modifierat, men inte vill riskera att skapa duplicerat innehåll, är den kanoniska taggen här för att rädda dig.

Korrekt kanonisering säkerställer att varje unikt innehåll på din webbplats bara har en URL. För att förhindra att sökmotorer indexerar flera versioner av en enda sida, rekommenderar Google att ha en självrefererande kanonisk tagg på varje sida för din webbplats. Utan en kanonisk tagg som talar om för Google vilken version av din webbsida som är den föredragna, kan https://www.example.com indexeras separat från https://example.com och skapa duplikat.

”Undvik duplicerat innehåll” är en Internet sanning, och med goda skäl! Google vill belöna webbplatser med unikt, värdefullt innehåll – inte innehåll som har tagits från andra källor och upprepas på flera sidor. Eftersom motorer vill ge den bästa sökarupplevelsen kommer de sällan att visa flera versioner av samma innehåll, och istället välja att bara visa den kanoniserade versionen, eller om det inte finns en kanonisk tagg, vilken version som de anser vara mest sannolika original.

Det är också mycket vanligt att webbplatser har flera duplikat av sidor på grund av sorterings- och filteralternativ. Som exempel kanske du på en webbplats för e-handel har det som kallas en fasetterad navigering vilken gör att besökare kan begränsa produkterna för att hitta exakt vad de letar efter, till exempel en ”sortera efter” -funktion som ordnar om resultat i produktkategorins sida från lägsta till högsta pris. Detta kan skapa en URL som ser ut så här: exempel.com/mens-shirts?sort=price_ascending. Lägg till fler sorterings- / filteralternativ såsom färg, storlek, material, märke etc. och fundera då på alla variationer i din huvudsakliga produktkategorisida som detta skulle skapa!

Hur användare interagerar med webbplatser

I kapitel 1 nämnde vi att trots att SEO står för sökmotoroptimering handlar SEO lika mycket om människor som det handlar om sökmotorerna själva. Det beror på att sökmotorer finns för att tjäna sökare. Detta mål hjälper till att förklara varför Googles algoritm belönar webbplatser vilka ger bästa möjliga upplevelser för sökare, och varför vissa webbplatser, trots att de har egenskaper såsom robusta backlink-profiler, kanske inte fungerar bra i sökningen.

När vi förstår vad som gör deras upplevelse i webbläsar optimal kan vi skapa dessa upplevelser för maximal prestanda i sökresultat.

Säkerställa en positiv upplevelse för dina mobilbesökare

Eftersom över hälften av all webbtrafik idag kommer från mobil kan man fastslå att din webbplats skall vara tillgänglig och lätt att navigera i för mobila besökare. I april 2015 lanserade Google en uppdatering av sin algoritm vilken skulle främja mobilvänliga sidor, framför sidor vilka inte är mobilvänliga. Så hur kan du se till att din webbplats är mobilvänlig? Även om det finns tre huvudsakliga sätt att konfigurera din webbplats för mobil rekommenderar Google responsiv webbdesign.

Responsiv design

Responsiva webbplatser är utformade för att passa skärmen på den typ av enhet dina besökare använder. Du kan använda CSS för att få webbsidan att ”svara” på enhetsstorleken. Detta är idealiskt eftersom det förhindrar att besökarna måste dubbelklicka eller klämma och zooma för att se innehållet på dina sidor. Är du inte säker på om dina webbsidor är mobilvänliga? Du kan använda Googles test för att kontrollera om den är mobilvänlig!

 AMP

AMP står för Accelerated Mobile Pages, och det används för att leverera innehåll till mobila besökare i hastigheter som är mycket högre än med leverans utan AMP. AMP kan leverera innehåll så snabbt eftersom det levererar innehåll från sina cacheservrar (inte den ursprungliga webbplatsen) och använder en speciell AMP-version av HTML och JavaScript.

Mobil först indexering

Från och med 2018 började Google byta över webbplatser till mobil först indexering. Den förändringen ledde till viss förvirring mellan mobilvänlighet och mobil först, så det är bra att göra otvetydigt. Med mobil först indexering crawlar och indexerar Google mobilversionen av dina webbsidor. Att göra din webbplats kompatibel med mobilskärmar är bra för användare och din prestanda i sökningen, men indexering av mobil först sker oberoende av mobilvänlighet.

Detta har väckt viss oro för webbplatser vilka saknar paritet mellan mobila och stationära versioner, såsom att visa olika innehåll, navigering, länkar etc. i deras mobilvy. En mobilwebbplats med olika länkar, som exempel, kommer att ändra sättet på vilket Googlebot (mobil) genomsöker din webbplats och skickar länkkapital till dina andra sidor.

Förbättra sidhastigheten för att mildra besökarnas frustration

Google vill tillhandahålla innehåll vilket laddas blixtsnabbt för sökare. Vi har kommit att förvänta oss att resultat laddas snabbt, och när vi inte får dem, kommer vi snabbt att studsa tillbaka till SERP för att leta efter en bättre och snabbare sida. Det är därför sidhastighet är en avgörande aspekt av SEO. Vi kan förbättra hastigheten på våra webbsidor genom att dra nytta av verktyg som de som vi har nämnt nedan. Klicka på länkarna för att lära dig mer om var och en.

·         Googles PageSpeed ​​Insights verktyg och dokumentation om bästa praxis

·         GTMetrix

·         Googles Hastighets- och prestandatester för mobil webbplats

·         Google Lighthouse

·         Chrome DevTools & Handledning

Bilder är en av de element främst skyldigheterna till långsamma sidor!

Som diskuterats i kapitel 4 är bilder en av de främsta orsakerna till långsamma webbsidor! Förutom bildkomprimering, optimering av alt-text, att välja rätt bildformat och skicka webbplatskartor finns det andra tekniska sätt att optimera hastigheten och sättet på vilket bilder visas för dina användare. Några primära sätt att förbättra leveransen av bilder är följande:

1. SRCSET: Hur du levererar den bästa bildstorleken för varje enhet

SRCSET-attributet låter dig ha flera versioner av din bild och därefter specificera vilken version som skall användas i olika situationer. Den här koden läggs till i <img> -taggen (där din bild finns i HTML) för att tillhandahålla unika bilder för specifika enheter.

Detta är som begreppet responsiv design vilket vi diskuterade tidigare, med undantag för bilder!

Detta påskyndar inte bara din tid för laddande av bilder, det är också ett unikt sätt att förbättra din användarupplevelse på sidan genom att tillhandahålla olika och optimala bilder för olika enhetstyper.

2. Visa besökarnas laddning av bild pågår med lat laddning

Lat laddning inträffar när du går till en webbsida och istället för att se ett tomt vitt utrymme för var en bild kommer att visas, blir där en oskarp enklare version av bilden eller en färgad ruta som ligger på plats medan den omgivande texten laddas. Efter några sekunder laddas bilden tydligt och i full upplösning. Den populära bloggplattformen Medium gör det riktigt bra.

Versionen med den låga upplösningen laddas initialt och därefter full version med hög upplösning. Detta hjälper också till att optimera din kritiska renderingsväg! Så samtidigt som alla dina andra sidresurser hämtas, visar du en teaser-bild med låg upplösning vilken hjälper till att berätta för användare att saker händer / laddas. För mer information om hur du ska lata ladda dina bilder, kolla in Googles Lazy Loading Guidance.

Förbättra hastigheten genom att kondensera och paketera dina filer

Revisioner av sidhastighet kommer ofta rekommendera såsom ”minify resursen”, men vad betyder det egentligen? Minification kondenserar en kodfil genom att ta bort saker som radbrytningar och mellanslag, såväl som att förkorta kodvariabla namn där det är möjligt.

”Bundling” är en annan vanlig term som du kommer att höra med hänvisning till att förbättra sidhastigheten. Processen med bundling kombinerar en bunt av lika kodningsspråkfiler till en enda fil. Som  exempel kan en bunt JavaScript-filer läggas i en större fil för att minska mängden JavaScript-filer för en webbläsare.

Genom att både minifiera och paketera de filer som behövs för att konstruera din webbsida kommer du att snabba upp din webbplats och minska antalet kallelser på HTTP (fil).

Förbättra upplevelsen för internationella målgrupper

Webbplatser vilka riktar sig till målgrupper från flera länder bör bekanta sig med bästa metoderna för internationella SEO, för att ge den mest relevanta upplevelserna. Utan dessa optimeringar kan internationella besökare ha svårt att hitta den version av din webbplats som tillgodoser dem.

Det finns två huvudsakliga sätt på vilket en webbplats kan göras internationell:

·         Språk

Webbplatser Vilka riktar sig till de som talar flera språk betraktas som flerspråkiga webbplatser. Dessa webbplatser bör lägga till något som heter en hreflang-tagg för att visa Google att din sida har kopia för ett annat språk. Läs mer om hreflang.

·         Land

Webbplatser vilka riktar sig till målgrupper i flera länder kallas multiregionala webbplatser och de bör välja en URL-struktur vilken gör det enkelt att rikta in sina domäner eller sidor till specifika länder. Detta kan innefatta användningen av en landskods toppnivådomän (ccTLD) såsom ”.ca” för Kanada, eller en generisk toppdomän (gTLD) med en landsspecifik undermapp som ”exempel.com/ca” för Kanada. Läs mer om lokala specifika webbadresser.