Googles viktigaste uppdateringar genom tiderna

Alla som bara har nosat på området sökmotoroptimering vet att Google hela tiden gör små förändringar av algoritmen – åtskilliga hundra om året faktiskt. Men alla vet också att det inte är de där småförändringarna som verkligen gör skillnad i sökresultaten. De gör oftast att någon sajt får det svårare, någon annan vinner positioner, ett stort spamnät försvinner och andra spammare lyckas bättre.

Nej det är de stora förändringarna som verkligen märks i Googles sökresultat och ofta får stora återverkningar för alla som arbetar med sökmotoroptimering., och om jag, som har verkat inom det här området längre än Google har funnits, har räknat rätt så har Google egentligen bara gjort fem stora algoritmiska förändringar genom åren. Ofta har förändringarna skett inkrementellt, något som vi återigen upplever när Panda sakta rullas ut. Vissa förändringar har heller inte givit särskilt stora återverkningar på de svenska sökresultaten.

Så här upplever jag att de viktigaste förändringarna har sett ut. Egentligen är det bara några av dem som är egentliga uppdateringar. Andra är förändringar av infrastrukturen eller förändringar av presentationslagret, som i sin tur har lett till stora förändringar av hur vi har kunnat arbeta med sökmotoroptimering.

1 – September 2003: – Suplementära indexet

Fram till i september 2003 indexerade Google glatt alla sidor från en sajt, och för sajter som var ensamma om en viss typ av information kunde man ofta hitta flera nästintill identiska sidor i sökresultatet. I september 2003 införde Google sitt suplementära index där alla duplikatsidor stuvades undan. Det skulle visa sig få en rejäl effekt senare under hösten. Vissa sidor hamnade oförtjänt i det suplementära indexet därför att sajter på den här tiden helt enkelt var för lika och alltför få hade förstått hur man bygger äkta relevans på en sida. Google backade så smångingom och en del sajter återfick många av sina suplementära sidor. Andra fick finna sig i att börja bygga om sina URL-strukturer för bättre tydlighet. Framför allt kan man säga att denna uppdatering var döden för att använda för många (onödiga) parametrar i sina URLar så att samma innehåll kunde visas på flera olika URLar på en sajt.

2- November 2003: Update Florida

Florida var den första stora Google-uppdateringen som påverkade så stora delar av sökresultaten att de som redan 2003 var intresserade av sökmotoroptimering. Uppdateringen slog hårt mot sajter som hade byggt mycket av sin söknärvaro på de gamla som keyword-stuffing. De sajter som tidigare hade byggt sin interna länkkraft på sidor som hade lagts i det suplementära indexet drabbades extra hårt. Det skrevs otroligt mycket om Update Florida på alla forum som behandlar SEO. Spekulationerna var många men i slutänden klarade sig de sajter som redan hade byggt upp sin on-site SEO rätt bra i den här uppdateringen.

3 – November/december 2005: Jagger, sandbox och trustrank

Jagger var en uppdatering som fick stor effekt på den allt snabbare växande webben. När Google introducerade AdSense under 2003 öppnade de portarna för vad som blev en veritabel flodvåg av nya sajter som ville trängas i sökresultaten, få gratis Google-trafik och sedan kunna tjäna pengar på klicken på Googles eget annonssystem. Googles tidigare preferenser för nya sajter krockade i Jagger med deras behov av att komplettera PageRank-begreppet med det mystiska, och aldrig av Google riktigt verifierade begreppet TrustRank. Gamla auktoritära sajter vann plötsligt mark, och helst färska sajter som alltför snabbt fick alltför många länkar kunde efter Jagger begravas långt ner i sökresultaten (typiska placeringar var plats 199, 299 eller 899) under en ibland, för sajtägaren, plågsamt lång period. Denna effekt fick namnet sandboxing. Google lät sajterna leka i en egen sandlåda ett tag istället för att störa de andra barnen, och de kunde egentligen bara komma tillbaka genom att forstsätta att bygga upp ett bredare innehåll, än det ofta hårt nischade inehållet som de släpptes med, i avsikt att snabbt placera sig på en eller ett fåtal utvalda sökfraser.

Många av de effekter som tillskrevs Jagger, som att upptäcka dörrsidor och märkliga redirects adresserades snarare i Googles nästa stora infrastrukturella förändring.

4 – December 2005 – mars 2006: Big Daddy

Big Daddy var en genomgripande förändring av Googles infrastruktur, som gjorde det enklare för dem att se och förstå URL-strukturer och redirects (det blev massa väsen när man upptäckte hur olika Google såg på 301-redirects och 302-redirects). Förändringen skedde under loppet av flera månader och fick inga omedelbara effekter. Den första som blev märkbar för SEO-branschen kom flera månader senare, under våren/sommaren 2006.

5 – 2006: Doorway-sidorna kastas ut

Fram till sommaren 2006 arbetade många av de stora SEO-bolagen med en teknik som kallades Doorway-sidor. Det var en teknik att bygga sidor utanför kundens sajt, som rankade bra på ett fåtal utvalda sökord och som om Google indexerade dem såg ut att vara bra sökträffar. Om en riktig besökare kom till sidan skickades de direkt vidare till kundens sajt.

När Google 2006 kastade ut doorway-sidorna ur sitt index, var det en förändring som enbart påverkade sajter som anlitade de SEO-företag som tog den allra enklaste vägen till att ge sina kunder trafik via sökmotorerna. Det påverkade över huvud taget inte sajter som arbetade med sin egen synlighet, utan enbart en sorts sajter som var byggda för att få trafik från sökmotorerna och sedan omärkligt skicka trafiken vidare till kundens sajt. Om Google identifierade sig som Google fastnade de på dessa sunktiga nyckelordstäta sidor, medan vanliga besökare diskret skickades vidare till kundens sajt, efter att ha räknats och registrerats.

Att dessa dörrsidor försvann var som jag ser det starten på Googles kamp mot de SEO-företag som försöker automatisera SEO och inte över huvud taget funderade på att göra någonting på kundens sajt.

6 – Januari 2007: Google-bomber stoppas (Lex miserable failure)

Google gjorde en algoritmisk uppdatering som satte rejäla käppar i hjulen för den typiska länkbyggar-SEOn. Hittills hade det räckt med att kasta en stor mängd länkar på en sida för att få den att synas i sökresultaten. Var det bara tillräckligt många så placerades den till och med överst. Det typiska exemplet på detta var att George W Bush CV-sida på Whitehouse.gov visades överst när man sökte efter miserable failure. Följden blir att en sajt själv måste visa att den vill att en sida ska synas på en sökning. (När Whitehouse.gov några månader senare innehöll ordet failure på en annan sida började denna sida snabbt att klättra i sökresultaten.)

7 – Maj 2007: Universal search

Fram till 2007 hade sökresultaten varit helt fria. Olika sajter blandades på ett naturligt sätt i de flesta sökresultat, vilket ofta ledde till att vissa sökfrågor enbart visade bloggposter, eller bara nyhetssidor eller enbart webbutiker. När Google i maj 2007 införde vad man kallade Universal search så ändrades spelplanen på ett ganska drastiskt sätt. Man började nu sträva efter att få ett blandat sökresultat. Först gällde detta enbart kändis-sökningar och populära ämnen, och Google försökte blanda nyhetsresultat, bloggar, forum, klassiska sajter, bilder, videoklipp, e-handel så att minst en sajt från varje kategori syntes i sökresultatet.

Universal search var inte en egentlig förändring av algoritmen, utan en förändring som främst låg i presentationslagret av sökresultaten, men den kom att få stor betydelse, främst vid så kallad varumärkes-SEO, reputation management eller som jag kallar det – Google-städning.

8 – Februari 2009: Rel-canonical

När Google introducerade canonical-taggen gav de oss som arbetar seriöst med onsite-optimering ett väldigt kraftfullt verktyg för att kunna peka ut vilken sida som Google skulle visa i sökresultaten på sajter som av olika anledningar måste visa likartat eller i vissa fall identiskt innehåll på många olika sidor på sajten. Rätt använd är den fantastisk, särskilt på sajter som i vissa lägen måste använda alternativa URLar eller i webbshoppar som har samma produkt i flera olika kategorier. Fel använd kan de få katastrofala följder.

9 – December 2009: Caffeine

Under senhösten och vintern 2009/2010 började Google rulla ut en stor infrastruktur-uppdatering som fick namnet Caffeine. Den gav oss snabbare indexering (ibland nästintill i realtid). Caffeine var inte i egentlig mening en Google-uppdatering, men skulle komma att få väldiga konsekvenser under våren 2010.

10 – April 2010: Google places

När Google på allvar började visa upp sina kartresultat på geografiska sökningar så var det ett hårt slag för sajter som t.ex. Reco.se, som listar lokala företag på resultatsidor. Den som sökte efter Tandläkare Stockholm fick först och främst en sida bestående av olika lokala företag och en karta, först därunder låg andra resultatsidor. Detta var inte en egentlig Google-uppdatering utan främst en förändring av hur sökresultat visades, men hade stor inverkan på hur man kunde arbeta effektivt med SEO.

11 – April/maj 2010: May Day

Jag tror fortfarande att May Day-uppdateringen var en effekt av Caffeine, som till och med förvånade Google. Under några dagar försvann bortemot 90 % av många sajters indexerade sidor djupt ner i Googles suplementära index. Det var resultatsidor som enbart innehöll texter som även kunde återfinnas på andra sidor (objektssidor eller bloggposter) på sajten. Efter May Day blev det allt tydligare att den som vill synas i sökresultaten med sidor som i princip bara är listningar av andra sidor (som resultatsidor, kategorisidor eller taggsidor) måste tillföra unik information på dessa.

Resultatet blev att sajter som hade byggt sin närvaro på att ha många interna länkar som låg site-wide från alla interna sidor på sajten, nu såg sin länkmassa kraftigt reducerad. Den här sajten har fortfarande inte hämtat sig på sökfraser som t.ex. sökmotoroptimering, en fras som resultatsidan i fråga nästan enbart har interna länkar till.

12 – Juli 2011 – Panda 2.3 introduceras och börjar märkas av i Sverige

Panda är inte heller det en klassisk Google-uppdatering, utan istället en större, genomgripande förändring av hur Google ser på sajter. Man kan grovhugget säga att detta (med undantag av Universal Search) är första gången som Google börjar lägga en värdering i hela sajters existens, där de tidigare enbart har värderat enskilda sidor. Första resultaten av Panda märktes bara i USA. I nästa version, Panda 2.0 påverkades även andra engelska resultat, och det var först den 12 juli 2011, i och med Panda 2.3 kunde börja märka av Panda i de svenska sökresultaten.

Bakgrunden till är att Google under flera år har använt sig av mänskliga kvalitetskontrollanter, som har fått sig söksträngar tilldelade och sedan betygssatt sajter i Google-resultaten efter ett klassiskt frågeformulär. Det har handlat om faktorer som huruvida det framgår vem som är sajtens ägare, om man känner att man litar på informationen på sajten, om det går att kontakta sajtägaren, om man skulle våga använda sitt kreditkort för att köpa något på sajten, om sajten upplevs ha för många annonser…

Denna information har nu ikorporerats i en självlärande algoritm, som gör att Google kan gissa sig till hur vi som besökare tittar på en sajt, och hur tillförlitlig vi anser att den är. Sajter som upplevs som otillförlitliga har fallit i sökresultaten, och i många fall har gamla, fula, men fullt fungerande sajter oförtjänt nerklassats. En stor bi-effekt av Panda har varit att Google verkar ha nervärderat länkar från sajter som drabbats av Panda, så att dessa, i många fall rätt gamla länkar har tappat i värde. Det har också drabbat kunderna till de SEO-företag som främst har använt sig av s.k. SEO-bloggar (spambloggar är ett bättre ord) och länkkataloger för att bygga upp länknärvaro (något som raskt har manifesterat sig i att kommentarsspam och forumspam återigen har blivit vanligare).

Panda har uppdaterats igen i slutet av september 2011, vilket har rapporterats ge förändringar i vissa sökresultat. Jag har dock mest sett förbättrade resultat på de sajter som jag övervakar.

============

En sak är klar. Man får inte vila på lagrarna när man arbetar med sökmotoroptimering. Det handlar om att modernisera sig och att anpassa sig till kartan. Men när jag tittar tillbaka på de här uppdateringarna tycker jag att det står väldigt klart att vi som genomgående har arbetat seriöst med onpage- och onsite-optimering bara har vunnit mark för varje större förändring som Google har genomfört.

Håller ni med mig? Har jag missat något? Fyll gärna på här under.

Bloggposten uppdaterad med Miserable failure.