Kartsajterna tillbaka i Google!

Googles valentin-logga från 2008

Glädjebesked från Ted Valentin. Kartsajterna är tillbaka i Google.

Ted jublar lite lagom genom att enkelt utbrista i ett Yupp, they are back

Det här är så stort. Min kärleksaffär med Google fortsätter.

Bra gjort social media! Well done social media!

Bra gjort Google! Well done Google.

Bra gjort Matt Cutts. Well done Matt Cutts.

Life is good.

=======

Så vad har egentligen hänt?

Låt mig börja med att säga att jag är grymt avundsjuk på Ted för att han befinner sig i situationen att ha ett stort nätverk av sajter där han inte verkar skämmas för en enda en. Det är få förunnat. Själv har jag alldeles för många gamla webbruiner som ligger och skräpar där ute. Det är det nog många av oss som har…

Teds affärsidé kring kartsajterna har varit helt klar hela tiden. Han har utgått från en datakälla, adderat geodata, hämtat en karta från Google, bett folk att gradera det som visas på sajten och gärna hjälpa till med att föreslå nya sidor som inte fanns med i det ursprungliga datat. Därmed är det vi som är medlemmar på MinKarta.se som bygger nytt unikt innehåll på sajterna. Den ursprungliga datakällan är den stomme som vi alla hjälps åt att bygga vidare på.

Jag har utlovat en sorts genomgån av vad Ted har gjort för att komma tillbaka i Google, men först behöver vi en genomgång av vad som har hänt, och vad som var orsaken till att han försvann ur Google till att börja med.

Sajterna som blev för bra för Google

För fyra månader sedan var det svårt att söka efter ett svenskt ortsnamn utan att en eller flera av Teds kartsajter syntes i sökresultaten. Ibland blev det nästan pinsamt många. Om man i april sökte på S:t Eriksplan på Google så var sex av de sajter som listades på förstasidan i Google kartsajter som Ted hade gjort. Detta eftersom sajterna var tätt sammanlänkade, de var alla en del av kartnätverket och skämdes inte för det.

Överst på sidan fanns länkar till alla de olika kartorna, och varje sida länkade dessutom till motsvarande sökningar inom andra områden. Sökte du efter caféer nära Sergels Torg så fick du praktiskt länkar till relaterade sökningar på de andra sajterna, som sushi nära Sergels Torg, annonser nära Sergels Torg, badplatser… ja ni fattar.

Enter Hotellkartan

I mitten av mars lanserade han Hotellkartan.se, en sajt som inte bara listade svenska företeelser som sushibarer, caféer, annonser, flygplatser eller badplatser. Ted tror mig inte, man jag är rätt övertygad om att den lanseringen var den första spiken i kistan för kartnätverket. Kort efter att den lanserades blev den nämligen filtrerad i sökresultaten och hart när omöjligt att hitta. Ted gjorde då en s.k. reinclusion request, en begäran om återinförande, och någon vecka senare var sajten tillbaka i sökresultaten.

Det jag tror hade hänt här, är att Ted plötsligen hade gett sig in i en mer konkurrensutsatt nisch. Konkurrensen mellan de sajter som listar hotell och liksom Ted tjänar pengar på affiliate-länkar till hotellnätverken, är nämligen stenhård. Alla hotell-affiliates arbetar hårt med sökmotoroptimering och inte bara med helt vita medel. Det är bara att kasta en enkel blick på sökresultaten och länkstrukturerna kring söktermer som ”hotel stockholm” eller ”hotell malmö” för att se det. Hur som helst kan man säga att sökresultaten bevakas hårt. Jag är tämligen övertygad om att Hotellkartan blev anmäld som spam av någon av hans nya konkurrenter.

Med Hotellkartan tillbaka i Google började Ted jobba hårdare på att få in unikt innehåll på så många sidor som möjligt. Det främsta medlet i den kampen var att be oss användare om hjälp. I en kampanj som fördes över alla kartsajterna utlovade Ted en prenumeration på DN som belöning till alla som recenserade tillräckligt fem hotell.

Duplicate content

Textrutan ovan visades vid första sidvisningen på var och en av sajterna. Vi som använder vanliga webbläsare såg den bara en gång, sedan lagrades en s.k. cookie-fil i våra webbläsare vilket gjorde att vi slapp se den igen. Tyvärr gällde det inte sökmotorernas spindlar. Google fick därför den här texten presenterad för sig vid varje besök, på var och en av alla många hundratusentals sidor i nätverket. 7 ord eller 343 tecken som var identiska på alla sidor i nätverket (varav en del, sanningen att säga, inte innhåller sådär jättemycket unik text). Det här var nog tyvärr ris på bördan. Inte nog med att en knippe slipade SEO-människor i vita och grå hattar var ute efter honom, nu flaggade Googles algoritmer att han hade duplicerat innehåll på alla sajterna, vilket Ted skulle bli varse.

Filtret slår till

Runt den 20 maj försvann kartsajterna ur Google. Precis allihop utom Annonskartan (som ironiskt nog inte har något som helst unikt innehåll) och Flygplatskartan drabbades. Ted gjorde som förra gången och skrev en ny begäran om återinförande. Men den här gången uteblev effekten.

Tio dagar senare, den 4 juli,  skrev Ted en mycket känslosam bloggpost om den uppkomna situationen. Strax därefter bad han om hjälp i Googles egna hjälpforum, och fick efter tre dagar ett svar från Fredrik, en Google-anställd i Dublin. Tyvärr gav svaret inte särskilt mycket. Det enda det gick ut på var att Teds sajter inte tillförde något värde eftersom de syntes på så generiska ortnamnssökningar och dessutom innehöll duplicerat innehåll. Vi som redan hade följt frågan tyckte svaret var märkligt. Vi gjorde inte kopplingen till den interna kampanjen, men Fredrik på Google kunde se vad som hade hänt och för honom var det väldigt tydligt att sajterna innehöll duplicerat innehåll. Tyvärr innehöll svaret från Fredrik mest kritik mot Teds affärsidé. Det mest kontruktiva förslaget var ju egentligen att göra en annan sorts sajt under en domän istället för att separera dem på det sätt som Ted hade gjort med kartnätverket.

Om man tittar på sättet som ditt nätverk är uppbyggt (mestadels samma mall, samma fraser, samma tema spritt över flera domäner) så får man en känsla av att de är menade att vara olika webbsidor med olika tjänster, men att de i slutändan bara tillhandahåller en och samma typ av service, det vill säga hitta något av typ A inom området av B. Vad är anledningen till att inte placera alla dessa tjänster på en och samma domän där användaren kan hitta A samt X, Y och Z nära B?

Det där retade mig faktiskt. Och en del andra. Ted försvann från forumet några dagar men kom faktiskt tillbaka med ett par riktigt bra förklaringar.

1) Min målsättning har varit att stegvis bygga en plattform som vem som helst kan använda för att skapa sitt EGET geografiska community. Det vill säga som Ning.com fast med geografiskt fokus. Och precis som på Ning.com är tanken att man ska kunna kan koppla sitt eget domännamn till tjänsterna. Därför har jag haft strategin med flera domäner redan från början.

2) Nischade sajter får mer engagerade användare än sajter som försöker göra ”allt”. På Kyrkokartan.se har topprecensenten recenserat 1700 kyrkor och laddat upp 4000 bilder. Det engagemanget tror jag är svårt att frammana exempelvis på Eniro.se (där det också går att recensera saker). På Eniro.se finns det 338 sushiställen, på hitta.se 293 och på Reco finns 292. På Sushikartan finns det idag 499 olika sushiställen, varav 277 har stoppats in av användarna. Jag tycker att detta är en bra indikation på att nischade sajter leder till större engagemang, vilket leder till bättre sajter och en bättre webb.

Att jag valt egna domäner till de olika tjänsterna är alltså inte för att ”lura Google”. Vilket ni heller säkert inte trott.

Fler personer hoppade in i forumet med råd. Bland annat Jim Westergren som står bakom sajten SEO-forum.se och Hessam Lavi som tidigare arbetade på Google med den här typen av frågor. Men sedan blev det rätt tyst faktiskt. Jag skrev en bloggpost den 6 juli när jag upptäckte att min sökjämförelsesajt placerade sig på förstasidan på en sushisökning. Men från Googles sida fortsatte tystnaden.

Fram till i förrgår, den 20 juli. Efter en helg då åtskilliga blogginlägg skrevs i ämnet, och frasen Free Ted Valenting nästan dominerade den svenska delan av Twitter så hände det jättemycket. Då kom Matt Cutts in i forum-tråden, lade en kommentar i Andreas Ekströms bloggpost, och raskt även tog sig an Teds egen diskussionspost i ämnet.

Plötsligt fick Ted någon att handgripligt diskutera med. Någon som har tillräckligt mycket pondus för att peka med hela handen och inte behöver gömma sig bakom färdigtuggade formuleringar om algoritmerna. Och nu jävlar blev det resultat.

Idag är Teds kartsajter tillbaka i Google med åtskillig förändringar mot hur de såg ut i april.

Samlingssidorna får inte längre indexeras

Sajterna ser i princip likadana ut för oss besökare, men för sökmotorerna är skillnaderna enorma.

Det de här förändringarna åstadkommer är att de isolerar de olika kartsajterna från varandra samt att det gör det omöjligt för Google att råka visa de mest sökta sidorna (sushi nära Odenplan, badplatser nära Fårösund, hotell nära Linköping…)

Jag tycker att det är lite synd. Om jag vill ha information om ett cafe, en sushi-bar eller en badplats som jag redan känner till så finns det massor av andra vägar att gå än via sökmotorerna, om jag däremot inte har en jäkla aning om vilka caféer som finns vid Kungsholms torg så ligger det väldigt nära till hands att faktiskt googla efter [caféer Kungsholms torg].

Jag har ett förslag på hur Ted faktiskt ändå kan vara med och slåss om geografiska positioner utan att reta upp Google igen. Men det tar jag direkt med honom tror jag.

Inte riktigt lika för alla

Den stora lärdomen som jag drar i den här historien är de här raderna från Matt Cutts. De känns rätt viktiga att komma ihåg faktiskt:

Anonym, we look at a wide variety of factors, including how much work is being put into each site, the number of sites, the value-add of each site, etc. The example you mentioned (CBS) puts a lot of work into developing each of those domains. Ted has many domains, and the danger is that without enough value-add or if users get results from lots of the different domains, that can be a bad user experience.

Det är därmed uttalat att det inte riktigt är samma regler som gäller för alla. Det blir ännu tydligare att en länk inte är en länk utan att man måste väga in många fler aspekter när man länkar, om än internt inom sina egna sajter. Det är spännande, och det kommer att vara min utgångspunkt i ett par framtida bloggposter.