Det finns några roliga, staniolhattiga, och ganska skrattretande inlägg inom SEO-sfären där folk med höjt röstläge hävdar att Googles egen webbläsare Chrome i själva verket är en förlängning av Googlebot, och att varje URL vi besöker är en indexering av den sidan.
Det är, som sagt, foliehatteri. Eller om det är länkbete. Eller både och.
Men. Det står helt klart att Chrome används som en signal till Google om att en sida finns. Det står nu klart efter ett par test som jag har gjort. Varje besök du gör på en webbsida från Chrome eller någon annan browser som har Google Toolbar installerad rapporterar tillbaka till Google. Det görs, bland annat för att kunna hämta relaterade sidor och för att mäta laddningstid på sajten. Har du plugins som visar PageRank så händer samma sak. Browsern frågar Google om vad sidan har för PageRank och därmed får Google en signal om att sidan finns.
Däremot har indexeringen blivit en såpass komplex process att signalen som skickas troligen inte är starkare än en nofollow-länk, från Twitter t.ex. Alltså enbart en signal om att det finns en sida som kanske behöver indexeras. Det finns alltså ingen som helst värdering i signalen enligt vad jag kan förstå.
Annat än länkar som initierar en indexering
Det finns ytterligare sådana signaler. En annan sådan är att placera analytics-kod på sidan eller att posta URLen till Google+. Ytterligare en signal, som i sig väldigt mycket påminner om att länka, är att ta med sidan i sajtens XML-sitemap, och pinga Google om att den har skapats.
I ett av mina test kom Googlebot på besök bara någon dag efter att jag hade besökt sidan med webbläsaren. Det tog dock ytterligare en vecka innan det fanns en cache och en korrekt förhandsvisning av sidan. Förhandsvisningen skapas av en helt annan del av Google, men kan initieras av Googlebot om koden är svårbegriplig.
Indexering är inte detsamma som placering
Ingen av dessa enskilda signaler hjälper egentligen upp sidans placering, men alla fungerar, var och en för sig, som signaler om att sidan finns, och räcker till för att Googlebot ska komma på besök. Om det finns länkar till andra sidor från den aktuella sidan som kommer dessa också att indexeras. Det är inte konstigare än att Google följer länkar på alla sidor som de hittar.
Om sidan har en unik rubrik, så kommer du kunna hitta den i Google, men det räcker inte för att sidan ska orka placera sig i konkurrens med andra sidor, oavsett hur mycket onpage-optimering du har ägnat dig åt. Däremot räcker det med länkar från lika dolda sidor för att Google ska förstå den inbördes hierarkin mellan en sådan grupp sidor.
Vi bygger ett parallellt länkuniversum
Jag har testat det här, och jag har kunnat konstatera att så fort Google har hittat fram till en sida, konstaterat att den är en del av en webbplats, så kommer Googlebot att följa samtliga länkar från den sidan, trots att sidan i sig inte är länkad utifrån.
I mitt test är det tre helt olänkade sidor (sidorna 1,2 och 3), som alla tre länkar till den överliggande sidan (4) som inte länkar tillbaka till dessa tre. Länken från 1,2 och 3 ligger i form av en breadcrumbs-rad och Google har snällt snappat upp den strukutren, och rankar sidan 4 bättre än de övriga tre sidorna som alla har fått en snygg breadcrumbslänk. Samtliga sidor länkar även till andra sidor på sajten genom att de har samma form och huvudnavigation som den övriga sajten.
Jag brukar kalla denna interna länkstrategi för att bygga länkkraft underifrån. Alltså att låta alla sidor i en kategori länka till sin kategorisida, eller alla sidor som delar en tagg länka till sin taggsida. Taggidan får då såpass mycket länkkraft från de sidor som delar tagg att den inte behöver länkas uppifrån. Det uppseendeväckande med det här testet är ingen av de fyra sidorna har någon som helst inkommande länk förutom de som finns i sidornas eget lilla universum.
Kan detta utnyttjas även för konkurrensutsatta fraser?
Nej, jag tror inte att det här räcker till för konkurrensutsatta termer. Och jag tror inte att det räcker särskilt långt ens för fraser som bara har låg konkurrens. Jag är nämligen väldigt tveksam till om det går att bygga tillräckligt med volym för det. Jag tror dessutom att Google ser med stor misstänksamhet på denna typ av skuggsidor som existerar helt parallellt med det övriga internet och utan att vara ihopkopplade med övriga sajter. Och gör de det inte ännu så borde de göra det, eftersom det känns som en metod som gjord för att missbrukas.
Ändå. Alla som ägnar sig åt sökmotoroptimering har väl svurit ve och förbannelse när vi upptäcker att helt olänkade utvecklingssajter börjar ranka på den egentliga sajtens huvudord?
Men framför allt verkar det onödigt att bygga upp en helt dold undersajt när man kan bygga en riktig sajt som inte enbart ger länkkraft underifrån utan även länkar uppifrån och från sidan. För om sidorna i mitt experiment hade funnits där på riktigt skulle de tre sidorna 1, 2 och 3 även ha länkat till varandra, och troligen skulle även sidan 4 ha länkat nedåt i hierarkin. Det blir rätt tydligt att länkstrukturen då blir betydligt rörigare.