Kan man sänka en konkurrent med dåliga länkar?

Frågan om huruvida man kan sänka en konkurrents sökplaceringar i Google genom att ge dem dåliga länkar återkommer allt oftare, och särskilt efter Googles Penguin-uppdatering, som ju i hög grad var inriktad just på sajter som byggt upp sina sökplaceringar på artificiellt anskaffade länkar.

Svaret är självklart, nu liksom tidigare: Ja det kan man. Men bara ibland och bara under vissa, givna förutsättningar. Men det är en strategi som jag aldrig någonsin skulle förespråka eftersom den är riskabel, kortsiktig och dessutom helt verkningslös när det gäller att förbättra sina egna sökresultat på lång sikt. Men det finns en stor skillnad idag och jag anser att orsaken till den skillnaden ligger  i såväl Panda som Penguin.

Metoden, även kallad negativ SEO, har diskuterats flitigt under året, och myterna kring fenomenet negativ SEO är många. Många ser plötsligt alla okända länkar som ett hot. Så behöver det inte alls vara, även om det var länge sedan man kunde parafrasera Gertrud Stein och säga att en länk är en länk är en länk.

Rand Fishkin gjorde, redan i slutet av april en utmärkt Whiteboard Friday-post i ämnet, och han utmanade dessutom SEO-världen att försöka sänka SEOmoz.org med negativa länkar. Det hände innan Penguin slog till, men även efter Penguin kunde man konstatera att Rand Fishkins blogg fortfarande rankar bra, trots att den översköljdes av 40 000 länkar från ytterst tveksamma sidor på ytterst tveksammma sajter.

Trots det. Efter Penguin kunde vi märka att även gamla sajter, som genom åren hade byggt sin söknärvaro på länkar anskaffade genom SEO-byråer, plötsligt fick problem med sina placeringar. Detta trots att de inte längre arbetade aktivt med länkande på det sättet. Sajter sjönk plötsligt från top-3-placeringar och djupt ner i sökresultaten utan att det gick att se några andra orsakter till det än att de hade en massa gamla, värdelösa och uppenbart spammiga länkar, och saknade en bred bas av kvalitativa och relevanta länkar.

Sajter som inte alls hade fokuserat på att blåsa upp sina länkar på artificiell väg, utan hade naturliga, kvalitativa länkar, med hög relevans och från bra sajter märkte bara att de vann sökpositioner efter Penguin. Främst då, för att många av de spammigare konkurrenterna försvann ur sökresultaten.

Starkt förenklat kan man säga att Google genom Panda lärde sig hur en kass sajt utan trovärdighet ser ut och att Penguin håller på och lär Google hur dåliga länkar ser ut. Tillsammans ger de Google tydliga signaler om vilka länkar som är trovärdiga röster på en sida och vilka länkar som algoritmen helt kan bortse ifrån.

Min tro är alltså att Penguin-effekten inte alls består i att dåliga länkar skadar en sajt, utan snarare att dåliga länkar (inte ens historiska dåliga länkar) har slutat hjälpa sajter i sökplaceringarna. Det finns en stor skillnad där. De hjälper helt enkelt inte längre, och därför föll sajter med dåliga länkar i sökresultaten efter Penguin. Jag tror alltså inte på teorierna om bestraffning.

Det var värre förr

För några år sedan var det faktiskt lättare att ägna sig åt negativ SEO. För fyra år sedan föll min egen sajt som en sten på ordet sökmotoroptimering efter att någon attackerade mig med dåliga länkar. Det var en tillfällig dipp, som främst berodde på att länkarna ledde fel, samtidigt som min egen sajt inte var tillräckligt tydlig med vilken sida jag ville ha i topp i sökresultatet. Samtidigt pågick en annan attack, kring sökfrasen Hamna i topp hos Google, som inte alls lyckades lika väl. (Det sökresultatet är för övrigt fortfarande fascinerande.)

Så vad är det som gör att vissa sajter verkar vara i det närmaste immuna mot dåliga länkar medan andra sajter sjunker som ryska atomubåtar mot sökresultatens marianergravar när de drabbas av negativ SEO?

De första hundra länkarna avgör

Jag är helt övertygad om att vi kan se orsakerna i hur en sajt får sina första 100 länkar eller i vissa områden, sina första 500 länkar. För många skräplänkar för tidigt i en sajts länkhistoria, och alltför få relevanta länkar från tydliga källor och klara auktoriteter, är en tydlig signal till Google om att någonting inte står rätt till (eller att någonting inte har stått rätt till för den delen).

Och detta har givit stort genomslag i SEO-branschen där en helt ny nisch har dykt upp. Det handlar just nu mer om länkstädning än om länkanskaffande i de mail jag får från internationella SEO-konsulter. När tjänster som Christoph Cempers Link Detox marknadsförs som lösningen på ett företags fallande sökplaceringar så förstår man att vi står inför ett paradigmskifte även inom den rent länkfokuserade delen av SEO.

Sajter som har struntat i att bygga artificiella länkar, utan istället har satsat på att få naturliga länkar, eller kanske helt har struntat i länkarna utan istället fokuserat på att bygga upp en bra sajt, med bra sajtteknik, en tydlig intern sajtstruktur och kvalitativt innehåll, och därigenom byggt upp ett naturligt länknätverk, behöver inte alls oroa sig.

Sajter med rent länksamvete är nästintill osårbara

Ett exempel på det senare är SEO-kollegorna på Search Integration som under slutet av sommaren har sett hur de plötsligt har fått mängder med riktigt teksamma länkar pekade mot sin sajt. Den flitigast använda ankartexten (den fras som är länkad mot Search Integrations sajt) är ordet sökmarknadsföring.

Sökfrasen sökmarknadsföring är lika konkurrensutsatt som sökfrasen sökmotoroptimering, men inte lika konkurrensutsatt som sökfrasen SEO. Jag har inte alls satsat på den, men det är en sökfras där resultatlistan är under ständig förändring. Jag kan dock inte alls se att search-integration.se har påverkats negativt av den pågående länkattacken. Den har heller inte hjälpt den. Helt enkelt för att Google helt bortser från de skitlänkar som just nu pekas åt deras håll.

Placeringshistorik för search-integration på sökfrasen sökmarknadsföring. Källa Gserp.se.

Sara Andersson, grundaren av Search Integration, konstaterar på Twitter att någon verkar ha tagit illa vid sig av deras sommar-serie om webbmarknadsföring, och verkar ha för mycket tid över till att på detta sätt försöka sänka dem. Jag är helt övertygad om att försöket kommmer att misslyckas.

Vilka sajter kan då sänkas med negativ SEO?

Däremot tror jag att sajter som byggt merparten av sin Google-närvaro på artificiella länkar, eller, åtminstone framöver, på länkar från sajter som i sin tur har ett artificiellt länknätverk, är mycket känsliga för negativ SEO.

Jag tror (tyvärr) att detta även gäller för sajter som en gång i tiden hade naturliga länkar, men som har tappat dem, genom att sajterna som länkade har byggts om och omstrukturerats, bytt ägare, eller helt enkelt försvunnit från webben.

Om sådana sajter fortfarande placerar sig bra i sökresultaten, tror jag att en negativ länkattack kan väcka Googles intresse för sajten och att den därigenom plötsligt kan sjunka i sökresultaten. Och jag tror att det är just den typen av sajter som de nya länkstädningsföretagen riktar in sig på, liksom de sajter vars ägare faktiskt inte över huvud taget har koll på vad de har för länkar, eftersom de har anlitat SEO-företag som arbetat utan transparens, och heller inte brytt sig om hur deras sökplaceringar har kommit till.

Relevanta länkar är aldrig skadliga

Jag har idag en handfull exempel på bra sökfraser där förstapositionerna innehas av sajter med väldigt få (7-29) länkar och där konkurrenterna (ofta med åtskilliga tusentals länkar) ser sig slagna av dessa små uppstickare. Det handlar dock i dessa fall om ytterst relevanta länkar och det är nästan uppseendeväckande  att det helt saknas länkar från länkkataloger, kommentarsfält och länksamlingar.

Naturligtvis är frestelsen stor att se vad som skulle hända om dessa sajter började få dåliga länkar, men jag avstår helst från att falla för den frestelsen, och jag tänker heller inte berätta vilka sajterna är. Det är värt mer för mig att ha dem som goda exempel framöver.