Lastniki spletnih iskalnikov želijo, da bi obiskovalci s pomočjo iskalnikov prihajali do relevantnih rezultatov. Zaradi tega pogosto spreminjajo svoje algoritme, s katerimi določajo vrednost spletnim stranem. To počnejo zato, da bi na podlagi obiskovalčevega iskanja po določeni ključni besedi spletno stran potisnili navzgor po lestvici relevantnih rezultatov. Zavajanju spletnih iskalnikov v računalniškem žargonu rečemo spam, spamdexing ali »spamanje«. V ZDA se je pri optimizaciji spletnih strani, s katero poskušamo zavajati spletne iskalnike, uvedel izraz Black Hat SEO, kar je isto kot spam. Izkazalo se je, da je »spamanje« spletnih iskalnikov izguba časa in denarja, saj bi uporabniki spletne strani lahko le-tega namenili za boljše oblikovanje spletne strani, ki bi dosegla boljšo vidljivost, in potemtakem dosegla tudi boljši poslovni rezultat.

vsebina

Spletni iskalniki občasno izdajo smernice, kaj naj bi predstavljalo spam. Uporabniki spam tehnik po drugi strani hitro najdejo luknje v teh smernicah in jih prikrojijo svojim potrebam. Prav to je tudi razlog, da spletni iskalniki neradi izdajajo smernice o tem, kaj predstavlja spam in kaj ne. Iskalniki namreč izvajajo t. i. spam analizo tako na individualni strani kot tudi na celotnem omrežju domen. Pa poglejmo kako obravnavajo manipulativne prakse, ki so vezane za URL nivo:

Ena od spam tehnik je uvajanje večjega števila irelevantnih ključnih besed na spletno stran oz. v njeno izvorno kodo. Konkreten primer si lahko pogledate na strani http://www.mattcutts.com. Pomembno je, da ne uporabljamo ključnih besed, ki niso sorodne naši spletni strani v pomembnih delih naše strani. Ti deli so meta oznake, alternativni teksti, vse vrste naslovov, CSS predlogi in drugi. Uporaba nesorodnih ključnih besed nam lahko prinese nezaželene posledice, ko te besede odkrijejo spletni iskalniki.

nerelevantno-vstavljanje-kljucnih-besed

Druga zadeva je sporna medsebojna izmenjava irelevantnih povezav, ki stremijo k večji popularnosti določene spletne strani. Ker imajo iskalniki dobro razvito mrežo odvajanja semena od plevela, jim tudi tovrstno določanje spama ne povzroča težav. Nizko kvalitetne povezave so namreč pogost izvor manipulacije za vse, ki se nahajajo na področju optimizacije. Veliko število spletnih strani, ki v zameno za plačilo nudijo visoke uvrstitve na iskalnikih, se bodisi uspešno bodisi neuspešno poizkuša izmuzniti Googlu. Le-ta pa se proti njimi bori z odstranitvijo PageRank točkovanja iz orodne vrstice (ali z dramatičnim znižanjem uvrstitve na iskalniku), vendar pa tega ne naredi v vseh primerih…

Obstaja še veliko več manipulativnih strategij gradnje povezav, ki so jim iskalniki prišli na sled in v ta namen tudi iznašli algoritmične metode za znižanje njihovega vpliva. Medtem ko novi spam sistemi vznikajo kot gobe po dežju, si inženirji prizadevajo boriti proti njimi s precizno narejenimi algoritmi, lastnim nadzorom in z zbiranjem spam poročil s strani  lastnikov spletnih strani in strokovnjakov za optimizacijo.

Osnovno načelo vseh iskalnikov je v tem, da pokažejo isto vsebino, ki jo pokažete preko svoje strani spletnim uporabnikom, tudi svojim spletnim pajkom. To z drugimi besedami pomeni, da ne smete skriti besedila v html kodo svoje spletne strani z namenom, da je uporabnik ne bo videl. Ko so smernice za to pretrgane, jih spletni roboti proglasijo za »skrivanje podatkov« (glej »cloaking«) in naredijo vse za to, da preprečijo uvrstitev teh strani na strani iskalnih zadetkov. Cloaking lahko dosežemo na več načinov, tako pozitivnih kot negativnih. V nekaterih primerih ga lahko roboti celo odobrijo, pod pogojem, da je skrivanje narejeno z namenom izboljšanja pozitivne uporabniške izkušnje. Za več tovrstnih primerov, ko roboti »spregledajo« spletne skrivalnice ali pa jih proglasijo za white hat SEO, si preberite izvrsten članek SEO strokovnjaka Rand-a Fishkin-a: http://moz.com/blog/. Vendar pa vam svetujemo, da se v primeru, da ne zastopate svetovno uveljavljene blagovne znamke in da niste povsem prepričani, da ustvarjate pozitivno uporabniško izkušnjo, ne lotite skrivalnic, saj vas lahko slej ko prej udarijo po glavi…

Čeprav tovrstne strani roboti po tehnični plati ne obravnavajo kot spletni spam, imajo ustrezne metode, s katerimi razpoznajo ali določena spletna stran razpolaga z enotno vsebino in isto vrednostjo preden jo uvrstijo na svojo stran iskalnih zadetkov. Najbolj »filtrirane« strani so tiste s podvojeno vsebino in  strani z neenotno vrednostjo ali neenotno vsebino, ki jih roboti s pomočjo svojih algoritmov prepoznajo za »nekvalitetne« in jim posledično onemogočijo visoko uvrstitev na iskalnikih. Roboti, ki so na sledi tovrstnim spletnim stranem, lahko iščejo sledi, ki vodijo k originalni domeni in pod domenam ter jih označijo za spam. Čeprav gre pri tem za zahteven opravek, je ta podvig bolj praktičen v primerih, ko se zahteva večja prilagodljivost. Ko gre za individualne strani, lahko roboti spremljajo kakšna je kvaliteta povratnih povezav, ki vodijo na izvorno spletno stran in na podlagi tega stran uvrstijo na seznam ali pa jo prepovejo.

Današnji SEO slovar:

Cloaking (skrivanje): Cloaking je tehnika optimizacije, pri kateri se vsebina spletne strani prikazuje spletnim pajkom drugače kot uporabniku. Ko je uporabnik prepoznan kot robotski pajek, mu strežnik ponudi drugačno verzijo spletne strani kot je videna na dejanski strani. Namen skrivanja je v prelisičenju iskalnikov tako da oni objavijo vsebino, ki je sicer ne bi (ker bi jo uvrstili med tehnike črnega klobuka – black hat SEO) in jo uvrstijo na višje vrednosti lestvice kot bi jo sicer. Ta tehnika se lahko uporabi tudi takrat, ko se želi določeno sporno vsebino (npr. pornografske narave) pretihotapiti skozi  iskalne rezultate, ki s pornografijo nimajo nobene zveze.

 Domača naloga: Preučite dva primera škodljivih seo praks, ki veljata za spam obliki ter razmislite kako boste zasnovali optimizacijo svoje spletne strani, da se boste izognili ukrepom s strani spletnih robotov:

http://moz.com/blog/
http://searchengineland.com