SEO vodič – O principih delovanja iskalnika

Starost domene – prednost in ne ovira pri nakupu domene
18. decembra 2013
SEO vodič – Ljudje in iskalniki?
23. decembra 2013

SEO vodič – O principih delovanja iskalnika

1.    Svetovno spletno omrežje kot sistem podzemnega vlaka
Ne bomo veliko zgrešili, če bomo spletno omrežje primerjali s sistemom podzemnega vlaka – iskalniki z ogromno hitrostjo sledijo povezavam in se ustavljajo ob  pomembnih »postajališčih« (spletna stran, JPG, PDF itd.), da bi skozi detektivsko mrežo ustvarili koristne in manj koristne povezave in tematsko sorodne navezave. Skozi povezave ustvarjajo iskalniki, t. i. avtomatski roboti oz. spletni pajki, več bilijonov med seboj prepletenih dokumentov. V nadaljevanju se ti pajki trudijo razvozlati kode dokumentov in jih ustrezno sortirati, da se v času poizvedbe s strani uporabnika, prave povezave pokažejo že v delcu sekunde. Za ta namen so pajki skonstruirali podatkovne mreže oz. podatkovna središča po vsem svetu, ki hranijo pomembne informacije in jih ob pravem trenutku pošljejo naprej.

2.    Iskalniki kot stroji za ponujanje odgovorov
Pajki na podlagi približno stotih dejavnikov ločijo uporabne oz. relevantne informacije po principu ločevanja semena od plevela. V nadaljevanju sortirajo oz. pozicionirajo prejete informacije glede na zaznano uporabnost, pri tem pa skrbno beležijo »popularnost« strani – čim bolj je dana stran ali dokument popularen, tem bolj želeno informacijo predstavlja. Pajki potemtakem skreirajo matematične algoritme, da ločujejo uporabne od neuporabnih informacij in da uporabne informacije razvrstijo glede na njihovo povpraševanje. Te algoritme sestavlja na stotine komponent, ki jih poznamo pod nazivom »dejavniki SEO optimizacije«.

Google svetuje: za boljšo uvrstitev na iskalniku naredite stran, ki je namenjena uporabnikom in ne iskalniku!
Google opozarja, da ne smemo iskalniku kazati druge vsebine kot jo vidi uporabnik, saj to Google razume kot skrivanje podatkov (cloaking – glej SEO SLOVAR). Na spletni strani mora biti vidna hierarhija – vsaka stran mora biti dosegljiva z najmanj ene statične povezave besedila. Google predlaga, da si skreiramo uporabno  podatkovno stran, na kateri bodo zastopane relevantne informacije iz področja, s katerim se ukvarjamo. Za ustvarjanje uporabniku prijaznih URL-jev,  nam svetuje izbiro ključnih besed in za ustvarjanje duplikatov predlaga uporabo funkcije 301 redirects (glej SEO SLOVAR).

DANAŠNJI SEO SLOVAR:
301 Redirect (preusmeritev); gre za način, da se uporabnika pošlje iz naslova, ki ga je prvotno zahteval, na drug URL naslov. S tem se lahko izognemo podvojeni vsebini.
Redirect 301 je še posebej uporaben za naslednje situacije:
–    Če prestavite svojo stran na novo domeno in želite opraviti prenos čim bolj neopazno.
–    Ljudje dostopajo do vaše strani preko različnih URL naslovov. Če je npr. vaša stran dostopna preko http://example.com/home, http://home.example.com ali http://www.example.com, je dober način, da izberemo URL, ki nam odgovarja in uporabimo 301 redirect, da pošljemo »promet« iz drugega URL naslova na željen URL naslov.
–    Ko združujemo dve spletni strani in želimo, da so linki iz dotičnega URL naslova preusmerjeni na prave strani.

Cloaking je vrsta optimizacije, za katero je značilno, da je vsebina, ki je predstavljena spletnemu pajku, drugačna od vsebine, ki se kaže nam kot uporabnikom. To je omogočeno s pomočjo vsebine, ki temelji na IP naslovih ali User-Agent HTTP naslovu uporabnika,ki zahteva določeno stran. Ko je uporabnik identificiran kot raziskovalni – brskalni pajek , nam server takoj ponudi drugačno verzijo internetne strani – takšno, ki ponudi vsebino, ki ni predstavljena na vidni strani ali pa je prisotna, a ne izsledljiva. Namen cloakinga je prevarati iskalnike, da pokažejo tiste strani oz. rezultate iskanja, ki se drugače ne bi pokazali (black hat SEO) ali ker se nahajajo v netekstualnih vsebinah kot je video ali Adobe Flash komponenete. Cloaking se uporablja tudi kot spam tehnika za prevaro iskalnikov, da dotični strani namenijo višjo uvrstitev. Z isto metodo nas lahko iskalnik prelisiči, ko nam ponudi povezave na vsebinsko povsem drugačne strani (npr. pornografske vsebine znotraj povsem nepornografskih strani)…
Google-spider
Pajek ali robot je iskalnikov računalniški program, ki pregleduje internet, zbira podatke, sledi povezavam, ustvarja kopije novih in osveženih spletnih strani. Obenem shranjuje URL naslove za potrebe spletnih iskalnikov. To iskalnikom omogoča, da prej prepoznajo stran.

 

Domača naloga: Da bi izvedeli katera SEO strategija je za nas najbolj uspešna, izdelajte več spletnih strani z isto ali podobno vsebino – na njih določite vsakič druge ključne besede ali izvedite zgolj manjše popravke besedila. Stran, ki se bo najbolje uvrstila na iskalniku, predstavlja pravo izbiro za naš model optimizacije.