Search Marketing

Guida al posizionamento dei siti web nei motori di ricerca

Amico degli spider
Home
2 Apr '05
Guida
8 Nov '04
Articoli
27 Mar '05
News/Blog
La Newsletter
30 Apr '09
FAQ
12 Gen '03
Risorse
10 Ott '04

SES: elettrocardiogramma di un sito

16 agosto '05 05:28:52
Continuano i riassunti delle conferenze più interessanti del Search Engine Strategies 2005, conclusosi la scorsa settimana. Resoconto originale di Search Engine Roundtable.

Quante volte ci si è chiesti "Che cosa c'è che non va nel mio sito?" di fronte alla difficoltà di ottenere buone posizioni sui motori di ricerca? Al SES 2005 un seminario è stato dedicato proprio a questo argomento: quali elementi controllare per tastare il polso ad un sito web.

Il primo a prendere la parola è stato Rand Fishkin di SEOMoz. Ha spiegato che la manipolazione della link popularity viene individuata dai motori attraverso la ricerca di "isole di spam". Schemi per la costruzione di link come Link Vault, DigitalPoint, TrafficPower/1P e schemi realizzati privatamente sono lì fuori e non è il caso di utilizzarli a meno che il webmaster non sia preparato ai rischi.

Fishkin introduce anche il concetto di sovra-ottimizzazione [un termine generalmente usato a sproposito, compreso in questo caso - Ndr] applicata ai backlink, al testo dell'ancora dei link, alla velocità con cui i link vengono ottenuti (alte velocità denoterebbero fenomeni poco naturali) e alla provenienza dei link (dallo stesso sito, dalla stessa comunità di siti o da pagine non correlate).

I motori di ricerca utilizzano la formula di Term Weight (TF*IDF) per determinare l'argomento principale di una pagina e la classificazione dei contenuti in base ai temi trattati avviene analizzando i testi del documento e appoggiandosi ad ontologie costruite in precedenza. A volte vengono utilizzati alcuni algoritmi per determinare la qualità di un testo calcolandone il grado di leggibilità, la qualità grammaticale o sintattica. Qui Rand Fishkin va molto sul teorico: è vero che questi algoritmi esistono ma è altrettanto vero che nessuno ha mai dimostrato che vengano realmente sfruttati dai motori di ricerca per assegnare un bonus ai testi scritti meglio.

Altri fattori che i motori di ricerca possono prendere in considerazione sono il CTR sulle pagine dei risultati di ricerca, il tempo trascorso dagli utenti a navigare un sito, dati raccolti dalle toolbar (tutti i motori di ricerca più importanti ne offrono una) e l'analisi di file di log del server o di pagine di statistiche.

A proposito di quest'ultima affermazione di Fishkin, c'è da chiedersi se la posizione di un sito migliorerebbe facendo trovare agli spider dei motori di ricerca un link ad una pagina di statistiche (Webalizer, Analog, o qualunque altro software molto popolare) contenente dati appositamente pompati.

Rand Fishkin conclude spiegando che il modo migliora per ottimizzare un sito basandosi sui dati appena esposti è quello di dare ai motori di ricerca quello che i motori di ricerca vogliono premiare: testi scritti di proprio pungo e un forte senso critico quando si decide chi linkare.

L'intervento successivo è di Anne Kennedy di Beyond Ink. Consiglia di utilizzare il comando site: dei motori di ricerca per dare un'occhiata ai titoli e alle descrizioni delle proprie pagine: l'indicazione della sola URL potrebbe significare un problema degli spider a prelevare la pagina. Si tratta anche di un buon modo per individuare i link rotti, che puntano a pagine non più esistenti: è bene usare un redirect lato server (301) nel caso in cui si trattasse di pagine che hanno cambiato URL.

Secondo Anne Kennedy, gli elementi che indicano un sito in buona salute sono (nei risultati di ricerca) un buon titolo, una buona descrizione, la presenza della cache della pagina, un buon numero di pagine indicizzate e la presenza di backlink. Al contrario, gli elementi che indicano una possibile penalizzazione per spam sono la scomparsa dei backlink, un improvviso e consistente crollo nelle posizioni, l'apparizione dei "risultati supplementari" su Google, una diminuzione del numero di pagine indicizzate e l'indicazione "nessuna informazione" sul dominio del sito web. L'intervento si conclude con i soliti consigli sulle cose da evitare: link su pagine FFA (free for all), pagine doorway, domini multipli con link diversi che puntano a ciascuno di essi [qui non è molto chiaro cosa la Kennedy intendesse - Ndr], siti duplicati e testo nascosto.

L'ultimo intervento è quello di Jake Baille di TrueLocal. Chiarisce subito che i ban manuali sono molto pochi e che se un sito web scende di X posizioni, questo non significa che è stato bandito dal motore di ricerca. Un cambiamento di posizione (anche in negativo) può avvenire per molteplici ragioni, sia interne al sito che esterne: una variazione nel link (interni o esterni), un cambiamento degli algoritmi del motore di ricerca, cambiamenti nelle pagine del sito, e così via.

Baille spiega il problema dell'hijacking delle pagine su Google, del quale hanno sofferto in passato molti siti web e che ultimamente pare sia stato in parte risolto. Non vengono fornite informazioni aggiuntive rispetto a quelle già conosciute da tempo e riportate in passato da questo newsblog qui e, ancora prima, qui.

L'intervento continua discutendo il filtro anti-duplicazione dei motori di ricerca, che ha come obiettivo quello di evitare di presentare agli utenti dei risultati di ricerca contenenti documenti troppo simili tra loro. Baille dice che questo tipo di filtri viene utilizzato da tutti i principali motori di ricerca e che quello di Google è il più sofisticato, sebbene anche quello di Yahoo! è ottimo [io dissento - Ndr].

Per capire se un sito è stato colpito dal filtro anti duplicazione è sufficiente usare il comando site: e controllare se per caso, al termine di tutte le pagine presentate dal motore, non appaia un esplicito messaggio che indica che alcune pagine "troppo simili" a quelle già elencate non sono state incluse nei risultati.

La soluzione al filtro anti duplicazione è, come era facile aspettarsi, semplicemente quella di diversificare i contenuti e creare testi diversi. Baille consiglia anche di provare un redirect (301) dalle pagine duplicate ad una pagina principale. Infine, viene spiegato il fenomeno della Slow Death (morte lenta), che avviene quando Google individua schemi di link "irregolari", come un sito da un milione di pagine che riceve solo pochi link. Il sintomo è che le pagine del sito vengono indicate nei risultati di ricerca con il solo URL. La soluzione è quella di ottenere più link e, se il sito contiene contenuti già presenti in altri siti web, modificare i testi.

< Torna alla pagina con le notizie più recenti

<< Torna alla pagina principale di Motoricerca.info