Search Marketing

Guida al posizionamento dei siti web nei motori di ricerca

Amico degli spider
Home
2 Apr '05
Guida
8 Nov '04
Articoli
27 Mar '05
News/Blog
La Newsletter
30 Apr '09
FAQ
12 Gen '03
Risorse
10 Ott '04

Chi ha paura del motore cattivo?

5 giugno '05 16:07:51
Ho ricevuto una e-mail da parte di un webmaster che desiderava un consiglio circa Google Sitemaps. Gli ho comunicato la mia opinione in proposito, ma il modo in cui il webmaster ha illustrato il proprio problema mi ha fatto rendere conto che "nel giro" esiste una sorta di timore incontrollato verso qualunque iniziativa dei motori di ricerca, e in particolare di Google.

Ma procediamo con ordine. Qualche giorno fa Google ha pubblicato le specifiche di un nuovo protocollo, Google Sitemaps, che permette ai webmaster di creare dei normali file di testo che contengono la lista delle pagine web che compongono il proprio sito web.

Fornendo tale lista a Google, il motore di ricerca viene aiutato nel lavoro di indicizzazione del sito e in teoria il webmaster assicura al proprio sito web un'archiviazione migliore, più profonda e con la possibilità di indicare al motore quali pagine del sito necessitano di essere visitate più spesso di altre o prima di altre.

Visto che il file di testo che contiene l'elenco degli URL che compongono un sito deve essere in formato XML, Google ha pensato bene di fornire ai webmaster anche uno script in linguaggio Python, chiamato Sitemap Generator, che permette di creare il file di testo acquisendo le URL che compongono il sito attraverso vari metodi.

Non c'è nulla di complesso, finora: c'è un webmaster che decide quanti e quali URL elencare nel file di testo ed uno script opzionale che crea automaticamente il file di testo invece di costringere il webmaster a scriverlo a mano.

Eppure il webmaster che mi ha scritto in e-mail ha manifestato dubbi circa la natura potenzialmente pericolosa dello script, ipotizzando che si potesse trattare di un trojan e segnalandomi un forum in cui altre persone esprimevano ipotesi simili.

Ipotizzare è ciò che la gente fa quando non vuole o non sa o non può acquisire maggiori informazioni su un argomento. Ma in questo caso è molto facile acquisire tutte le informazioni indispensabili a fornire un'opinione in merito.

Vediamo innanzitutto che cosa si intende per trojan o, più precisamente, trojan horse ovvero "cavallo di troia".

Da questa pagina (il neretto è aggiunto da me): Definizione di Trojan Horse - La prima cosa che viene in mente leggendo la parola Trojan Horse (letteralmente Cavallo di Troia) sono i tool di amministrazione remota, le famose Back Door. In realtà, con il termine Trojan Horse si intendono tutti quei programmi che, sotto le false spoglie di software "pacifici", si introducono nel sistema vittima e svolgono funzioni dannose, proprio come fece Ulisse per espugnare Troia.

Per determinare se il Sitemap Generator di Google è un trojan, bisogna controllare se possiede le due principali caratteristiche indicate nella definizione: presentazione sotto false spoglie e svolgimento di funzioni dannose (o indesiderate, pericolose).

Iniziamo dalle presunte false spoglie: forse il Sitemap Generator fa qualcosa in più, o in meno o semplicemente diversa da quella dichiarata da Google? Risposta: no.

Le funzioni svolte dal Sitemap Generator sono dannose o indesiderate o pericolose per il webmaster/SEO, anche indirettamente? Risposta: no.

Come faccio ad essere così sicuro di tali risposte? Possiedo forse poteri paranormali e ho letto nelle menti degli ingegneri di Google? Appartengo ad un'avanzata civiltà extraterrestre che possiede tecnologie tanto potenti da individuare tutti i potenziali pericoli e bug di un software? Sono in realtà Batman?

Per quanto mi piacerebbe ammettere di essere Batman, la realtà è molto più semplice e banale: mi sono limitato a leggere il codice del Sitemap Generator e ho preso atto di ciò che fa e ciò che non fa. Non solo, ho persino avuto l'accortezza di fare ciò PRIMA di aprire bocca (o animare le dita su una tastiera) per costruirmi un'opinione in merito. Io trovo tutto ciò estremamente logico.

Google ha infatti diffuso il protocollo Sitemap e il Sitemap Generator sotto la filosofia "open source". A differenza della percezione generale del termine, "open source" non significa "gratuito" ma significa fornire all'utente la possibilità di controllare ed eventualmente modificare il codice sorgente di un software.

Adottando un modello open source, non solo Google ha facilitato l'adozione del protocollo da parte di altri motori di ricerca, ma si è tirato automaticamente fuori da qualsiasi accusa, congettura o dubbio circa la natura del codice che ha sviluppato. Chiunque voglia, può leggere il codice sorgente del Sitemap Generator e constatare quello che fa.

Ovviamente, ipotizzare è una pratica molto più comoda che leggere un testo e tutto sommato è pure plausibile osservare la nascita di dubbi non tanto sull'operato del Sitemap Generator quanto sull'utilizzo delle informazioni raccolte da Google attraverso i file Sitemap.

Tuttavia anche questo altro genere di dubbi è destinato a scomparire quando ci si rende conto (ma bisogna rendersene conto) che il protocollo Sitemaps è nato solo per fornire ai motori di ricerca delle indicazioni di massima sulla quantità di URL che compongono un sito e su alcune caratteristiche di questi URL e che i file sitemap contengono solo le informazioni specificate dal webmaster. Anche nel caso in cui il file venga creato attraverso il Sitemap Generator, è il webmaster a decidere quante e quali informazioni includere, e il software va configurato attentamente prima di essere utilizzato: senza la configurazione operata dal webmaster il Sitemap Generator nemmeno funziona.

Per ciascuna URL presente nel file, il webmaster può (non deve: può) specificare anche con quale frequenza i contenuti indicati dall'URL in linea di massima cambiano e, tra tutti gli URL forniti al motore di ricerca, quali di essi in linea di massima è consigliato prelevare prima di altri. E' possobile fornire altre indicazioni, ma queste citate sono due tra le più utili.

Ad esempio, i contenuti della pagina principale del newsblog di Motoricerca.info cambiano più o meno con frequenza giornaliera, e questa è la frequenza che ho indicato nel file sitemap del sito (sì, lo uso già). A volte capita che non vengano pubblicate notizie per un giorno o anche più, ma si tratta di casi rari e se anche la frequenza di aggiornamento dichiarata non combaciasse con quella registrata autonomamente da Google, non accadrebbe niente di negativo.

Con tutta probabilità, infatti, ciò che Google fa con i valori specificati dal webmaster è semplicemente integrarli con i valori già posseduti e calcolati autonomamente dal motore di ricerca. A volte ci sono pagine di un sito web che si trovano molto in profondità all'interno della struttura gerarchica del sito, e gli spider di Google solitamente visitano queste pagine meno spesso, non potendo così calcolare con precisione quanto frequentemente tali pagine profonde vengono aggiornate.

Usando un file Sitemap, il webmaster può indicare a Google che quelle pagine profonde cambiano frequentemente i propri contenuti e questa indicazione viene in qualche modo (magari attraverso una semplice media aritmetica) usata per calibrare il valore sulla frequenza di aggiornamento che Google calcola da sé. Una volta che tali valori sono più precisi, lo spider di Google sarà più propenso a visitare con la giusta frequenza anche le pagine profonde di un sito web.

Ecco, se proprio bisogna parlar male di Google, si potrebbe dire che l'introduzione di questo protocollo dimostra l'incapacità degli spider di determinare autonomamente e con precisione la frequenza di aggiornamento e l'importanza di tutti i miliardi di pagine archiviate da Google.

Ma i timori che ho riscontrato nella e-mail che ho ricevuto da quel webmaster e, ancora di più, osservati in una discussione su un forum, sembrano essere causati da qualcosa che va oltre la normale e consueta inclinazione della gente a rifiutarsi di "leggere le istruzioni". C'è qualcosa di più.

I timori manifestati, infatti, erano del tipo "a prescindere" e frutto di un'atteggiamento dei SEO, nei confronti dei motori di ricerca, che mi è sembrato non onorevole. Direi quasi di sudditanza psicologica.

La ragione di questo atteggiamento va ricercata nel tipo di rapporto che i webmaster decidono di instaurare con i motori. Essenzialmente, esistono due tipi di rapporto: quello di simbiosi mutualistica e quello conflittuale, con tutta una serie di varie sfumature tra questi due estremi.

Quando tra webmaster e motore esiste un rapporto di simbiosi mutualistica, il motore di ricerca non viene percepito dal webmaster come un avversario da superare né tantomeno come un nemico da sconfiggere. Semplicemente, il webmaster si occupa di creare al meglio possibile il sito web e di promuoverne le caratteristiche degne di nota, e il motore di ricerca si limita a prendere atto sia dei contenuti del sito sia della popolarità che, col tempo, esso è in grado di accumulare. Tutti e due i soggetti ricevono un vantaggio: il motore di ricerca dei buoni contenuti da consigliare ai propri utenti e il webmaster ulteriori visitatori per il proprio sito.

Al contrario, il rapporto conflittuale che molti SEO e webmaster instaurano con i motori di ricerca nasce da un approccio al posizionamento maggiormente orientato alla "cultura della fregatura", ma non prendete questa espressione come qualcosa di negativo: si tratta di qualcosa di fisiologico della natura del SEO. Dal punto di vista psicologico, è stimolante individuare quali caratteristiche vengono premiate dai motori di ricerca e infonderle nei propri siti, perché si tratta spesso di una sfida indiretta con ingegneri di grandi capacità.

Tuttavia questo secondo approccio con i motori produce un pericoloso effetto collaterale: il motore di ricerca viene visto come un nemico, qualcuno da detestare o canzonare perché ritenuto fautore delle sorti di un sito web e ciononostante difficile da rifiutare. Con Google questo atteggiamento è ancora più marcato, perché con i continui cambiamenti dei propri algoritmi e i conseguenti sconquassi prodotti nei risultati delle ricerche, viene percepito da webmaster e SEO come una figura punitiva, un monarca o un padre-padrone dal quale si è deciso di dipendere. Il lupo cattivo.

Per tale ragione, anche quelle iniziative assolutamente innocue o addirittura positive anche per i SEO, vengono accolte dalla classe "conflittuale" dei webmaster come qualcosa di cui sospettare, a prescindere, e della quale provare timore, incertezza, dubbio, paure immotivate.

Perché costruire nei confronti di una macchina un'atteggiamento così tanto succube e paranoico, persino in quei casi in cui è possibile constatare personalmente la natura di una novità o di una nuova iniziativa di un motore di ricerca?

Questo atteggiamento non può essere considerato dignitoso né onorevole per la professione dei SEO, e un posizionatore non dovrebbe mai ritenersi nei confronti di alcun motore di ricerca come un elemento passibile di punizioni bensì come, al massimo, un concorrente onorevole o addirittura un semplice partner commerciale.

Posto che non mi sto certo rivolgendo agli spammer (per i quali il rapporto con i motori oltre che conflittuale è parassita), è così difficile formare nel tempo un carattere orgoglioso della propria professione e contemporaneamente scevro da immotivate paure del lupo cattivo?


Enrico Altavilla

< Torna alla pagina con le notizie più recenti

<< Torna alla pagina principale di Motoricerca.info