Search Marketing

Guida al posizionamento dei siti web nei motori di ricerca

Amico degli spider
Home
2 Apr '05
Guida
8 Nov '04
Articoli
27 Mar '05
News/Blog
La Newsletter
30 Apr '09
FAQ
12 Gen '03
Risorse
10 Ott '04
Il seguente articolo è stato estrapolato dalla Newsletter del 12 maggio 2003.
Per ricevere in anteprima articoli simili, ti invitiamo ad iscriverti alla nostra Newsletter!

Google contro gli spammer

Google pare aver dichiarato guerra ai web spammer, ovvero a coloro che conseguono le posizioni nei risultati delle ricerche ingannando il motore di ricerca circa i contenuti testuali delle pagine e la loro rilevanza su certi argomenti.

Per mesi, Google ha messo a disposizione degli utenti un apposito modulo attraverso il quale poter segnalare abusi del tipo appena indicato, al fine di penalizzare quelle pagine che facevano uso di trucchi, azzerando il loro valore di PageRank o addirittura eliminandole del tutto dall'archivio.

Tuttavia i tempi di reazione di Google a queste segnalazioni sono sempre stati piuttosto lunghi e spesso i siti web oggetti delle segnalazioni non venivano mai penalizzati né rimossi dall'archivio di Google. Tra le ragioni che influivano su tali lentezze spiccava indubbiamente la difficoltà di determinare attraverso sistemi automatici se una pagina faceva realmente uso di tecniche di posizionamento illecite.

Oggi questa difficoltà sta per essere superata, almeno in parte.

Alla manifestazione "PubConference" tenutasi a Boston il 26 aprile 2003, un ingegnere di Google (Matt Cutts) ha accennato a nuove misure contro le tecniche di spam e in particolare a nuove tecnologie che sono già entrate in funzione per identificare l'esistenza di quei testi nascosti il cui unico scopo è quello di rendere le pagine web più attinenti per la ricerca di alcune keyword.

Non sono stati offerti molti particolari sulla nuove tecnologie sviluppate, tuttavia il fatto che Cutts abbia maturato esperienze in tecnologie per il riconoscimento di forme all'interno di immagini, lascia presupporre che parte degli algoritmi potrebbero basarsi sull'individuazione del testo all'interno delle immagini. Il condizionale è, ovviamente, d'obbligo.

In aggiunta a ciò, è stato detto che le nuove tecniche saranno in grado di individuare il testo nascosto attravero i metodi più comuni: colore del testo identico al colore del fondale, trucchi con le proprietà "hidden" e "position" dei CSS e soluzioni che si appoggiano al linguaggio Javascript.

Con queste tecnologie a disposizione, un buon metodo per individuare il testo nascosto potrebbe consistere nel "renderare" (disegnare) la pagina esattamente come fanno i normali browser degli utenti e poi accertarsi che all'interno dell'immagine ottenuta esistano effettivamente i testi individuati nel codice HTML.

Si tratterebbe di una soluzione discreta ma non certo ottimale, in quanto sono sempre possibili margini di errore che potrebbero penalizzare ingiustamente pagine web "genuine". Del resto esistono molti casi in cui il ricorso ai testi nascosti è del tutto lecito e si rende necessario per la realizzazione di "contenuti a comparsa" (si pensi ai menu di navigazione che fanno uso di "tendine").

Per minimizzare gli errori, Google applicherà inizialmente i controlli anti-SPAM solo alle pagine web segnalate dagli utenti attravero l'apposito modulo di segnalazione degli abusi e gli spider che si assumeranno il compito di controllare le pagine segnalate sono già stati soprannominati "spambot".

Inoltre, diverse indicazioni "seminate" dai responsabili di Google lasciano pensare che questi controlli saranno semi-automatici, ovvero vedranno la partecipazione di personale umano, ben capace di discernere tra gli usi "abusivi" dei testi (o dei link) nascosti e gli usi del tutto leciti.

In ogni caso, si sta aprendo una nuova era per la lotta agli spammer. Se i nuovi algoritmi di Google funzioneranno, i risultati delle ricerche risulteranno più "puliti" e privi di quei siti che, vuoti di contenuto reale, attualmente infestano le prime pagine del motore di ricerca.

Google ha sempre spinto gli utenti e i webmaster a segnalare probabili casi di web spam. Le nuove tecniche per l'individuazione del testo nascosto rappresenteranno un'opportunità in più per contribuire a migliorare i risultati delle ricerche e per rimuovere dagli archivi quelle pagine che ottengono buone posizioni principalmente per mezzo di trucchi ed espedienti.

<< Torna alla pagina principale