Search Marketing

Guida al posizionamento dei siti web nei motori di ricerca

Amico degli spider
Home
2 Apr '05
Guida
8 Nov '04
Articoli
27 Mar '05
News/Blog
La Newsletter
30 Apr '09
FAQ
12 Gen '03
Risorse
10 Ott '04

Newsblog (giugno 2005)

I promotional credits sono adesso disponibili anche per Italia e altri paesi europei e gli esami sono adesso multilingua.
30 giugno '05 09:47:11
Il blog di AdWords comunica che i promotional credits, ovvero i crediti gratuiti riservati ai Google Advertising Professionals per promuovere AdWords tra i propri clienti, sono adesso disponibili anche per Italia, Francia, Germania, Spagna, Olanda e Regno Unito.

Contemporaneamente, gli esami di ammissione per divenire un advertising professional sono ora disponibili in sei nuove lingue, compreso l'italiano, e anche gli utenti giapponesi possono finalmente prendere parte al programma.

L'intervento sul blog annuncia anche alcune migliorie a My Client Center.

Il motore di ricerca per le notizie tematizzate espande la propria copertura al Canada, aggiungendo numerose fonti di informazioni.
30 giugno '05 08:36:30
SearchEngineWatch fa notare che il motore di ricerca Topix.net, specializzato nella categorizzazione di notizie per tema e per locazione geografica, ha aggiunto una pagina dedicata al Canada.

Le notizie sul Canada vengono estrapolate da circa 700 fonti di informazione locale, fornendo informazioni e aggiornamenti in tempo reale che riguardano oltre 4.200 città canadesi.

Topix.net si è distinto tra gli altri servizi di aggregazione di news per la sua capacità di categorizzarle in temi, creando a tutti gli effetti migliaia di canali di informazione tematici e regionali. Ecco ad esempio le notizie sull'Italia.

Google disabilita il download del software Google Earth e DVD Jon si diverte col codice del Google Video Viewer.
30 giugno '05 07:19:43
Nel momento in cui scrivo, il prelievo di Google Earth è stato disabilitato dal motore di ricerca.

Per quanto diverse persone abbiano pensato che la ragione risiedesse in qualche bug individuato all'ultimo momento dai progettisti di Google (o in problemi legali relativi all'attuale visualizzazione di obiettivi sensibili), un portavoce del motore di ricerca ha comunicato a SEW che la limitazione dei download da parte degli utenti era prevista sin dall'inizio (i motivi non sono chiari) e che sarà nuovamente possibile scaricare il software "molto presto".

Anche Google Video torna a far parlare di sé, ricevendo un "piccolo regalo" da parte di DVD Jon, il famoso hacker che più di una volta ha modificato software per eliminarne limitazioni.

Nel proprio blog, DVD Jon ha infatti pubblicato una patch al software Google Video Viewer, che elimina la restrizione che impediva al software di riprodurre filmati ospitati su server che non fossero quelli di Google.

A differenza di altre volte, stavolta il contributo di DVD Jon pare essere maggiormente in linea con la filosofia con la quale il Google Video Viewer è stato prodotto e diffuso dal motore di ricerca: quella open source. Il software è infatti un derivato di VLC (il client open source di VideoLAN) e l'hacker ha prodotto la patch dopo aver individuato la limitazione nella patch pubblica (Da VLC a GVV) che lo stesso Google ha diffuso.

Yahoo! lancia My Web 2.0, un'evoluzione del proprio sistema di personalizzazione delle ricerche, adesso basato sulle ricerche sociali.
30 giugno '05 06:35:08
Social Search è l'espressione che racchiude tutta la potenza innovativa della versione 2.0 di My Web, il servizio di Yahoo! per le ricerche personalizzate, annunciato sul blog del motore di ricerca.

A differenza della prima versione di My Web, della quale avevamo già parlato in questa notizia di aprile scorso, My Web 2.0 propone un modello di ricerche personalizzate del tutto diverso, basato sulla condivisione di informazioni tra gli utenti: da qui l'espressione "ricerca sociale".

I tre concetti principali sui quali il nuovo servizio è fondato sono la possibilità per ogni utente di creare una propria comunità con altri utenti Yahoo!, creare un archivio condiviso di pagine web ed effettuare ricerche personalizzate, i cui risultati variano in base alle pagine archiviate dalla comunità di cui si fa parte. L'algoritmo usato da My Web 2.0 per compilare i risultati di ricerca è chiamato MyRank.

Il nuovo approccio sperimentato da Yahoo!, dunque, è fortemente incentrato sui legami sociali che si svilupperanno tra gli utenti: le ricerche personalizzate effettuate su My Web 2.0 vengono infatti condotte solo sull'archivio di pagine creato dall'utente e sugli archivi degli altri utenti che appartengono alla propria comunità, non sull'intero Web.

La quantità delle pagine individuate attraverso una ricerca personalizzata può quindi aumentare solo se l'archivio di pagine creato dall'utente e dalle altre persone appartenenti alla propria comunità è abbastanza corposo. Questo spingerà gli utenti a stringere contatti con gli altri, possibilmente con persone che condividono interessi comuni, al fine di estendere la dimensione del super-archivio (l'insieme di tutti gli archivi degli utenti della propria comunità) e garantirsi risultati di ricerca migliori.

Per iscriversi a My Web 2.0 si accede alla home page del servizio e lo si attiva cliccando sul pulsante "Try it now" e sui pulsanti di conferma delle pagine successive. Gli utilizzatori di My Web 1.0 vedranno automaticamente importato il proprio archivio di pagine web, con le eventuali note e informazioni ad esse attribuite.

Fatto ciò, si accede alla pagina principale del servizio, che consente di cercare sia nel Web personale (proprio e della comunità) sia, per comodità, nel World Wide Web. Sotto il campo della ricerca, Yahoo! indica di quante pagine è composto il proprio archivio di pagine e quello della propria comunità.

Iniziare a creare un archivio è semplice: una qualunque ricerca condotta in Yahoo!, sia sul motore "classico" che su quello personalizzato di My Web, presenterà infatti a fianco dei risultati un link "Save" che permetterà di conservare la pagina web nel proprio archivio e decidere se tenerla per sé o condividerla con altri utenti. Se condivisa, da quel momento la pagina archiviata potrà apparire (se opportuno) nelle ricerche personalizzate proprie e degli altri utenti che appartengono alla propria comunità.

Ampliare la propria comunità di utenti è facile in quanto è sufficiente invitarli cliccando l'apposito link sulla home page di My Web 2.0, presente anche un po' ovunque sulle altre pagine del servizio. L'utente invitato deve accettare l'invito per diventare membro della propria comunità: una volta efettuato questo passo, le ricerche di entrambe gli utenti (invitato e invitante) beneficeranno del super-archivio di pagine che My Web creerà automaticamente.

Una caratteristica di My Web 2.0 sono i tag, ovvero delle keyword che possono essere attribuite ad ogni pagina archiviata per categorizzarla e facilitarne la futura ricerca. Queste meta-informazioni vengono anch'esse condivise tra gli utenti e sono estremamente simili al modello di tagging sviluppato da Flickr, il servizio di condivisione di foto che Yahoo! ha acquistato nel marzo 2005.

In ogni momento, l'utente può accedere al proprio archivio di pagine, tag e contatti cliccando sugli appositi link presenti sulla home page.

Questa ricerca sociale introdotta da Yahoo! rappresenta un ulteriore passo avanti in direzione di un web meno generico e maggiormente tagliato su misura. A differenza di altri sistemi di personalizzazione delle ricerche, come quello recentemente presentato da Google, il metodo di Yahoo! necessita una certa partecipazione da parte degli utenti, per poter offrire buoni risultati. D'altro canto, mentre il sistema di personalizzazione di Google si basa solo sulle ricerche effettuate dal singolo utente, quello di Yahoo! può beneficiare di informazioni (archivi e tag condivisi) che derivano dalle azioni dell'intera comunità di My Web a cui l'utente appartiene.

Il passo di Yahoo! è considerato talmente importante dal portale che è stato creato anche un apposito blog di My Web e una API per consentire ai programmatori di estendere il servizio. Le FAQ del servizio forniscono infine una panoramica di come My Web 2.0 funziona.

Google compie il primo vero passo verso la personalizzazione delle ricerche, cambiando il modo in cui i SEO dovranno gestire il posizionamento.
29 giugno '05 09:30:08
Le personalizzazione delle ricerche non è un concetto nuovo, ma si tratta di un passo tecnologico che è stato per molto tempo rinviato dai principali motori di ricerca, sia perché ha richiesto investimenti considerevoli nella ricerca delle migliori soluzioni, sia perché le ricerche personalizzate rischiano di cambiare definitivamente il paradigma sul quale finora le ricerche si sono basate: a ricerca uguale corrispondono risultati uguali, a prescindere da chi compie la ricerca.

Google ha adesso compiuto un passo significativo verso la personalizzazione delle ricerche, annunciando l'attivazione di Personalized Search, al momento disponibile solo per gli utenti con un account Google e solo per le ricerche sul Web (immagini, news e altri servizi non sono al momento interessati).

Per evitare confusioni, va innanzitutto precisato che questo "Personalized Search" ben poco ha a che fare con un omonimo servizio sperimentale di Google, finora proposto in Google Labs e adesso accantonato. Il precedente Personalized Search chiedeva all'utente di indicare alcune categorie tematiche sulle quali i successivi risultati di ricerca sarebbero stati, in parte, basati.

Il nuovo Personalized Search è tutta un'altra storia e consiste nella capacità di Google di fornire risultati di ricerca più vicini agli interessi dell'utente in base alle ricerche precedentemente effettuate e registrate dal già esistente servizio My Search History, del quale abbiamo già discusso in passato.

Un classico esempio nel quale le ricerche personalizzate possono fornire risultati migliori è nella disambiguazione delle ricerche generiche: la ricerca della parola "motori" può condurre a risultati diversi a seconda che l'utente abbia in precedenza mostrato di interessarsi al posizionamento dei siti oppure alle ultime prodezze di Valentino Rossi.

L'integrazione tra i due servizi dovrebbe dunque essere chiara: My Search History provvederà a tener traccia delle ricerche effettuate dall'utente, fornendo anche la possibilità di effettuare ricerca tra i dati storici archiviati, mentre Personalized Search si occuperà di modificare i risultati delle ricerche sul Web tenendo conto della storia delle ricerche effettuate dall'utente.

Se la quantità delle ricerche archiviate da My Search History per un utente è bassa, inizialmente Personalized Search non sarà in grado di produrre ricerche personalizzate per quell'utente, ma col passar del tempo e con l'aumentare delle ricerche conservate da My Search History Google sarà in grado di fornire ricerche personalizzate sempre più precise.

Per utilizzare le ricerche personalizzate è innanzitutto necessario possedere un account di Google. Gli utenti di altri servizi di Google, come GMail o la home page di Google personalizzata, possiedono già un account e non necessitano di fare alcunché.

Una volta effettuato il login a Personalized Search si verrà dirottati alla normale home page di Google e si potrà iniziare ad effettuare le ricerche: alcune di esse mostreranno i normali risultati di ricerca mentre altre saranno personalizzate e sono distinguibili dal fatto che Google mostra un link "Turn OFF Personalized Search for these results", che permette di spegnere temporaneamente la personalizzazione delle ricerche per quella ricerca.

Chi intendesse disabilitare il servizio di personalizzazione per tutte le proprie ricerche può effettuare un logout dal proprio account Google, ma in questo modo non si potrà accedere a nessuno degli altri servizi che necessitano di un login ad un Google Account, come GMail. In alternativa è allora possibile disabilitare definitivamente Personalized Search accedendo alla pagina di gestione del proprio account Google e selezionare "Delete Personalized Search" dal menu a sinistra.

Per migliorare ulteriormente i risultati personalizzati offerti da Google, può essere una buona idea non far registrare a My Search History tutte le proprie ricerche, ma solo quelle maggiormente significative. Per fare ciò si può accedere alla pagina di gestione di My Search History e cliccare sul link "Pause", che disabiliterà la registrazione delle ricerche effettuate fino a quando l'utente non cliccherà sul link "Resume".

Si noti che "Pause" disabiliterà solo la registrazione delle future ricerche, non la personalizzazione dei risultati, che è disabilitabile solo con i metodi sopra spiegati.

La personalizzazione delle ricerche è una di quelle novità che rischiano di cambiare per sempre non solo il modo in cui gli utenti cercheranno ma anche le metodologie di posizionamento finora impiegate dai SEO.

Con dei risultati di ricerca che variano da utente ad utente ed un motore di ricerca che deve determinare il tema o la categoria delle ricerche effettuate in precedenza (o addirittura i risultati di ricerca sui quali l'utente ha cliccato), il lavoro del SEO si complica a dismisura e tutti gli sforzi finora profusi a tematizzare i siti web dovranno ulteriormente essere moltiplicati [ma di questo parlerò nel prossimo editoriale. Ndr].

Google rende gratuitamente disponibile agli utenti Google Earth, il nuovo software che permette di visualizzare ed esplorare il pianeta Terra
29 giugno '05 07:10:47
Google annuncia la disponibilità di Google Earth, un software gratuito per PC Windows XP/2000 che deriva dalla precedente applicazione sviluppata da Keyhole e che consente di visualizzare molte zone del pianeta in maniera estremamente dettagliata, attraverso foto satellitari ed aeree.

La tecnologia di Google/Keyhole per la visualizzazione delle locazioni è stata anche utilizzata in Google Maps per fornire all'utente una visuale del pianeta dal satellite, oltre alla classica visualizzazione delle cartine stradali.

Google Earth, così come il suo predecessore Keyhole, non sono software utilizzabili da qualunque PC ma richiedono certe caratteristiche: una connessione veloce ad Internet, sistema operativo Windows XP o 2000, 200MB di spazio libero sul proprio HD ed una scheda grafica con 16MB di memoria video, oltre ad altre piccole e comuni necessità elencate nella pagina di download del software.

Per chi possiede un PC con tutte le caratteristiche richieste, Google Earth offre un'esperienza di "navigazione del pianeta" molto accattivamente. Tra le novità introdotte da Google al software originariamente sviluppato da Keyhole si evidenzia la possibilità di effettuare ricerche locali sulla zona visualizzata dall'applicazione. Le ricerche sfruttano il familiare servizio Google Local e sono disponibili solo per quelle zone del pianeta attualmente coperte dalle ricerche locali di Google (USA, Canada, Regno Unito).

La visualizzazione in 3D di alcune delle città indicizzate da Google Earth garantisce un'utilità ancora maggiore delle normali foto aeree, oltre che alquanto spettacolare. "Girare attorno" agli edifici di una città rende a volte più chiara la strada da seguire per raggiungere una locazione o più familiari le zone visitate nella vita reale. I palazzi in 3D tuttavia vengono disegnati con semplici rettangoli monocolore per le pareti, a differenza di quello che apparentemente riuscirà a fare il software Virtual Earth di MSN, che uscirà in futuro e che mostrerà le reali facciate degli edifici.

L'esperienza che Google Earth offre è tutto fuorché "statica"; oltre alla semplice visualizzazione statica delle locazioni è infatti possibile raggiungere un obiettivo e muoversi sulla mappa sorvolando il territorio fino a destinazione. Dei controlli in fondo alla finestra dell'applicazione permettono inoltre di impostare diversi settaggi, come il livello di zoom dell'immagine e l'angolo con cui la visuale deve essere mostrata.

Un'altra caratteristica estremamente utile è rappresentata da alcuni "strati" che possono essere sovrapposti alla visuale per evidenziare la presenza sul territorio di scuole, ospedali, parchi, negozi ed altre locazioni di pubblico interesse.

Le ricerche effettuate attraverso l'apposita sezione di ricerca localizzata evidenziano sulla mappa/visuale le locazioni individuate per mezzo dei fumetti diventati familiari in Google Maps, che contengono informazioni sulla risorsa individuata.

E' infine possibile aggiungere dei "segnaposto" sulla mappa di locazioni individuate, per ritrovarle più facilmente in futuro. Queste informazioni possono anche essere esportate in un apposito formato XML (chiamato KML) e scambiate con altri utenti: in questo modo Google si è garantito una miglioria del software prodotta dagli utenti stessi, che potranno scambiarsi informazioni per rendere le proprie mappe maggiormente utili e navigabili.

Inside Google propone diversi screenshot dell'applicazione, così come molte immagini di esempio, FAQ e link a versioni avanzate e commerciali del software possono essere trovate partendo dalla home page di Google Earth.

Da evidenziare anche la pagina col tour, che illustra le principali caratteristiche del programma, e quella che elenca alcune conosciute locazioni del pianeta, con link a file in formato KML per farle visualizzare al software.

29 giugno '05 06:24:06
Deepy non passerà alla storia per aver introdotto innovazioni significative nel settore dei motori di ricerca, tenuto anche conto che i suoi risultati sono forniti da GigaBlast, tuttavia alcune tecniche utilizzate sul sito del nuovo motore introducono qualche novità nell'interfaccia utente.

La prima caratteristica che salta subito all'occhio è un correttore sintattico che controlla il testo cercato dall'utente mentre lo stesso viene digitato e non dopo che la ricerca è stata effettuata. Durante la digitazione dei termini di ricerca, infatti, Deepy cerca di individuare errori sintattici nelle parole scritte dall'utente e, in caso ne trovi, propone proprio sotto il campo di ricerca un link che conduce ad una ricerca del testo corretto.

Questo risultato è stato ottenuto attraverso tecniche che sfruttano Javascript ed HTML asincrono, metodi che generalmente vengono identificati dall'acronimo AJAX (Asynchronous JavaScript and XML) e che ultimamente si sono diffuse parecchio sul web, anche grazie alla loro adozione da parte di altri motori di ricerca. Esempio: l'interfaccia di GMail, che risponde alle azioni dell'utente in tempi brevissimi e paragonabili a quelli di un'applicazione installata su un PC.

Ma le introduzioni di Deepy che maggiormente risaltano all'occhio consistono nell'interfaccia della pagina con i risultati di ricerca. Per ogni risultato riportato, infatti, è possibile visualizzare un'anteprima della pagina web individuata dal motore cliccando un apposito link. Questa azione divide la pagina in due sezioni: i risultati di ricerca rimangono visualizzati nella parte superiore della finestra mentre la parte inferiore mostra l'anteprima della pagina web con evidenziato il testo cercato dall'utente. La sezione con l'anteprima può essere chiusa dall'utente cliccando una classica icona di chiusura in alto a destra.

Tra le altre originali caratteristiche di Deepy, si segnala anche un'opzione per visualizzare le ricerche precedentemente fatte dall'utente e la comoda e costante presenza dei link che conducono alle pagine successive di una ricerca. Tali link sono sempre presenti e non è necessario che l'utente scorri la pagina in basso come si è costretti a fare in molti motori di ricerca.

28 giugno '05 08:16:38
Su Threadwatch si discute di un metodo piuttosto semplice per eliminare un proprio competitore dall'archivio di Yahoo! con effetto pressocché immediato, anche se non duraturo.

La tecnica consiste nel compilare e inviare al motore di ricerca un Digital Millenium Copyright Act (DMCA), un documento che serve a comunicare formalmente che i contenuti di un sito ledono un copyright.

Quando un motore di ricerca riceve un DMCA che lamenta contenuti che ledono un copyright, deve immediatamente a rimuovere il sito denunciato dai propri archivi. Il motore non è costretto ad indagare su quanto le accuse sono fondate o meno ma si deve limitare ad informare il proprietario del sito eliminato del fatto che è stato compilato un DMCA nei confronti del sito.

A questo punto, il proprietario del sito può compilare un secondo documento chiamato Counter Notice nel quale afferma che i contenuti del proprio sito non ledono alcun diritto altrui, e inviarlo al motore di ricerca, che può reinserire il sito nell'archivio, ma dopo un'attesa di trenta giorni. Un buon modo per rovinare le vendite stagionali di un competitore!

La parte più aberrante (e probabilmente pure illegale) di questa tecnica, tuttavia, consiste nel compilare il DMCA fornendo una falsa identità, per evitare di intercorrere in sanzioni. Un poster su Threadwatch spiega come è diventato vittima di questo metodo e aggiunge che acquistare una nuova scheda per il cellulare e usare un indirizzo e-mail usa-e-getta sono dei buoni passi per garantirsi una certa immunità.

Ciò che la discussione su Threadwatch non dice è che tale metodo è perfettamente applicabile anche a Google e ad altri motori di ricerca, in quanto sono tutti tenuti a rispettare i DMCA ricevuti.

Google Video attiva la ricerca dei filmati inviati dagli utenti durante gli ultimi mesi e la loro visualizzazione attraverso un apposito software.
28 giugno '05 07:43:59
Google annuncia l'attivazione in Google Video della possibilità di effettuare ricerche tra i filmati inviati dagli utenti attraverso il programma Video Upload.

Finora il servizio di ricerca dei filmati aveva limitato le sue capacità all'indicizzazione di trasmissioni televisive, stringendo accordi con numerose emittenti e network. Adesso, anche i video inviati a Google dagli utenti potranno essere oggetto di ricerca e tenuto conto che Google Video effettua ricerche sulle meta-informazioni relative ai filmati, quei produttori che hanno fornito oltre al video anche una trascrizione dell'audio aiuteranno Google e gli utenti ad ottenere ricerche di migliore qualità.

Effettuando una qualunque ricerca, Google Video distingue i filmati inviati dagli utenti con il termine "Uploaded" e mostra una icona a forma di freccia a fianco del titolo, ad indicare che il filmato può essere riprodotto usando l'apposito Video Viewer sviluppato dal motore di ricerca.

Il Video Viewer è un plugin basato su VideoLAN ed è stato sviluppato sia per Internet Explorer che per Firefox, ma solo per piattaforma Windows (Win 2000 o superiore), pertanto la visualizzazione dei video da parte di piattaforme Macintosh o Linux è al momento impossibile. Ma il fatto che il software sia basato su VideoLAN, un software open source, fa ben sperare che le versioni per altre piattaforme del Video Viewer non tarderanno ad arrivare.

Una caratteristica interessante del servizio consiste nel fornire all'utente, sulla pagina alla quale si accede cliccando sul titolo del video o sulla freccia, la possibilità di riprodurre il filmato a partire da un punto preciso, in particolare da quei punti che trattano i termini inseriti in fase di ricerca.

Google ha anche predisposto un apposito sistema di segnalazione per quei casi in cui un video presenta contenuti per adulti oppure lede un copyright.

Danny Sullivan, su SearchEngineWatch, ha intervistato Peter Chane, product manager di Google Video, chiedendogli come mai Google ha preferito un programma di upload invece di perlustrare il web in cerca di video con uno spider, e se Google Video supporterà il formato RSS Media. Una lettura consigliata.

28 giugno '05 07:08:11
SEO by the SEA si terrà nel Maryland e precisamente ad Havre de Grace (una cittadina sul mare), dal 19 al 21 agosto 2005.

Si tratta di un incontro tra posizionatori durante il quale i partecipanti si godranno la breve vacanza nella cittadina turistica, discutendo (anche) di posizionamento, visitando i luoghi caratteristici della città e il festival artistico che vi si tiene in quei giorni, frequentando ristoranti e pub e facendo una gita in barca.

Solitamente non riporto notizie così distanti (geograficamente e per interesse) dagli interessi italiani, ma questo piccolo evento mi ha ricordato quelle vacanze SEO in Thailandia organizzate da Giorgiotave ed Elena Cotti, che tanto interesse hanno riscontrato tra i posizionatori.

Pare che coniugare SEO e vacanze sia una ricetta che funziona bene.

28 giugno '05 06:23:48
A New Orleans, oltre la normale conferenza di WebmasterWorld, Google ha tenuto un party la sera del 22 giugno, durante il quale diversi ingegneri del motore di ricerca hanno fornito molte interessanti e utili informazioni circa alcune caratteristiche di Google.

In particolare, SEO Scoop riporta una risposta di un ingegnere di Google riguardo i criteri e le modalità che Google segue per decidere se penalizzare un sito web in seguito ad un improvviso aumento delle sue pagine.

L'ingegnere ha spiegato che Google non potrebbe mai stabilire che un improvviso aumento di pagine sia un evento negativo o legato ad un'azione di spamming e per tale ragione il motore di ricerca non può penalizzare un sito solo perché un evento simile è stato registrato.

Invece, un'improvvisa e massiccia variazione nel numero di pagine di un sito viene considerato un evento "sospetto" e che merita maggiore analisi; un controllo automatico va dunque in cerca di altri siti che hanno mostrato effetti simili e calcola se per caso la maggior parte di tali siti è stata considerata in precedenza spam da Google. In caso affermativo, anche il sito che si è comportato in maniera analoga ai siti di spam viene considerato un sito che fa spamming.

In poche parole, Google può considerare un sito spam se esso mostra comportamenti simili a quelli effettuati da altri siti che Google ha già determinato essere spam.

La risposta dell'ingegnere di Google riguardava in maniera specifica un aumento improvviso di pagine, ma è chiaro che il concetto andrebbe allargato anche ad altri generi di eventi, come per esempio un improvviso aumento di backlink.

L'ingegnere di Google ha anche aggiunto che nei casi in cui un sito venga erroneamente ritenuto spam dal motore di ricerca, il webmaster dovrebbe segnalare il problema a Google affinché gli ingegneri provvedano a migliorare l'algoritmo in modo tale che errori simili non avvengano in futuro.

SEO Scoop indica anche le modalità attraverso le quali un webmaster può richiedere la reinclusione di un sito nel motore di ricerca:


  • Essere certi che il sito non sia più presente negli archivi di Google (una ricerca con site:www.nomesito.it non restituisce informazioni);
  • Eliminare tutte le caratteristiche di spam dal sito;
  • Andare qui e selezionare le voci più opportune fino a quando non verrà mostrato un campo per la scrittura del messaggio;
  • Specificare nell'oggetto "reinclusion request";
  • Spiegare accuratamente la natura del problema e aggiungere che il sito non è presente negli archivi di Google;
  • Inviare il messaggio e attendere una e-mail di conferma. Nel caso in cui in futuro si decida di ricontattare Google per lo stesso problema, è meglio rispondere all'e-mail ricevuta invece che scrivere una e-mail ex novo;
  • Sperare che il problema venga risolto al più presto possibile.


La conferenza WebmasterWorld 2005 ha offerto interventi su varie tematiche SEO e informazioni da parte dei principali motori di ricerca.
28 giugno '05 06:20:34
La conferenza di WebmasterWorld si è tenuta dal 21 al 24 giugno 2005 a New Orleans ed ha visto protagonisti molti esperti di posizionamento che hanno discusso su svariati argomenti legati al search engine marketing.

Alcuni degli interventi che hanno riscosso maggiore attenzione sono stati quelli offerti dai responsabili dei principali motori di ricerca, che hanno fornito ai partecipanti preziose informazioni sul funzionamento dei motori e su diversi temi che negli ultimi dodici mesi hanno influito direttamente sulle attività dei SEO.

Rustybrick ha eccellentemente illustrato gli interventi più importanti della conferenza in questa pagina di Search Engine Roundtable. Uno degli interventi più interessanti è stata la sessione con i rappresentanti dei principali motori di ricerca: Matt Cutts di Google, Tim Mayer di Yahoo!, Rahul Lahiri di Ask Jeeves e Eytan Seidman di MSN Search.

Durante questa sessione, ogni relatore ha presentato i progressi svolti dal proprio motore di ricerca e ha fornito esempi delle caratteristiche dei nuovi servizi.

Matt Cutts, in particolare, ha anche trattato il problema dell'hijacking su Google, attraverso i redirect di tipo 302, spiegando la natura del problema e come lo stesso è stato affrontato per eliminarlo definitivamente. Anche per quanto riguarda l'aggiornamento Bourbon, Matt Cutts ha fornito un indirizzo e-mail al quale i webmaster possono segnalare problemi o eventuali risultati di bassa qualità: jun05feedback@googlegroups.com

Rahul Lahiri ha invece sottolineato che, in Teoma/Ask Jeeves, la tematizzazione dei link conta moltissimo e che perseguire semplicemente la quantità dei link non è sufficiente ad ottenere buoni risultati. Il rappresentante di Teoma ha anche illustrato il concetto di hubs and authorities e come il medesimo viene applicato dal motore di ricerca.

Questa sessione che ha visto protagonisti alcuni SEO esperti di tecniche sia "white hat" che "black hat" [detesto questi termini, ma li usano tutti. Ndr] ha fornito utili informazioni su vari aspetti del posizionamento, ad esempio le differenze tra il posizionamento di Yahoo! e quello di Google e quali implicazioni avrà l'introduzione del Latent Semantic Indexing (LSI) sui SEO.

27 giugno '05 01:54:12
Questa faccenda del PageRank che sembra scendere, ma che in realtà è salito o è rimasto invariato, stupirà più di una persona.

In realtà ricordo di aver spiegato più di una volta in passato, sui forum, che un passaggio da (generalizzando) PRx a PRx-1 in seguito ad un ricalcolo del PageRank da parte di Google non indica necessariamente un abbassamento dell'indice di popolarità calcolato dal motore di ricerca. Ma è trascorso del tempo, e ho notato che questa informazione non è ancora molto diffusa, pertanto la ripubblico, spiegandola.

La notizia continua. Leggi il seguito...

26 giugno '05 19:52:51
Google annuncia di aver semplificato e resa più immediata la procedura attraverso la quale gli utenti di Blogger possono inserire immagini nei propri blog.

Finora gli utenti dovevano necessariamente installare un apposito software sui propri PC Windows e procedere all'invio di immagini attraverso esso.

Adesso Blogger mette a disposizione una semplice icona sull'interfaccia per la composizione dei messaggi che, pressata, mostra dei controlli che consentono all'utente di inviare una o più immagini e specificarne la posizione all'interno del messaggio e la grandezza con cui dovrà essere visualizzata.

Attualmente, il sistema accetta immagini nei formati GIF, JPEG, TIFF, PNG e BMP. La quantità massima di spazio che le immagini possono occupare è di trecento megabyte.

MSN ha pubblicato una spiegazione approfondita e completa di esempi dei nuovi operatori di ricerca introdotti recentemente.
26 giugno '05 18:56:19
Tutti i nuovi operatori per la ricerca di MSN vengono illustrati in questo post del blog di MSN Search.

Alcuni di essi potranno risultare particolarmente utili al posizionamento, in particolare MSN ha introdotto un nuovo operatore chiamato linkdomain:, che riporta la lista di pagine che offrono un link ad una quasiasi delle pagine ospitate sotto un nome di dominio.

Un ulteriore nuovo operatore, che non pare sia mai stato introdotto in precedenza da alcun motore di ricerca, è contains: e riporta all'utente una lista di pagine che contengono un link verso un file con un'estensione specifica.

Ad esempio la query ["motori di ricerca" contains:(rss xml rdf atom)] riporta tutte le pagine che hanno a che fare con i termini "motori di ricerca" e che contengono anche un link ad un file in formato RSS, RDF, XML o Atom. Un ottimo modo per individuare blog e servizi di news sui motori di ricerca che offrono anche un feed!

Il post sul blog di MSN continua illustrando alcune attuali limitazioni degli operatori inurl: e inanchor:, che si prevede verranno eliminate al più presto.

26 giugno '05 18:37:26
Louis Monier, uno dei "padri" di Altavista e responsabile di parte della tecnologia introdotta dal motore di ricerca nel settore, ha lavorato per anni per EBay, sviluppando tra le altre cose il motore di ricerca interno. Adesso ha lasciato la compagnia delle aste online per farsi assumere da Google.

John Battelle pubblica un'intervista con Monier, chiedendogli in poche parole due cose: la ragione del passaggio da EBay a Google e il tipo di incarichi che gli verranno affidati dal motore di ricerca.

Monier afferma che lavorare per EBay, per quanto gratificante, lo costringeva ad occuparsi di un settore estremamente specifico mentre la sua nuova posizione in Google gli permetterà di spaziare in campi tecnologici diversi, grazie al fatto che gli interessi di Google richiedono conoscenze in molteplici aree della conoscenza.

Certamente, questo passaggio da EBay (proprietaria di PayPal) a Google non potrà che alimentare ulteriormente le voci secondo le quali Google si appresterebbe a sfornare un servizio competitore al sistema di pagamenti PayPal, sebbene Schmidt (CEO di Google) si sia affrettato a precisare che non è intenzione di Google produrre un "PayPal killer".

Monier dice di non sapere esattamente di cosa si occuperà in Google. Ha ricevuto carta bianca e ciò gli permetterà di lavorare nei settori che più lo affascinano. Questa possibilità ha costituito una delle molle che ha spinto Monier ad abbandonare il suo lavoro presso EBay.

26 giugno '05 14:53:24
InsideGoogle segnala un articolo su Adweek che rivela un esperimento condotto da Yahoo! e Revenue Science per testare un modello di pubblicità basata sui comportamenti degli utenti, che potrebbe essere utilizzato nel sistema di inserzioni che darà battaglia ad AdSense.

A differenza delle pubblicità di Google, che vengono scelte dal software del motore di ricerca in base ai contenuti e temi discussi sulla pagina web, il sistema di Yahoo! e Revenue Science (specializzata proprio in pubblicità comportamentale) sceglie invece le pubblicità in base al comportamento dell'utente, ovvero in base ai siti web visitati in precedenza dal medesimo.

Omar Tawakol, senior vice president di Revenue Science, spiega che la scelta delle pubblicità in base alla navigazione dell'utente può portare a risultati migliori rispetto alla pubblicità basata sul contenuto della sola pagina web che ospita le inserzioni. La ragione di questa affermazione risiede nel fatto che molte delle pagine sul web sono aride di contenuti e che questa carenza può costituire un limite per la pubblicità contestuale ma non per la pubblicità comportamentale.

Tawakol non scende nei particolari tecnici e non spiega come Revenue Science riesca a seguire l'utente nelle sue scorribande per il Web. Tuttavia, analizzando il codice HTML di Dogster, uno dei siti che sta partecipando a questa sperimentazione di Yahoo!, si nota che, oltre al richiamo di uno script Javascript che presumibilmente è destinato a mostrare le pubblicità, il browser dell'utente viene spinto a caricare in background una pagina PHP dal nome adlog.php, sfruttando l'attributo src di un tag img opportunamente nascosto attraverso la proprietà hidden di uno stile CSS.

Non si può escludere che quel file di log venga sfruttato per individuare i siti visitati dall'utente, e la soluzione della falsa immagine non sarebbe certo nuova ai sistemi di tracking, anche se senza spiegazioni ufficiali è possibile produrre solo buone ipotesi.

Si noti che non è detto che questo sistema di pubblicità basata sulla navigazione degli utenti sarà effettivamente quello che Yahoo! deciderà di sfruttare per il futuro network di inserzioni. I test in corso, infatti, servono proprio a decidere se la qualità dei risultati è abbastanza alta da prendere in considerazione l'adozione di questa tecnologia.

Un documento illustra i concetti che stanno alla base del nuovo algoritmo di ranking di MSN Search, che utilizza le reti neurali.
26 giugno '05 05:35:25
Qualche giorno fa questo intervento nel blog di MSN Search annunciava l'introduzione di un nuovo algoritmo utilizzato per il ranking dei risultati di ricerca, chiamato RankNet, e basato sulle reti neurali.

Chris Burges, uno dei ricercatori a cui si deve la realizzazione della nuova tecnologia, ha pubblicato nei mesi scorsi un documento chiamato Learning to Rank using Gradient Descent [PDF], nel quale vengono spiegati tutti i concetti che stanno alla base del meccanismo che permette alla rete neurale di ordinare i risultati in base alle caratteristiche delle pagine web.

Non si pensi però che la lettura del documento possa offrire consistenti vantaggi ai SEO. A parte la trattazione fortemente matematica, le reti neurali e sopratutto i risultati conseguiti attraverso la loro applicazione possono costituire un grosso problema per gli esperti di posizionamento che volessero effettuare "reverse engineering", ovvero tentare di risalire ai criteri che determinano le posizioni delle pagine web.

I criteri stessi, infatti, non vengono stabiliti dai progettisti software bensì determinati dalla rete neurale che, simulando alcuni dei processi di apprendimento tipici di un rete di neuroni biologici, decide (quasi) autonomamente come stabilire la posizione delle pagine nei risultati delle ricerche.

Nel documento di Burges, viene spiegato che il tipo di rete neurale implementata usa un approccio di "supervised learning", ovvero un apprendimento supervisionato da persone. Vengono prese in considerazioni alcune query e, per ciascuna di esse, viene specificato quanto rilevanti sono alcuni dei documenti riportati dalla ricerca. La rete neurale utilizza queste informazioni e le caratteristiche dei documenti per "intuire" quali caratteristiche determinano una buona o cattiva rilevanza con la query esaminata.

Questo nuovo "bagaglio culturale" viene usato per ordinare altri risultati di ricerca, in cui le persone intevengono nuovamente per stabilire la rilevanza dei risultati e la rete neurale sfrutta le nuove informazioni per migliorare la propria capacità di ordinare correttamente i risultati. Il processo viene ripetuto molte volte e ad ogni ciclo di apprendimento la rete neurale attribuisce con precisione sempre maggiore dei "pesi" alle caratteristiche su cui la posizione delle pagine si basa.

La ragione per la quale è estremamente difficile per un SEO risalire ad un criterio per l'ordinamento dei risultati è che un singolo criterio di ordinamento non esiste affatto: non solo i pesi attribuiti alle caratteristiche dei documenti vengono determinati dalla rete neurale attraverso calcoli imprescrutabili ma l'implementazione di MSN ha prodotto una rete neurale in cui questi criteri interni variano anche in base ai termini cercati.

In poche parole, anche se fosse teoricamente possibile determinare dei criteri in base ai risultati di una singola ricerca, quei criteri non varrebbero per nessuna altra query. Pare che il posizionamento dei siti web sia destinato a diventare sempre più complesso.

Da quello che si deduce dal documento di Burges, i risultati conseguiti possono essere ancora migliorati. Ma progettando una tecnica di ordinamento dei risultati basata su una rete neurale, MSN ha dotato sé stessa di un mezzo che, per sua natura, migliora le proprie capacità nel corso del tempo. Non a caso, l'intervento sul blog include un'immagine che illustra come i risultati di una query son migliorati nel corso di alcune settimane.

25 giugno '05 10:38:46
Non è trascorso molto tempo da quando abbiamo parlato di YubNub, e un nuovo meta-motore per la ricerca attraverso comandi testuali fa la sua comparsa: Ambedo.

Le differenze di Ambedo con YubNub non sono gigantesche: entrambe i meta-motori possiedono una lista di comandi impartibili (ecco i comandi di Ambedo) ed entrambe i motori permettono agli utenti di poter ampliare le liste introducendo liberamente nuove istruzioni.

La barra di ricerca di Ambedo, però, presenta un'interessante e utile caratteristica: scrivendo semplicemente del testo, il motore di ricerca riporta in tempo reale una lista dei possibili comandi che iniziano con i caratteri immessi. Tale lista è navigabile dall'utente attraverso i tasti freccia (su e giù), selezionando uno dei comandi o delle azioni elencate e pressando Invio.

Questa comodità viene tuttavia ridotta dal fatto che molti browser tendono a presentare atonomamente all'utente una lista di termini già digitati, che può andare a coprire la lista creata al volo da Ambedo. I progettisti probabilmente hanno dimenticato di aggiungere un attributo autocomplete="off" al tag HTML che identifica il campo di immissione del testo.

A parte questo piccolo fastidio, Ambedo si comporta molto bene. La lista dei comandi non è corposa come quella di YubNub, ma questo potrebbe essere considerato un vantaggio, se si tiene conto che i comandi di YubNub includono una gran mole di spazzatura e, a volte, spam.

Michael Liedtke dell'Associated Press compara i motori di ricerca ponendo loro alcuni quiz di un noto gioco da tavolo.
25 giugno '05 08:23:23
Il sempre ottimo SearchEngineWatch segnala un articolo della Associated Press il cui autore, Michael Liedtke, ha effettuato una comparazione tra i principali motori di ricerca (Google Yahoo!, MSN, Ask Jeeves e Answers.com), ponendo loro 20 domande estratte dal gioco da tavolo "Trivial Pursuit" e controllando se la pagina al primo posto nei risultati della ricerca conteneva la risposta al quiz.

Dai risultati, non scientifici ma certamente divertenti, si evince che i due motori di ricerca che più di altri si sono mostrati capaci di fornire risposte immediate ai quiz sono Ask Jeeves e Answers.com, che "hanno risposto" correttamente al 50% delle domande, distanziando leggermente Google, che segue con una percentuale di risposte esatte del 40%.

Non è certo un caso che i motori che si sono dimostrati più capaci in questa curiosa sfida siano proprio quelli che sono maggiormente basati sulla capacità di comprendere le domande poste dagli utenti.

Yahoo! ha registrato solo il 25% di risposte esatte ed MSN è riuscito ad indicare risorse che rispondevano correttamente alla domanda nel 10% dei casi. L'articolo di Liedtke è molto interessante da leggere e fornisce indicazioni aggiuntive sui risultati conseguiti da ciascun motore e sulle domande a cui nessuno di essi è stato in grado di rispondere.

Il meta-motore Mamma.com lancia un nuovo motore di ricerca specializzato nella medicina e la salute.
25 giugno '05 08:03:03
Mamma.com, uno dei più conosciuti meta-motori di ricerca del Web, annuncia la realizzazione di un nuovo meta-motore dedicato espressamente a temi medici e alla salute: Health Search.

Il motore di Mamma.com sulla salute è un motore di ricerca in grado di perlustrare il deep web, ovvero quelle sezioni del Web che solitamente non sono facilmente accessibili agli spider dei motori. Scandagliando a fondo siti dedicati alla salute e alla scienza medica, Mamma.com afferma di essere in grado di offrire agli utenti dei risultati di ricerca chiari ed obiettivi.

A seguito di una qualunque ricerca, la pagina dei risultati comprende informazioni sui sintomi di una malattia, le cause, le possibili cure e notizie di approfondimento. Ogni risultato riporta il sito web dal quale è stato prelevato e per alcuni risultati il motore di ricerca offre anche un link che punta ad una seconda opinione sull'argomento medico cercato.

25 giugno '05 07:08:10
L'ha fatto notare per primo Alessandro Ronchi nel suo blog e la notizia è stata successivamente riportata e ampliata da diversi altri blog, tra i quali Motoricerca.net (un recente blog, omonimo di Motoricerca.info, spero che non nascano confusioni), e anche dal Corriere della sera: Google Maps mostra fotografie di obiettivi sensibili, una pratica illegale secondo la legge italiana.

Dalla base di Aviano alla base militare americana a Brindisi, Google Maps mostra ogni particolare, senza censurarlo come invece avviene per alcune zone top-secret esistenti sul suolo americano, vedi la Casa Bianca.

Google Maps non è nuovo a ricevere critiche circa l'opportunità di fotografare tutto ciò che gli capita a tiro. In linea di massima, le fotografie del suolo degli Stati Uniti d'America sono state controllate affinché non mostrassero zone militari o edifici politici di particolare importanza e a parte qualche isolato aereo Stealth o possibili locazioni dell'Area 51, il servizio di mappe si è mostrato abbastanza discreto. Ma fuori dal suolo americano le cose cambiano.

Keyhole è la società che si è occupata dell'archiviazione delle foto ed è stata acquistata da Google nel 2004, consentendo al motore di ricerca di arricchire il proprio servizio di mappe con visuali satellitari e aeree delle città. Keyhole non si occupa direttamente della realizzazione delle foto aeree ma demanda il compito a società specializzate, oppure si limita ad acquistare archivi di foto già esistenti. In ogni caso, pare che non siano stati fatti sufficienti controlli atti a garantire la sicurezza di obiettivi sensibili, non solo in Italia ma anche in altre nazioni.

El Mundo ha infatti pubblicato un articolo sulla differenza di trattamento tra la Casa Bianca, che Google Maps mostra con i tetti occultati, e La Zarzuela (residenza del re di Spagna), visibile in Google Maps in tutti i suoi particolari. Il blog google.dirson.com pubblica un paio di notizie al riguardo, qui e qui.

Il Search Engine Strategies 2005 di San Jose presenta la scaletta con tutti gli interventi del congresso.
25 giugno '05 06:21:01
L'evento itinerante Search Engine Strategie (SES) 2005, stavolta ospitato a San Jose, è stato organizzato da Danny Sullivan, che appare anche in veste di primo relatore nella scaletta degli interventi del congresso.

Tra gli argomenti che verranno discussi, mi piace evidenziare quello relativo ai brevetti e alla documentazione che i ricercatori di information retrieval producono e che spesso sono d'estremo aiuto ai SEO per comprendere come i motori di ricerca evolvono nel tempo.

Il Search Engine Strategies 2005 di San Jose si terrà dal giorno 8 al giorno 11 agosto 2005 ed il sito pubblica anche una comoda tabella che riassume tutti gli interventi, giorno per giorno.

IceRocket e Answers.com hanno stretto una partnership che prevede l'invio di visitatori targettizzati da una risorsa all'altra.
25 giugno '05 04:32:01
GuruNet, che gestisce il motore di ricerca Answers.com, ha annunciato di aver stretto un accordo con il motore di ricerca IceRocket.

Secondo gli accordi, IceRocket proporrà ai propri utenti dei riferimenti alle pagine di Answers.com mentre quest'ultimo invierà ad IceRocket traffico targhettizzato per i blog.

In poche parole, da quello che si deduce dal comunicato stampa, Answers.com potrà aggiungere una sezione "blog" a quelle già esistenti sul proprio sito (affari, salute, giochi, ecc.) e il traffico acquisito attraverso questa sezione verrà spedito alla già esistente sezione blog di IceRocket.

In cambio, IceRocket potrà aggiungere sulle pagine del proprio sito diversi riferimenti alle risposte di Answers.com, in modo da fornire ai propri visitatori un collegamento diretto a informazioni contestuali e migliorare di conseguenza l'esperienza di navigazione degli utenti.

Il CEO di Google conferma l'intenzione di creare un sistema di pagamenti gestito dal motore di ricerca, ma con caratteristiche diverse da PayPal.
25 giugno '05 04:01:32
Eric Schmidt, CEO di Google, ha confermato all'Associated Press la volontà di Google di creare un "sistema di pagamenti online", ma specificando che avrà caratteristiche diverse da quelle di PayPal. In particolare non si tratterà di un sistema in cui il denaro verrà immagazzinato dal Google.

Schmidt non ha fornito maggiori informazioni sul funzionamento del nuovo sistema ma ha affermato che si tratta di una naturale evoluzione dei propri servizi pubblicitari e di acquisti, che ogni giorno mettono in contatto milioni di consumatori e inserzionisti pubblicitari. Qualcuno pensa persino che possa trattarsi di un sistema con modello pay-per-sale (non il cloruro di sodio, ma "vendita" in inglese).

Dopo i primi rumori sulla possibilità che Google potesse divenire un competitore di PayPal, le quotazioni in borsa di EBay (proprietaria di PayPal) hanno subito un duro colpo in borsa, scendendo del 3% secondo l'indice Nasdaq.

Il titolo di Google, al contrario, è salito del 2,7%, avvicinandosi ulteriormente alla quota di 300 dollari per azione, un traguardo ormai vicinissimo.

25 giugno '05 03:44:54
Stephan Spencer analizza sul suo blog la capacità di quattro dei principali motori di ricerca (Google, Yahoo!, MSN e Ask Jeeves) di indicizzare il formato RSS e renderlo disponibile per le ricerche degli utenti.

Dalla comparazione tra i motori, risulta che i due motore di ricerca che indicizzano meglio i documenti in formato RSS sono Yahoo! e Ask Jeeves/Teoma. MSN non è in grado di indicizzare i contenuti dei feed, ma questa pecca potrebbe passare in secondo piano se si tiene conto del fatto che la nuova versione del motore di MicroSoft è relativamente giovane.

Sorprende invece molto l'incapacità di Google a gestire i feed RSS. Il formato XML infatti non viene nemmeno riconosciuto dal motore e, come è stato osservato da molti, anche la tendenza di Google a supportare il formato RSS per i suoi servizi è estremamente limitata se comparata agli altri motori.

RSS World pubblica un comodo riassunto (in italiano) della comparazione effettuata da Spencer.

Circa Google e i feed RSS, mi permetto di far notare una caratteristica che non mi pare sia stata discussa altrove: esiste uno spider particolare di Google per i file RSS. Tale spider ha apparentemente il compito di effettuare il download dei feed e prelevare immediatamente dopo la pagina HTML alla quale il feed fa riferimento, ovvero quella indicata nel tag link del codice XML.

Questo è stato dedotto osservando gli accessi di Google a diversi siti web che monitorizzo, ma non è possibile determinare se si tratta di un nuovo supporto di Google ai feed RSS o semplicemente un modo per migliorare l'indicizzazione delle pagine HTML alle quali il feed punta.

MSN introduce nuovi operatori di ricerca e nuovi algoritmi che hanno migliorato la rilevanza dei risultati.
22 giugno '05 08:21:18
MSN annuncia, tra le altre cose, un miglioramento della rilevanza dei risultati del proprio motore di ricerca.

La tecnologia dietro ai miglioramenti, chiamata RankNet (o anche Neural Net., basata su reti neurali) ha permesso al motore di ricerca di individuare con precisione gli URL considerati "canonici" per una data ricerca, elencandoli alla prima posizione invece che nelle retrovie, come accadeva nei mesi scorsi.

Nell'intervento del blog di MSN viene anche fornito un esempio grafico con l'evoluzione dei risultati della ricerca [pbs evolution videos] nel corso delle ultime settimane.

MSN ha anche aggiunto alcuni nuovi operatori per la ricerca, tutti molto utili, tra i quali spicca per originalità (e utilità per il posizionamento) LinkDomain:, che permette di trovare tutti i documenti che linkano una qualunque pagina appartenente ad un dominio. Ad esempio la ricerca [LinkDomain:www.motoricerca.info] elenca tutte le pagine web che offrono un link ad una qualsiasi pagina del dominio www.motoricerca.info.

Si consiglia la lettura del post citato, per prendere visione di tutti i nuovi operatori di ricerca introdotti.

La URL del servizio di posta offerto da Google ha subito una variazione, creando problemi ai software che si basavano sull'indirizzo.
22 giugno '05 08:07:45
Questo post di google.dirson.blog [un ottimo blog, tra parentesi - NdR] fa notare che la URL attraverso la quale si accedeva a GMail è cambiata da gmail.google.com a mail.google.com/mail.

Questa variazione sta provocando problemi di funzionamento a tutti quei software e script che si basavano sulla URL originaria. Uno di questi software è ad esempio il plugin per Firefox GMail notifier, che è stato comunque prontamente aggiornato per gestire correttamente il nuovo indirizzo del servizio di posta.

22 giugno '05 07:54:39
Fast Search & Transfer (FAST) ha per anni fornito la tecnologia di ricerca ad AllTheWeb, uno dei migliori motori di ricerca in competizione con Google e Yahoo!, per poi uscire dal settore dei grandi motori quando AllTheWeb fu acquistata da Overture, a sua volta acquistata da Yahoo!.

Adesso, FAST torna in campo stringendo un accordo con Miva (il nuovo nome di Espotting/FindWhat) per la fornitura di algoritmi e tecnologia che verranno utilizzati nel nuovo motore di ricerca di Miva.

Il motore di Miva non verrà aperto al pubblico ma verrà fornito dalla società ai partner commerciali di Germania e Francia che intendono migliorare l'esperienza dei propri utenti realizzando motori di ricerca personalizzati a seconda dei contenuti del sito che li ospita.

La Association of American Publishers chiede a Google di non digitalizzare i libri delle biblioteche per alcuni mesi.
22 giugno '05 07:40:23
Google Library, il progetto che fa parte di Google Print e che prevede la digitalizzazione dei libri di alcune grosse biblioteche, sembra causare qualche timore alla Association of American Publishers.

L'associazione degli editori americani, infatti, è composta da diversi membri che nutrono dubbi sul fatto che il progetto di Google possa in qualche modo ledere i diritti degli editori. Alcuni degli associati ritengono che Google non dovrebbe avere il diritto di digitalizzare alcun libro protetto da copyright senza l'esplicito consenso dell'editore.

L'associazione ha scritto una lettera ai responsabili del motore di ricerca chiedendo di interrompere la digitalizzazione dei libri delle biblioteche per un periodo di sei mesi, durante il quale Google dovrebbe fornire chiare spiegazioni e assicurazioni che il progetto non presenti rischi economici di alcun tipo per le case editrici.

Non è la prima volta che Google Print incontra il disaccordo associazioni di editori in quanto molti di essi ritengono che la digitalizzazione dei libri possa costituire una potenziale perdita di introiti per le case editrici.

MSN attiva la versione beta delle proprie ricerche localizzate, con tanto di mappa interattiva sulla falsariga di Google Maps.
21 giugno '05 10:43:01
Accedendo alla pagina di ricerca di MSN si nota da oggi la presenza di una nuova sezione denominata "Local (BETA)", che segna l'entrata del motore di ricerca di Microsoft nel settore delle ricerche localizzate, al momento limitate al solo territorio USA.

Cercando alcuni termini, accompagnati da un'indicazione territoriale (città e stato), MSN restituisce un elenco di luoghi inerenti i termini cercati, affiancati da una piccola mappa interattiva che può mostrare una cartina stradale o un'immagine satellitare, similarmente a quanto fa Google Maps.

Per ogni risultato della ricerca viene indicato l'indirizzo, il numero telefonico e un link verso MSN Maps per tracciare il tragitto per raggiungerlo. Ad ogni risorsa individuata, inoltre, viene assegnata una lettera dell'alfabeto che sulla mappa si trasforma in un piccolo indicatore dell'esatta ubicazione del luogo.

Di tutte le caratteristiche della ricerca locale, quella che soffre maggiormente di problemi classici delle versioni "beta" è proprio la mappa interattiva. Sono stati riscontrati problemi di visualizzazione con i browser Firefox e Mozilla, nonché l'impossibilità di trascinare la mappa col mouse.

Le ultime versioni del browser Opera hanno mostrato invece una discreta compatibilità con le mappe, a parte il fatto che gli indicatori delle risorse sulla mappa non vengono aggiornati se si effettua un ingrandimento o rimpicciolimento della medesima. Come c'era da aspettarsi, i risultati migliori si ottengono utilizzando il browser marchiato Microsoft: Internet Explorer.

Oltre ai problemi che dipendono dal browser utilizzato, si riscontrano aggiornamenti generalmente lenti della mappa, quantomeno se comparati a servizi analoghi come Google Maps e una fastidiosa caratteristica che scrive i nomi delle strade in punti sempre diversi della visuale, ogni volta che viene modificata dall'utente anche in maniera marginale.

Tenuto conto del fatto che il servizio è ancora in versione beta, i risultati sono discreti, a patto di usare Internet Explorer come browser e una connessione veloce. Le FAQ di MSN Local forniscono maggiori informazioni e invitano gli utenti a segnalare eventuali problemi col servizio.

21 giugno '05 02:35:24
Yahoo! ha da tempo preso la buona abitudine di avvisare i webmaster e i SEO dell'aggiornamento del proprio indice di pagine web, in modo da fornire agli operatori e appassionati di posizionamento la possibilità di prendere atto in tempo reale dei cambiamenti che avvengono nelle SERP.

La si potrebbe chiamare una "Yahoo! dance".

Secondo quanto annunciato da Tim Mayer, durante la notte del 20 giugno (ora americana, ovvero le prime ore del 21 giugno qui in Italia), gli indici di Yahoo! verranno aggiornati, producendo variazioni nel ranking delle pagine web nonché un aumento delle pagine indicizzate dal motore di ricerca.

Il Wall Street Journal pubblica un articolo in cui si afferma che Google intende creare un proprio sistema per i pagamenti online, come PayPal.
20 giugno '05 00:25:44
Questo articolo del WSJ rivela che Google sarebbe intenzionato a creare un sistema di pagamenti online facendo concorrenza a servizi simili già esistenti, come PayPal.

Gary Price di SearchEngineWatch ha effettuato una piccola ricerca ed ha effettivamente individuato che Google ha creato due mesi fa una nuova società chiamata "Google Payment Corp.".

Un analista di Internet interpellato dal WSJ ha affermato che se Google intendesse creare un nuovo sistema per i pagamenti online, questa mossa segnerebbe un brutto colpo per PayPal (e la sua proprietaria EBay), attualmente il servizio di pagamento più usato su Internet.

Non vi sono particolari su come questo servizio funzionerà e quali saranno i suoi reali obiettivi: per quanto se ne sa, potrebbe trattarsi anche di un sistema per gestire i pagamenti della società agli utenti (con la futura vendita di contenuti video, ad esempio) o viceversa (pagamento di AdWords). Google ha declinato ogni commento in proposito.

Personalmente ritengo che sarebbe un po' estraneo alla filosofia di Google realizzare un "clone" di PayPal o di qualsiasi altra cosa. Per indole dei suoi creatori, ogni nuovo servizio della società di Mountain View cerca sempre di offrire agli utenti qualcosa che attualmente non esiste o di migliore rispetto a quello che esiste già. Si vedrà.

White hat contro black hat. Summer of Code raddoppia i fondi per gli studenti. Google Maps mostra l'intero pianeta.
20 giugno '05 00:05:15
Notizie brevi di questi giorni:


  • Yahoo! annuncia la presenza di una lista delle ricerche più popolari per il motore dedicato alle immagini e quello dedicato ai video.

  • syndk8.com pubblica un dialogo molto interessante tra un SEO white hat (Randfish) e un SEO black hat sui risultati conseguibili attraverso le due "filosofie" di posizionamento.

  • Ecco uno strumento online che analizza un sito determinando a chi vengono offerti i suoi link verso l'esterno.

  • Google ha raddoppiato il numero di studenti, da duecento a quattrocento, che vedranno finanziati i propri lavori per il Summer of Code. Le iscrizioni all'iniziativa sono arrivate anche da studenti italiani, come mostrato da questo elenco dei paesi partecipanti.

  • Google Maps si allarga a tutto il pianeta, anche se le città comprese nell'archivio sono ancora solo quelle americane, canadesi e inglesi e il livello di dettaglio del resto del mondo è ancora basso. Ecco la visuale dell'Italia.


19 giugno '05 05:15:48
Come annunciato in precedenza, AdWords ha aperto a tutti i propri inserzionisti la possibilità di specificare su quali siti mostrare le pubblicità, una caratteristica del servizio finora concessa solo ad alcuni iscritti.

In questo modo, è possibile indicare con precisione gli URL di quei siti e pagine web su cui si desidera vedere pubblicate le proprie inserzioni, bypassando il sistema di scelta automatica di Google, che assegna le pubblicità a quelle pagine web i cui contenuti combaciano bene con l'argomento delle inserzioni. Il modello di pagamento delle pubblicità per il site targeting si basa su un valore di CPM (costo per mille impression) massimo che l'inserzionista deve indicare.

L'attesa attivazione del servizio, assieme ad altre novità minori, è stata annunciata nel blog ufficiale di AdWords, che invita gli utenti a prendere familiarità con la nuova caratteristica visitando questa pagina (qui in italiano).

19 giugno '05 04:58:24
YubNub propone agli utenti una linea di comando per il Web, ovvero una zona dove poter scrivere comandi (un po' come si fa in una shell UNIX o una sessione DOS) che effettuano interrogazioni a servizi quali motori di ricerca, enciclopedie online, previsioni del tempo, documentazione di linguaggi di programmazione, ecc.

Ad esempio il comando gg serve ad effettuare una normale ricerca su Google, e quindi scrivendo in YubNub il comando gg ferrari, si otterrà il risultato della ricerca [ferrari] su Google.

Ma usare YubNub solo per effettuare ricerche su Google sarebbe una grande limitazione delle capacità di questo strumento: YubNub possiede infatti centinaia di comandi diversi, ognuno dei quali è in grado di compiere una diversa operazione e i migliori di essi, denominati "golden eggs", vengono elencati impartendo in YubNub il comando ge o visitando l'URL che corrisponde al comando.

I comandi di YubNub sono accessibili anche attraverso un plugin per Firefox e altre scorciatoie (come poter usare i comandi direttamente dalla barra degli indirizzi di Firefox) sono elencate in questa pagina.

17 giugno '05 17:10:58
Esistono molti siti web che permettono ad un utente di creare liste di "siti preferiti" (bookmark) e condividerle con altre persone. Oltre alla semplice condivisione, gli utenti possono anche assegnare uno o più tag alle risorse individuate; un tag è una keyword o keyphrase correlata alla risorsa e che rende più facile la sua catalogazione e ricerca. Queste attività, ultimamente molto diffuse, vengono chiamate social bookmarking.

Gataga è un nuovo motore di ricerca che si appoggia ai siti che offrono servizi di social bookmarjing e che consente di effettuare ricerche negli archivi dei bookmark pubblici di del.icio.us, jots, blogmarks e altri.

A differenza degli altri motori di ricerca, Gataga non ordina i risultati in base alla popolarità o ad altri algoritmi, ma si limita a proporre all'utente link a risorse inerenti i termini cercati.

Per ogni risultato riportato nelle ricerche, Gataga specifica il nome dell'utente che ha creato il bookmark e il sito web dal quale esso è stato prelevato.

17 giugno '05 16:32:11
L'obiettivo di OpenRank è quello di poter facilmente acquisire informazioni su popolarità e altre parametri di pagine e siti web, senza dover dipendere dagli strumenti messi a disposizione dai motori di ricerca, spesso volutamente limitati o potenzialmente soggetti a manipolazioni da parte dei responsabili dei motori stessi.

Per fare ciò il progetto OpenRank creerà un proprio indice del web, sviluppato attravero dei propri crawler e del tutto indipendente dai motori di ricerca o da database già esistenti.

Tra i vantaggi che un tale sistema potrebbe fornire a webmaster e SEO vi sarebbe quello di determinare con certezza la reale popolarità di una pagina web, misurata in base a quante e quali altre pagine puntano ad essa. E' inutile nascondere che una delle molle che avranno sicuramente spinto Randfish (uno degli autori) ad imbarcarsi in questo ambizioso progetto è rappresentata dalla possibilità di ottenere informazioni più precise rispetto a quelle fornite dal PageRank di Google, che col passar del tempo ha perso sempre più utilità per i SEO.

OpenRank è attualmente nella sua fase iniziale, di analisi, studio e progettazione, i tempi di realizzazione si prospettano lunghi e gli investimenti necessari a raggiungere il risultato dovranno essere consistenti. In molti hanno commentato che potrebbe rimanere solo un bel progetto e nulla più.

Un nuovo strumento online consente di effettuare ricerche comparando i risultati di Yahoo! e Google.
17 giugno '05 15:58:11
DoubleTrust è un nuovo tool che compara i risultati di Yahoo! e Google per una data ricerca, proponendo una serie di statistiche, e ordinando i risultati in base a quanto l'utente si fida di Yahoo! o Google.

Inserendo i termini da cercare e specificando di quale (e quanto) dei due motori di ricerca ci si fida maggiormente, DoubleTrust effettua le interrogazioni ai motori e unisce i risultati ordinandoli in base ad un indice che è stato (infelicemente) chiamato TrustRank e che è solo un omonimo dell'algoritmo di ranking frequentemente discusso nei forum SEO.

La prima indicazione sulle ricerche fornita da DoubleTrust appare in cima alla pagina dei risultati e mostra l'intersezione delle due ricerche effettuate, ovvero il numero di pagine che sia Yahoo! che Google riportano nei primi quaranta risultati di ricerca.

Oltre a ciò, vengono fornite tre liste: la prima elenca le pagine che i motori hanno comunemente riportato (ordinate attraverso il loro algoritmo TrustRank), la seconda le pagine riportate da Yahoo! ma non da Google e la terza che mostra le pagine riportate da Google ma non da Yahoo!.

Il servizio ricorda strumenti analoghi come il Missing Pieces di Dogpile.

Yahoo! ha stretto accordi con diversi siti web e organizzazioni per indicizzare documenti disponibili solo dietro sottoscrizione.
16 giugno '05 20:07:53
Il deep Web è quella parte del Web alla quale gli spider dei motori di ricerca non possono accedere, ad esempio perché si tratta di contenuti offerti solo agli utenti registrati di un sito web o iscritti a specifici servizi. Questo genere di contenuti è spesso di alta qualità ed è un vero peccato che gli utenti dei motori di ricerca non possano individuarli.

Per ridurre questo problema, Yahoo! ha stretto accordi con molti dei più importanti siti web affinché facessero indicizzare i propri contenuti riservati ad utenti iscritti. E' così nato Yahoo! Search Subscriptions, un motore di ricerca per contenuti offerti solo dietro iscrizione: chiunque può adesso effettuare ricerche su questa parte del Web finora inaccessibile agli spider dei motori, anche se per accedere ai documenti individuati con le ricerche è comunque sempre necessario essere iscritti al servizio che li produce.

Tra i molti siti che hanno acconsentito all'indicizzazione del materiale riservato ai propri iscritti si evidenziano FT.com, IEEE, Wall Street Journal Online, e diverdi altri elencati nel post del blog di Yahoo! che annuncia l'iniziativa.

Questo nuovo servizio di Yahoo! ricorda in parte Google Scholar, in quanto anche il motore di ricerca di Google dedicato agli studenti permette di effettuare ricerche di documentazione accessibile solo ad utenti iscritti a siti di scuole, organizzazioni e istituzioni.

16 giugno '05 16:45:54
Da Google Blogoscoped apprendo dell'esistenza di Yotofoto, un motore di ricerca specializzato in fotografie.

Ma a differenza dei molti motori di ricerca per fotografie esistenti sul Web, Yotofoto indicizza solo quelle liberamente utilizzabili e ridistribuibili, in quando di pubblico dominio oppure diffuse dietro una licenza Creative Commons, GNU FDL o "proprietaria".

Il database del motore di ricerca contiene attualmente oltre centomila foto ed è possibile effettuare ricerche avanzate specificando le dimensioni delle foto desiderate e le licenze sotto le quali sono state diffuse.

Si consiglia di leggere attentamente la pagina delle licenze per prendere visione degli eventuali limiti che ogni licenza può imporre agli utilizzatori delle foto.

15 giugno '05 15:09:56
A chi piacerebbe lavorare per Google, senza necessariamente essere un matematico, un ingegnere informatico o un astrofisico? E magari farlo da casa?

Tali posizioni sono attive già da tempo e il lavoro consiste nel controllare la qualità delle ricerche del motore, attività discussa in questa precedente notizia. Ecco la pagina con le posizioni aperte e in particolare la sezione riservata al personale italiano.

Si noti che, in realtà, il personale verrà assunto da ABE, la società che si occupa per Google delle assunzioni a tempo determinato, ma il succo non cambio: i dipendenti lavoreranno per classificare i risultati delle ricerche del motore e stabilirne la qualità.

Il lavoro richiede una connessione Internet veloce, può essere svolto dall'Italia, ed è importante che i candidati siano bene integrati con la cultura e il linguaggio usato in Italia. Non viene specificato il compenso né la durata prevista.

Un consiglio a chi deciderà di inviare il curriculum: non si tratta di un lavoro per tecnici o per webmaster, il tipo di persone che cercano è di ben altro genere e il CV dovrebbe essere impostato di conseguenza.

(Se volete qualche dritta su come impostare il CV e la mail di presentazione, potrei scrivere un editoriale nei prossimi giorni, ma solo se mi invierete in e-mail una discreta quantità di richieste - NdR)

15 giugno '05 14:48:53
Om Malik riporta l'avvenuto acquisto della società DialPad, che produce soluzioni telefoniche basate sulla tecnologia VoIP (Voice over IP, telefonia attraverso Internet).

I servizi e l'infrastruttura di DialPad verranno a quanto pare usati da Yahoo! in Yahoo! Messenger e consentiranno agli utenti del software di chat di effettuare chiamate da PC a PC e anche da PC a rete telefonica tradizionale.

I termini dell'accordo non sono stati divulgati.

In aggiunta a ciò, il portale americano ha anche acquistato blo.gs, un servizio online di tracciamento dei blog, che permette agli utenti di fornire a blo.gs un elenco di blog e/o feed che si intende seguire e poi farsi avvisare in e-mail o via web quando quei blog vengono aggiornati.

Anche in questo caso, i termini dell'acquisizione non sono stati divulgati e non viene specificato se e come Yahoo! intenderà usare i servizi di blo.gs per altri suoi progetti.

La popolare applicazione per la creazione di archivi compressi viene adesso distribuita assieme a Google Toolbar e Google Desktop Search.
15 giugno '05 14:33:36
BetaNews riporta che Google ha stretto un accordo con i produttori di WinZip per includere nel pacchetto di installazione del noto programma di compressione i principali software sviluppati dal motore di ricerca: la Google Toolbar e Google Desktop Search.

Attraverso questa mossa Google riuscirà a garantire una maggiore diffusione dei suoi software tra gli utenti tuttavia, per quanto il motore non sia nuovo ad accordi simili (tempo fa ne stipulò uno con RealNetworks), questa metodologia che prevede l'aggiunta di software in pacchetti di installazione di altri prodotti è malvista da diverse persone, perché ricorda un classico metodo attraverso il quale gli SpyWare e i MalWare si diffondono.

Tra l'altro, l'installazione dei software di Google durante quella di WinZip è attivata "di default" e deve essere l'utente a rifiutare in modo esplicito durante l'installazione del software di compressione la presenza della toolbar e del Desktop Search sul proprio PC.

I commenti degli utenti nell'articolo di BetNews indicato sopra non sono dei più favorevoli.

14 giugno '05 12:00:00
Questo articolo di News.com afferma che Google prevede di attivare la nuova versione del suo motore di ricerca per i video entro i prossimi due mesi, ovvero entro agosto 2005.

A differenza dell'attuale motore di ricerca per i video di Google, che mostra solo delle anteprime statiche dei video individuati attraverso il motore, la nuova versione di Google Video mostrerà fino a dieci secondi di animazione per ogni video.

Probabilmente il database al quale il nuovo motore attingerà beneficerà dei nuovi contenuti acquisiti da Google attraverso l'apposito programma Google Video Upload Program, che permette a chiunque abbia prodotto un video di inviarlo a Google per farlo indicizzare. In futuro, i produttori potranno anche guadagnare attraverso Google Video, chiedendo agli utenti di pagare una somma per poter osservare l'intero prodotto invece della semplice anteprima.

MarketingSherpa sceglie i migliori blog del 2005 sul (web) marketing: Search Engine Roundtable vince nella categoria dei motori di ricerca.
14 giugno '05 11:47:43
MarketingSherpa ha scelto i migliori blog sul marketing per l'anno 2005.

Il miglior blog individuale sul marketing e la pubblicità è considerato blog di Seth Godin mentre il miglior blog di gruppo su marketing e pubblicità è MarketingVOX.

Per la categoria sul posizionamento, Search Engine Roundtable ottiene la vittoria, meritandola in funzione del fatto che, a differenza di molti altri blog, non si limita a riportare notizie seguendo ciò che dicono i media ma commenta fatti e discussioni che avvengono nei forum SEO, presentando un panorama degli argomenti che la gente realmente discute.

I migliori blog del 2005 sono stati selezionati e votati dai 173.000 lettori di MarketingSherpa, la maggior parte dei quali sono responsabili di aziende e agenzie che lavorano nel settore del marketing.

14 giugno '05 00:59:03
Alcuni blogger, tra i quali anche Danny Sullivan si sono resi conto dell'esistenza di alcuni sottodomini di Google e si chiedono se non annuncino delle novità. Ad esempio:

Beh, devo davvero essere invecchiato molto, se riesco a ricordare qualcosa che persino Sullivan non rammenta: quei sottodomini esistono da secoli, solo che non sono mai balzati agli onori della cronaca.

In passato, infatti, Google utilizzava il sottodominio asia.google.com come un "alias" del vecchio sottodominio/datacenter www-in.google.com, cancellato da Google tempo addietro. Allo stesso modo, europe.google.com puntava al non più esistente www-zu.google.com e america.google.com puntava al normale www.google.com.

Già da molto tempo, questi sottodomini continentali non vengono più usati per puntare a diversi datacenter, ma sono dei semplici alias per il dominio principale del motore di ricerca.

Ecco una lista dei datacenter aggiornata, comprensiva di indicazioni sui vecchi domini www-xx.google.com, per chi è nuovo del posizionamento e non ricorda quanto popolari fossero tra i webmaster questi nomi di dominio durante le vecchie Google Dance.

Qualcuno avvisi Sullivan.

14 giugno '05 00:44:05
GWEI è l'acronimo di "Google Will Eat Itself", ovvero "Google mangerà sé stesso" e si tratta di una sorta di esperimento surreale su come è possibile creare un modello economico "ciclico" usando Google.

In poche parole, gli autori di GWEI sfruttano sul proprio sito le pubblicità AdSense per guadagnare denaro, e il denaro guadagnato viene convertito automaticamente in azioni... di Google!

Le azioni acquistate sono di proprietà di una "collettività" chiamata "Google To The People" (GTTP) e l'intero progetto consta anche di un'esposizione artistica a Johannesburg.

L'unico problema con questo "modello economico ciclico" è che i click sulle pubblicità AdSense provengono, anzi provenivano, anche da utenti che sfruttavano un generatore automatico di click, offerto sul sito di GWEI.

Ovviamente Google ha prontamente chiuso l'account AdSense. Il progetto non specifica a chi andranno i dividendi delle azioni acquistate.

Acronyma permette di cercare il significato di oltre quattrocentomila acronimi in sette lingue diverse.
12 giugno '05 23:47:43
Acronyma è un motore di ricerca che attualmente archivia 466.000 acronimi in italiano, inglese, spagnolo, francese, tedesco, olandese e portoghese.

E' anche possibile cercare parole, ed Acronyma riporterà gli acronimi in cui il termine appare. Ogni risultato viene visualizzato in ordine di importanza oppure in ordine alfabetico.

Una curiosità: cercando nell'archivio italiano l'acronimo [FIAT] si ottiene la corretta risposta, ma la stessa ricerca in lingua inglese svela un acronimo ben poco lusinghiero per la fabbrica di automobili torinese.

Gli utenti possono anche segnalare nuovi acronimi al motore di ricerca, che vengono comunque controllati prima di venire aggiunti al database del motore.

12 giugno '05 01:08:30
Notizie di questi ultimi giorni.


  • Non posso dedicare una notizia a ciascuno degli strumenti che stanno nascendo per il protocollo Google Sitemaps, invece riporto questa pagina di Google Code che ne elenca un bel po' e ringrazio Francesco Passantino per avermela fatta notare.

  • LinkingMatters.com becca link invisibili sul sito del rispettabilissimo Financial Times e si chiede se sono voluti o addirittura venduti.

  • Ecco due nuovi formati orizzontali per i Link Units di Adsense. Misurano 468x15 e 728x15.

  • SiliconValleyWatcher.com afferma che Google pensa di girare con un furgoncino per le strade di San Francisco, equipaggiato con una strumentazione per creare una versione digitale 3D della città.

  • Google viene valutata 80 miliardi di dollari e diventa la più grande media company del mondo, sorpassando Time Warner.

  • My Web di Yahoo! viene rivelato a tutti gli utenti nei normali risultati di ricerca: adesso appaiono due link "Save" e "Block" che permettono di accedere a My Web e di personalizzare i risultati.

  • Un plugin per Firefox consente di usare il Desktop Search di Google dal browser.

  • MicroSoft aggiunge i tab alla MSN Search Toolbar, una soluzione temporanea prima dell'arrivo di IE7.


Mauro Lupi accenna ad un progetto per ospitare in Italia una conferenza Search Engine Strategies entro il 2005.
10 giugno '05 12:50:35
Mauro Lupi accenna in questo intervento del suo blog ad un progetto attualmente in cantiere destinato a portare in Italia, e più precisamente a Milano, un'edizione del Search Engine Strategies, uno dei più conosciuti eventi SEO al mondo.

Il progetto vedrebbe il coinvolgimento di SEMPO e sarebbe cucito su misura per il settore italiano, proponendo ad esempio una quota di iscrizione ben al di sotto delle centinaia di dollari (o euro) solitamente necessari per partecipare al convegno.

Sono anche io convinto che un ridimensionamento della quota di partecipazione sia indispensabile per l'Italia, come anche un recente sondaggio di Motoricerca.info sembra suggerire.

Un SES in Italia sarebbe un passo in avanti verso una corretta informazione SEO tra i webmaster e mi auguro che i contenuti e gli interventi del convegno vengano scelti anche a beneficio di coloro che SEO professionisti ancora non sono, e a cui la conferenza potrebbe trasmettere non solo nozioni di posizionamento ma sopratutto una buona "filosofia" attraverso la quale operare in questo settore.

Un "in bocca al lupo" a Lupi!

Uno script scritto in VB.NET permette di creare file XML Sitemap in maniera simile al Sitemap Generator di Google.
10 giugno '05 09:55:09
A seguito della presentazione del protocollo Sitemap da parte di Google, la nascita di nuovi script per la generazione o gestione di file XML Sitemap non è tardata: apprendo da SearchEngineJournal di un nuovo script sviluppato in VB.NET chiamato SITEMAP.NET.

Similarmente a quanto fa il Sitemap Generator di Google, SITEMAP.NET crea un file XML Sitemap basandosi sui contenuti delle directory del server e sui file di log. E' adatto ai server su cui il linguaggio Python non è installato e sui quali il Sitemap Generator non può essere lanciato.

Al momento lo script, in versione 0.5.0.1 beta, non segnala direttamente il file Sitemap creato a Google, ma richiede che sia il webmaster a farlo attraverso l'apposito pannello di controllo. Il software è freeware.

Il motore di ricerca specializzato nei video aggiunge al proprio archivio contenuti provenienti da numerose nuove fonti.
10 giugno '05 09:42:33
Singingfish, specializzato nella ricerca di video, gode di un vantaggio in più rispetto ai motori concorrenti: appartiene ad AOL, che è proprietà di Time Warner.

Per questa ragione non deve stupire che Singingfish abbia stretto facili accordi per l'indicizzazione di video di CNN (che appartiene sempre a Time Warner) e di numerose altre fonti quali Atom-Films e CBSNews.com.

Questo articolo di News.com elenca le nuove fonti a cui Singingfish attingerà ma evidenzia anche che al momento è tutto sulla carta e che la reale sinergia e collaborazione tra le aziende off-line (Time Warner e le sue proprietà) e Singingfish necessita di essere aumentata per mettere in pratica gli accordi siglati.

Una ricerca mostra quanto gli utenti siano prevenuti nei confronti dei link sponsorizzati che appaiono a fianco delle ricerche.
10 giugno '05 09:18:57
SearchEngineWatch in questo intervento segnala una nuova ricerca [PDF] della Penn St. University che dimostra quanta prevenzione gli utenti abbiano nei confronti dei link sponsorizzati, paragonati ai normali risultati di ricerca.

Persino in quei casi in cui i link sponsorizzati consistevano negli stessi risultati mostrati come risultati organici, gli utenti hanno percepito i risultati organici come quelli più rilevanti.

La ricerca evidenzia che il fatto stesso che un link venga dichiarato "sponsorizzato" induce la gente a ritenerlo meno rilevante e che fino a quando i motori di ricerca non riusciranno ad "educare" gli utenti circa la natura e gli aspetti positivi dei link sponsorizzati, la preferenza "a prescindere" nei confronti dei risultati organici sarà sempre alta.

In questo articolo di Social Patterns si evidenzia anche che, limitatamente ai risultati sponsorizzati, la percezione di quanto essi siano rilevanti con la ricerca effettuata dipende da quanto bene siano scritti i titoli e le descrizioni.

L'aggregatore e motore di ricerca di feed Bloglines raggiunge il mezzo miliardo di articoli indicizzati dai blog.
9 giugno '05 10:51:03
Ask Jeeves annuncia che Bloglines, il servizio di aggregazione e ricerca di feed e blog di sua proprietà, ha toccato il traguardo dei cinquecento milioni di articoli indicizzati.

C'è di più: da gennaio a giugno del 2005, la grandezza dell'indice di Bloglines è raddoppiata ed ogni giorno vengono archiviati dai due milioni ai due milioni e settecento mila nuovi articoli provenienti da blog e feed vari.

Secondo Ask Jeeves, questo sostanzioso incremento è indice della popolarità dei blog come strumento di comunicazione e condivisione delle informazioni e della crescente vitalità mostrata dagli utenti.

Il motore di ricerca specializzato negli acquisti propone una tecnologia che fornisce suggerimenti di ricerca agli utenti.
9 giugno '05 10:40:14
Become.com, il motore di ricerca specializzato nello shopping ha appena attivato un'utile funzione per migliorare la ricerca agli utenti.

Proprio sotto il campo per l'inserimento della ricerca, sulla home page del motore, appare infatti un riquadro chiamato "Search Suggestion", i cui contenuti variano mentre l'utente digita il testo da cercare, prima ancora che venga pressato il tasto "Invio".

A seconda di ciò che l'utente scrive, i suggerimenti di ricerca si popoleranno in tempo reale di link a ricerche più specifiche o correlate ai termini inseriti. Become.com non è certamente il primo motore di ricerca ad offrire un servizio simile, basti pensare a quello offerto da Snap, ma la semplicità dell'interfaccia utente e la velocità con cui i suggerimenti di ricerca vengono aggiornati rendono la soluzione di Become.com una delle migliori finora proposte dai motori di ricerca.

8 giugno '05 14:25:17
Sembra non placarsi l'enorme vocìo nato in seguito alla pubblicazione da parte del blog Search Bistro di documenti riservati di Google.

In particolare il vocìo non si placa semplicemente perché Search Bistro continua a pubblicare nuova documentazione, oggettivamente interessante. In questo post, ad esempio, è possibile scaricare un documento con le linee guida per la valutazione dei risultati di ricerca e in quest'altro intervento viene pubblicato un link ad una guida più specifica, con suggerimenti ed esempi per identificare quello che Google considera spam.

A prescindere dalle animate discussioni tra Henk van Ess's, il creatore del blog, e GoogleGuy circa la legittimità di divulgare informazioni riservate (di questo si occuperanno gli avvocati di Google, se lo vorranno), uno dei punti focali di tutto il chiacchiericcio mediatico si basa sul fatto che secondo alcuni Google avrebbe finora mentito, sostenendo da sempre che i risultati delle ricerche non venivano influenzati da alcun elemento umano ma sono sempre stati il frutto di algoritmi.

Per quanto sia vero che i test di qualità non influiscono direttamente sui risultati delle ricerche né sulla posizione di singoli siti web, è altrettanto vero che ciò che viene fuori dai test viene comunque preso in considerazione per decidere quali differenti parametri generano risultati più graditi agli utenti.

Messi da parti i personali punti di vista, un'interessante informazione che ho tratto da quei documenti è che i casi in cui un sito va considerato "spam" di per sé, non costituiscono necessariamente la norma. Al contrario, una pagina web può essere considerata "spam" per alcune ricerche e contemporaneamente "accettabile" per altre.

Shopzilla, un conosciuto motore di ricerca per gli acquisti, si appresta ad essere acquistato da E. W. Scripps Company.
8 giugno '05 14:02:46
Come fa notare Gary Price in questo post di Searchenginewatch, pare che si tratti di un momento piuttosto movimentato per le acquisizioni di motori di ricerca.

Dopo la recente acquisizione di Shopping.com da parte di EBay, E. W. Scripps Company annuncia di voler acquistare Shopzilla, un motore di ricerca specializzato nella comparazione di prodotti.

Scripps pagherà 525 milioni di dollari per l'acquisizione, che avverrà entro il terzo trimestre del 2005. Questo acquisto è un modo per Scripps, già proprietaria di giornali e di network televisivi, di allargare i propri interessi commerciali al Web e in particolare al florido mercato dello shopping online.

8 giugno '05 00:06:16
Questo newsblog ed il suo feed RSS stanno acquisendo sempre più visitatori e lettori.

Questo mi fa molto piacere, perché significa che i suoi contenuti piacciono e vengono considerati utili, e colgo l'occasione per ringraziare pubblicamente tutti coloro che mi fanno i complimenti, che mi danno consigli e pareri o che mi segnalano notizie che a volte mi sfuggono.

Con l'aumentare dell'audience iniziano ad aumentare anche le richieste da parte dei webmaster per pubblicare notizie inerenti le proprie risorse. La quantità di queste richieste è ancora minima, ma è giusto stabilire fin d'ora delle linee editoriali che regolino quei casi in cui la differenza tra "notizia" e "promozione" è labile.

Ecco dunque la regola generale: questo newsblog si propone di pubblicare principalmente riferimenti ad eventi e novità che "hanno fatto notizia" o "stanno facendo notizia" o "faranno notizia" da lì a breve, dove con l'espressione "fare notizia" si intende la capacità per l'evento o novità di suscitare autonomamente clamore, forte interesse, discussioni tra gli operatori dei settori SEO e marketing, desiderio di approfondimento.

Oltre a questo genere di notizie, che potremmo considerare "primarie", questo newsblog ne pubblica anche di secondarie, generalmente inerenti gli sviluppi di una notizia precedente oppure legate a vicende influenti più all'estero che sulla comunità italiana.

In ogni caso, vi prego di non tentare di usare questo newsblog come un potenziale strumento di promozione delle vostre attività.

Se la notizia che volete segnalare è destinata da lì a poco a creare interesse intorno a sé o se ha già creato un forte interesse, allora questo newsblog possiede i mezzi per accorgersene da sé e la notizia verrà probabilmente pubblicata senza che voi ne facciate richiesta.

Al contrario, se la notizia che intendete segnalare ha bisogno dell'aiuto di questo newsblog per farsi strada tra le tante novità del settore, allora probabilmente si tratta di quel tipo di notizia promozionale alla quale questo newsblog non è interessato.

In poche parole, il newsblog vuole limitarsi a prendere atto di qualcosa di importante che è avvenuto, non fungere da aiuto per pubblicizzare qualcosa.

Un'ultima richiesta: non proponete scambi di favori o qualsiasi altro tipo di "compenso" o "tangibile ringraziamento", anche minimo, in cambio della pubblicazione di una vostra notizia. Questo accade spesso, e non è piacevole.

Sono perfettamente consapevole del fatto che si tratta di proposte fatte in buona fede e che il "voto di scambio" è un'attività del tutto scontata tra webmaster, ma a parte la mia personale antipatia nei confronti di qualsiasi tentativo di "acquisto di favori", c'è da dire che se avete bisogno di proporre scambi per far conoscere una novità, allora probabilmente la novità non è così rilevante da propagarsi da sé attraverso il passaparola. E qui si torna al tipo di notizie a cui questo newsblog non è interessato.

Non pensate che io sia un burbero censore: se le regole sopra esposte non fossero state applicate sin dall'inizio della vita di questo newsblog, i lettori avrebbero letto diverse notizie ben poco interessanti e chiaramente pubblicitarie.

Buona lettura a tutti.

Enrico Altavilla

MSN sforna la terza versione (beta) di Start.com, il proprio aggregatore e motore di ricerca di feed.
6 giugno '05 16:17:32
Questo intervento sul blog di MSN Search annuncia illancio della terza versione di Start.com, l'aggregatore di feed di MSN che può essere utilizzato senza alcuna registrazione come utente.

Attraverso una mossa criticata da più parti, MSN ha deciso di fornire l'URL della nuova versione di Start.com a coloro che avrebbero risolto un piccolo puzzle, pubblicato alla pagina http://www.start.com/3. Per coloro che non si vogliono cimentare nel gioco, questo è il link alla nuova versione di Start.com.

Le novità introdotte in questa nuova versione comportano alcuni problemi con il browser Firefox, sono stato costretto a lanciare, dopo mesi, Internet Explorer per poter dare un'occhiata alle caratteristiche del nuovo aggregatore.

Velocità a parte, che potrebbe essere migliorata, le nuove caratteristiche di Start.com sono degne di menzione e consistono nell'aggiunta di "moduli" per le previsioni del tempo e per le quotazioni borsistiche. Tra i link presenti nella barra laterale ne è stato aggiunto uno che elenca le ricerche recenti effettuate dall'utente attraverso il campo di ricerca presente in cima alla pagina.

Ma probabilmente la caratteristica più interessante di questa terza versione consiste nel fatto di poter effettuare ricerche sia sul Web, sia tra le notizie recenti sia tra le immagini archiviate dal motore di ricerca e "fissare" i risultati della ricerca sulla pagina, come se si trattasse di normali moduli aggiuntivi.

Ovviamente, come già accadeva con le versioni precedenti, l'utente può anche aggiungere alla pagina un qualsiasi feed RSS di propria scelta.

Utile anche la possibilità di poter muovere e impaginare i moduli con il mouse, una caratteristica simile a quella della homepage personalizzabile di Google.

Il gruppo formato da Espotting e Findwhat.com ha deciso di cambiare il proprio nome in Miva, rinominando tutte le sue divisioni.
6 giugno '05 15:49:05
Con questo comunicato stampa FindWhat.com Incorporated annuncia il cambiamento del proprio nome in Miva e la rinominazione di tutte le aziende del gruppo.

In particolare i marchi FindWhat.com ed Espotting, usati per il noto network pubblicitario confluiranno in una divisione chiamata "Miva Media".

Miva Corporation, l'azienda acquisita in precedenza da FindWhat.com e produttrice del software Miva Merchant, cambierà il proprio nome in "MIVA Small Business".

Infine, "MIVA Direct" sarà il nuovo nome di Comet Systems.

In seguito al cambiamento di nome, anche il simbolo borsistico di FindWhat.com Inc. cambierà, da FWHT a MIVA, il 13 giugno 2005. Ulteriori informazioni su tale cambiamento e sopratutto cosa cambia per chi intrattiene rapporti commerciali con Miva sono stati pubblicati in questa pagina di FAQ.

5 giugno '05 16:07:51
Ho ricevuto una e-mail da parte di un webmaster che desiderava un consiglio circa Google Sitemaps. Gli ho comunicato la mia opinione in proposito, ma il modo in cui il webmaster ha illustrato il proprio problema mi ha fatto rendere conto che "nel giro" esiste una sorta di timore incontrollato verso qualunque iniziativa dei motori di ricerca, e in particolare di Google.

Ma procediamo con ordine. Qualche giorno fa Google ha pubblicato le specifiche di un nuovo protocollo, Google Sitemaps, che permette ai webmaster di creare dei normali file di testo che contengono la lista delle pagine web che compongono il proprio sito web.

Fornendo tale lista a Google, il motore di ricerca viene aiutato nel lavoro di indicizzazione del sito e in teoria il webmaster assicura al proprio sito web un'archiviazione migliore, più profonda e con la possibilità di indicare al motore quali pagine del sito necessitano di essere visitate più spesso di altre o prima di altre.

Visto che il file di testo che contiene l'elenco degli URL che compongono un sito deve essere in formato XML, Google ha pensato bene di fornire ai webmaster anche uno script in linguaggio Python, chiamato Sitemap Generator, che permette di creare il file di testo acquisendo le URL che compongono il sito attraverso vari metodi.

Non c'è nulla di complesso, finora: c'è un webmaster che decide quanti e quali URL elencare nel file di testo ed uno script opzionale che crea automaticamente il file di testo invece di costringere il webmaster a scriverlo a mano.

Eppure il webmaster che mi ha scritto in e-mail ha manifestato dubbi circa la natura potenzialmente pericolosa dello script, ipotizzando che si potesse trattare di un trojan e segnalandomi un forum in cui altre persone esprimevano ipotesi simili.

La notizia continua. Leggi il seguito...

Google ha modificato le proprie linee guida per i webmaster e ha pubblicato nuova documentazione tecnica su ricerche e studi.
4 giugno '05 11:40:52
Una nuova pagina con FAQ avanzate per i webmaster è stata prodotta da Google.

Tra i vari contenuti, Google fornisce consigli su come gestire il cambiamento dell'indirizzo IP di un sito web e su cosa sono i "Supplemental results" (Risultati supplementari) che a volte appaiono nei risultati di ricerca.

E' stata modificata leggermente anche la pagina con le linee guida per i webmaster.

In particolare il nuovo consiglio "Have other relevant sites link to yours." denota un piccolo cambiamento di rotta nel modo in cui Google approccia i webmaster.

Prima Google si limitava a dire "Make sure all the sites that should know about your pages are aware your site is online." ovvero "Assicuratevi che tutti i siti che dovrebbero essere al corrente delle vostre pagine siano avvertiti della presenza in linea del vostro sito.": un modo per dire al webmaster di limitarsi ad informare altra gente che il proprio sito è online, lasciando agli altri la decisione se offrire link o meno.

Adesso invece, con quel nuovo "Have other relevant sites link to yours.", che sostituisce il vecchio consiglio, Google in qualche modo invita il webmaster ad un'azione più esplicita per ottenere link da altri siti.

Le novità nella pagina delle linee guida non terminano qua, in quanto Google ha aggiunto riferimenti al recentemente discusso Google Sitemaps e ha introdotto altre lievi piccole modifiche.

In aggiunta a tutto ciò, è stata creata una nuova pagina con i principali documenti sulla tecnologia di Google, che contiene un link alla preesistente lista di tutti i documenti pubblicati da Google.

Google crea un protocollo che permette ai webmaster di fornire ai motori le mappe dei propri siti web, per migliorarne l'indicizzazione.
3 giugno '05 07:45:59
Google Sitemaps è, insieme, un nuovo protocollo ed un'iniziativa di Google per consentire ai webmaster di indicare a Google le pagine che compongono il proprio sito web e assegnare a ciascuna di esse un ordine di priorità e informazioni sulla sua frequenza di aggiornamento.

In questo modo Google sarà in grado di determinare più facilmente quali pagine, all'interno di un sito web, conviene visitare più spesso, la frequenza della visita, nonché la profondità del crawling stesso. Lo spider agirà di conseguenza ed effettuerà il crawling del sito in base alle informazioni fornite dal file Sitemap. C'è di più: questo protocollo è open source, in modo che altri motori di ricerca possano decidere se sfruttarlo o meno.

Sia ben chiaro che questo protocollo è un'aggiunta alle normali attività di spidering di Google, non una sostituzione. Chi non sfrutterà il protocollo Sitemap continuerà a vedere il proprio sito web indicizzato come prima. Chi lo sfrutterà, potrà fornire a Google informazioni utili su ciascun URL che compone il sito web, aumentando la quantità di pagine prelevate dallo spider e la frequenza di indicizzazione, quando opportuno.

Tutto funziona attraverso un file che i webmaster dovranno creare e che descrive la struttura del sito web elencando gli URL delle pagine del sito. Il file deve essere costruito seguendo un preciso formato, chiamato XML Sitemap Format e poi pubblicato in una directory del proprio sito web. Successivamente, l'URL del file va comunicato al motore di ricerca attraverso il pannello di controllo al quale si accede dalla pagina principale di Google Sitemaps oppure attraverso una semplice richiesta HTTP GET: http://www.google.com/webmasters/sitemaps/ping?sitemap=http://www.nomesito.it/mappa.xml, in modo che il motore possa acquisire l'indirizzo del file con la mappa del sito e sia in grado di accedervi semplicemente scaricandolo dal Web.

L'uso del metodo HTTP GET non rende necessario possedere un account Google per segnalare una mappa, tuttavia coloro che possiedono un account avranno accesso ad un pannello di controllo attraverso il quale sarà possibile tener conto delle mappe segnalate e di come lo spider di Google ha reagito.

Per siti web molto piccoli è teoricamente possibile scrivere a mano il file XML che descrive la mappa del sito. Del resto, si tratta di un normale file di testo ASCII e la documentazione del protocollo Sitemaps è alquanto chiara.

Tuttavia creare file Sitemap per siti con più di una decina di pagine può rivelarsi un lavoro estremamente noioso o improbo. Per tale ragione, Google ha prodotto un Sitemap Generator, uno script in linguaggio Python che va installato in una directory del proprio web server e che è in grado di creare automaticamente un file in formato Sitemap partendo da una lista di directory sul server, o anche da un file di log di Apache, oppure semplicemente indicando al software un file di testo con la lista di URL che compongono il sito web, uno per riga.

Sitemap Generator creerà il file Sitemap in base alla configurazione fornita dal webmaster e lo copierà in una directory del sito specificata dal webmaster. L'URL del file potrà a questo punto essere comunicato a Google attraverso i metodi citati pocanzi o dallo stesso software, che si limita ad effettuare a Google la richiesta GET illustrata sopra.

Ogni file Sitemap può contenere un massimo di 50.000 URL e non deve superare i dieci megabyte; oltre questi valori è indispensabile creare più file Sitemap e un file chiamato Sitemap index che ne contiene un elenco. La descrizione di questo secondo formato è pubblicata sempre nella pagina del protocollo.

Visto che molti webmaster non hanno familiarità con il formato XML e che non tutti sapranno o potranno installare e utilizzare lo script per la generazione automatica dei file Sitemap, aspettatevi un veloce proliferare sul web di strumenti online per la creazione di file Sitemap e la loro comunicazione a Google. Se altri motori di ricerca aderiranno al protocollo Sitemap, tale proliferazione di tool sarà ancora maggiore.

Ecco alcuni URL utili:


  • La pagina di Google Sitemaps. Chi possiede un account Google accederà ad un apposito pannello di controllo.

  • Le FAQ principali.

  • La pagina che descrive il protocollo e il formato dei file Sitemap e Sitemap Index.

  • La pagina che spiega come installare ed utilizzare sul proprio web server (ma anche sul proprio PC, volendo) il software Python Sitemap Generator.

Segnalo anche un'intervista di Danny Sullivan all'ingegnere Shiva Shivakumar, che riassume bene l'iniziativa.

2 giugno '05 15:40:20
Notizie brevi di questi giorni:


2 giugno '05 07:57:08
Search Bistro è un blog appena nato, ma con il suo primo posto balza subito agli onori della cronaca con uno scoop sui dipendenti di Google che alimentano il sistema di valutazione dei risultati.

La notizia che Google assuma personale per effettuare controlli sulla qualità delle ricerche non è nuova ed in passato se ne è discusso molto in diversi forum ed articoli giornalistici.

Tuttavia Search Bistro scende nei particolari mostrando l'inserzione di Google per la ricerca del personale ma sopratutto un'animazione Flash che mostra il pannello di controllo riservato, al quale solo il personale adibito al controllo della qualità delle ricerche può accedere.

Il pannello, chiamato "Google Evaluation Console" e accessibile all'indirizzo http://eval.google.com/ (per chi possiede il permesso, ovviamente), propone diversi metodi per effettuare analisi sulla qualità dei risultati delle ricerche. La pagina presa in considerazione dall'animazione mostra un sistema in cui vengono proposti all'utente due versioni dei risultati di una specifica ricerca, lasciando all'utente il compito di indicare quale delle due versioni ritiene sia migliore.

Pare che l'operatore non sia costretto necessariamente ad analizzare una specifica ricerca ma può scegliere ricerche diverse, tutte appartenenti al medesimo "esperimento". Con questo termine Google identifica un progetto volto a conseguire uno specifico risultato. Alcuni degli esperimenti, ad esempio, hanno per oggetto analisi relative ad una lingua ben precisa (compreso l'italiano) o un tema specifico.

La validità delle affermazioni su Search Bistro sembra avallata dall'esistenza in rete di link che puntano al sottodominio eval.google.com, e lo scoop pare genuino.

Henk van Ess, il responsabile del blog, ha promesso nuovi particolari su questa sezione di Google riservata ai dipendenti del motore di ricerca.

Nielsen Netratings ha prodotto alcune statistiche sul mercato delle ricerche in Europa, evidenziando i trend e le differenze con gli USA.
2 giugno '05 07:27:24
Questo articolo di PC Pro diffonde alcune statistiche elaborate da Nielsen Netratings sul mercato delle ricerche in Europa.

Il dato più significativo è che il mercato è in forte crescita: la quantità di europei che effettuano ricerche è aumentata dai 79 milioni dell'aprile 2004 agli 88 milioni di quest'anno, un incremento dell'11% che supera abbondantemente la percentuale di crescita dei normali utenti Internet in Europa, che è del 4%.

Questo significa che molta più gente si avvicina ai motori di ricerca e che questo mezzo si sta diffondendo sempre più, tanto da poterlo definire a tutti gli effetti un "boom" delle ricerche, destinato peraltro ad aumentare ulteriormente.

In cima alla lista dei motori di ricerca più utilizzati dagli utenti europei c'è, neanche a dirlo, Google, e in alcuni Paesi come il Regno Unito, Google presenta percentuali di utilizzo persino superiori a quelle osservate nel mercato USA.

Esiste anche un mercato per i motori di ricerca locali, che però appaiono nelle graduatorie solo dopo i "big" e con percentuali di utilizzo ben inferiori. In Italia, il primo motore di ricerca che si incontra nella lista è Virgilio, al terzo posto.

1 giugno '05 17:09:22
Da ieri 31 maggio, il sito Giorgiotave.it non è più raggiungibile.

Il sito ospita, tra le altre cose, uno dei più frequentati forum italiani sul posizionamento e il web marketing, intorno al quale si è creata una nutrita comunità di SEO estremamente attivi.

Contattato in e-mail, Giorgio Taverniti, il gestore del sito, ha indicato in un attacco dei cracker (intesi come hacker dalle cattive intenzioni, non come biscotti salati) la causa dei problemi tecnici. L'attacco ha colpito tutti i siti ospitati dal server usato da Giorgiotave.it tuttavia Taverniti possiede indizi che farebbero pensare che l'obiettivo dell'attacco fosse solo o principalmente il suo sito web.

Giorgiotave.it e il suo forum torneranno attivi a partire dalla mezzanotte di oggi, mercoledì 1 giugno. Il forum purtroppo perderà circa un centinaio di messaggi e 3 o 4 utenti.

Google Code lancia un'iniziativa per incentivare gli studenti (anche attraverso un premio in denaro) a sviluppare software open source.
1 giugno '05 10:58:00
Summer of Code è una nuova iniziativa di Google Code nata per incentivare gli studenti a sviluppare software open source.

Google ha stretto accordi con alcune associazioni e organizzazioni che si dedicano allo sviluppo di software open source in modo che guidino gli studenti che richiederanno di partecipare all'iniziativa. Ogni studente sceglierà come mentore una delle organizzazioni e indicherà un progetto al quale desidera lavorare, proposto dall'organizzazione stessa o in alternativa dallo studente. Se il progetto verrà accettato dal mentore, Google pagherà subito cinquecento dollari allo studente, per coprire le prime spese di sviluppo.

Tutti gli studenti che termineranno entro il primo settembre 2005 il progetto al quale hanno deciso di lavorare, riceveranno altri 4.500 dollari.

Google ha stanziato fondi per un massimo di 200 studenti (un milione di dollari in totale) e i dettagli per poter richiedere di partecipare all'iniziativa sono stati pubblicati in questa pagina.

Potrebbero esserci casi in cui uno studente vorrebbe lavorare a progetti curati da organizzazioni non comprese nella lista fornita da Google Code. In tal caso lo studente può chiedere all'organizzazione di proporsi a Google come mentore, seguendo le indicazioni pubblicate qua.

Si arricchisce la lista di collaboratori di Multilingual Search Blog, dedicato al search marketing europeo e ai progetti SEO multilingua.
1 giugno '05 10:39:08
Da questa news di Online Marketing Blog apprendo che il Multilingual Search Blog si è arricchito di nuovi autori, di diverse nazioni europee, tra le quali l'Italia.

Multilingual Search Blog copre argomenti e notizie inerenti il mercato delle ricerche europeo e si propone come una fonte di informazioni per tutti gli operatori del settore che necessitano di sviluppare progetti multilingua (siti web, posizionamento, ecc.).

L'editor di questo blog per il settore italiano è Sante Joseph Achille di Sintesi Sas.

Due ricercatori di Stanford hanno pubblicato un documento che analizza le migliori tecniche per incrementare artificialmente il PageRank, attraverso network di siti e la cooperazione tra spammer.
1 giugno '05 10:17:02
Zoltán Gyöngyi ed Hector Garcia-Molina sono gli autori di Link Spam Alliances [PDF], una ricerca sui migliori metodi per organizzare network di siti in modo da accumulare PageRank.

Lo studio illustra diversi tipi di network e per ciascuno di essi ne calcola l'efficienza ad accumulare PageRank sulle pagine target. Il documento si spinge oltre, mostrando come l'alleanza tra spammer che sono già in possesso di link farm può condurre a mutui benefici, e in quali casi ha senso aumentare la quantità di pagine del network o diminuirla, eliminando uno o più membri dell'alleanza.

I ricercatori affermano che i metodi proposti non possono essere considerati un aiuto agli spammer in quanto la loro esperienza indica che le metodologie di linking discusse sono già largamente utilizzate dagli spammer. Tuttavia alcuni dei particolari più tecnici, come ad esempio certi calcoli di convenienza nell'ingrandire o rimpicciolire la grandezza di una link farm, è probabile che non siano stati presi in considerazione dagli spammer, quantomeno non ai livelli di analisi matematica studiati dagli autori.

Uno dei capitoli di Link Spam Alliances mostra anche come sia possibile individuare alcuni tipi di link farm, anche se afferma che i metodi anti-spam per combattere certi network sono attualmente lontani dall'essere considerati ottimali e che il più delle volte si limitano ad individuare quelle interconnessioni considerabili sospette, senza poter fornire una certezza sul fatto che siano realmente tentativi di spam.

Gli autori di Link Spam Alliances sono anche coloro che hanno ideato in passato il TrustRank [PDF] e che hanno prodotto un altro documento sullo spam ripreso da questa news di aprile.

Feed RSS completo, contiene tutte le notizie (se non sai a che serve, leggi qua):
http://www.motoricerca.info/news/feed.rss

Feed RSS personalizzato. Seleziona le categorie di tuo interesse e apparirà un link al feed che contiene solo notizie di quelle categorie:
 

Discussioni Eventi Google Interviste
Motori di ricerca Motoricerca.info MSN Notizie brevi
Strumenti Tecnologia Yahoo!

< Torna alla pagina principale delle notizie

<< Torna alla pagina principale di Motoricerca.info