Search Marketing

Guida al posizionamento dei siti web nei motori di ricerca

Amico degli spider
Home
2 Apr '05
Guida
8 Nov '04
Articoli
27 Mar '05
News/Blog
La Newsletter
30 Apr '09
FAQ
12 Gen '03
Risorse
10 Ott '04

Newsblog (settembre 2005)

Su Giorgiotave.it viene ripresa una discussione sulla notizia dei ban e delle penalizzazioni imposte da Google ai sottodomini di 135.it.
27 settembre '05 09:51:22
In questa discussione dello scorso giugno sul forum di Giorgiotave.it, l'utente Bukowski (gestore di 135.it) comunicava che Google aveva bandito dal proprio indice diversi sottodomini del servizio e penalizzato molti altri. Un provvedimento considerato benvenuto dal gestore stesso.

A distanza di qualche mese, la discussione sul forum riprende ed ospita anche un nuovo intervento di Bukowski nel quale si evidenzia che, pur essendo stati rimossi i ban, 135.it soffre ancora di una certa penalizzazione da parte del motore di ricerca.

Gli URL brevi di 135.it, da sempre presi di assalto dagli spammer per creare "redirect" (in realtà pagine con frame) a pagine doorway, hanno subìto penalizzazioni di diverso genere. Bukowski afferma che Google ha un po' "pescato nel mucchio" e che diversi sottodomini del tutto leciti siano caduti sotto i provvedimenti del motore di ricerca.

La discussione su Giorgiotave.it si sviluppa evidenziando l'interesse di Bukowski a mantenere il più pulito possibile il proprio servizio di URL brevi e fornisce alcuni particolari sulla tipologia di siti maggiormente penalizzati dal motore e su quelli passati indenni dalla penalizzazione. E' anche interessante osservare che non tutti i partecipanti alla discussione hanno accolto la notizia con lo stesso piacere di chi gestisce il servizio.

Aggiunto: Sottolineo che questa discussione è iniziata lo scorso giugno, ma Bukowski fornisce anche indicazioni sulla situazione attuale delle penalizzazioni. Grazie a Stefano Gorgoni per aver segnalato questo particolare.

27 settembre '05 09:25:22
Per il proprio settimo compleanno, Google annuncia di essersi fatto (e di aver fatto agli utenti) un regalo molto speciale: un indice dei documenti molto più grande.

Questa mossa va considerata una risposta a Yahoo! quando, ad agosto scorso, annunciò di aver indicizzato oltre venti miliardi di documenti, facendo nascere non pochi dubbi sul metodo con cui il conto era stato effettuato.

Oggi Google risponde sostenendo che il proprio indice è il triplo di quello di qualsiasi competitore, ma apparentemente rinunciando a continuare questa sterile lotta di numeri fine a sé stessi, eliminando dalla home page l'indicazione sulla grandezza dell'indice che per anni ha contraddistinto la pagina iniziale del motore di ricerca.

Tirarsi fuori dalla guerra delle dimensioni ha un senso anche in funzione del fatto che ogni motore di ricerca misura il proprio indice secondo parametri differenti, come spiegato da Google in questa nuova pagina. In particolare, Google tiene a sottolineare che i propri numeri non comprendono le pagine considerabili doppioni o quelle non interamente indicizzate dal motore di ricerca.

Smettendo di fornire quantità specifiche sulla home page, l'unico modo che Google ha di provare la grandezza del proprio archivio è quello di invitare gli utenti stessi ad effettuare ricerche molto specifiche, che solitamente restituiscono pochi risultati, e comparare ciò che mostra Google con ciò che mostrano i concorrenti.

Danny Sullivan prova a seguire il consiglio del motore di ricerca in questo articolo di Search Engine Watch, che ripercorre la storia degli archivi dei motori e che tenta di dare un'idea della reale grandezza e copertura del nuovo indice di Google.

27 settembre '05 00:15:37
ThreadWatch segnala un nuovo servizio gratuito chiamato FeedShot, attualmente in fase beta, che segnala un qualunque feed RSS o Atom ai principali motori di ricerca dei blog, come Technorati e Feedster.

Il funzionamento di FeedShot è alquanto semplice: è sufficiente inserire l'URL del proprio feed nel primo campo della pagina e cliccare il pulsante "Submit it!". Apparirà dunque un messaggio che invita ad attendere il completamento del processo e, successivamente, una pagina con la conferma delle segnalazioni andate a buon fine.

A differenza di servizi simili, come Ping-o-matic, FeedShot non è stato progettato per effettuare ping ai motori per ogni post aggiunto al proprio blog. Al contrario, lo strumento è stato pensato per effettuare la prima submission di un feed a quei motori che non lo conoscono già. Nella pagina con la conferma del risultato, infatti, la dicitura "Repeat" a fianco di un motore di ricerca indica che il motore era già a conoscenza del feed segnalato.

Proprio in funzione di tale caratteristica, sarebbe opportuno che FeedShot aggiungesse la possibilità di escludere dal processo di submission alcuni dei motori di ricerca presenti in elenco. Tenuto conto che il servizio è ancora in fase di beta, tuttavia, FeedShot rimane una risorsa che merita indubbiamente una visita.

Google aggiunge una caratteristica al servizio di ricerche personalizzate che consente di eliminare una pagina o un sito dai risultati di ricerca.
26 settembre '05 11:49:12
Il servizio delle ricerche personalizzate di Google, accessibile a chi possiede un account di Google (chi è utente GMail lo possiede già), si arricchisce della possibilita di eliminare dai propri risultati di ricerca personalizzati una pagina indesiderata o un sito web giudicato non attinente.

La novità, presentata dall'ingegnere Matt Cutts sul proprio blog, ha lo scopo di fornire agli utenti uno strumento per evitare che pagine o siti web indesiderati (ad esempio quelli che fanno spam) compaiano nelle ricerche successive.

Una volta che l'utente ha effettuato il login su Google, ogni pagina riportata nei risultati mostra un link "Remove result" che, cliccato, fa in modo che la pagina non compaia più nei risultati di quella specifica ricerca e ovviamente solo per quell'utente.

Una volta rimosso il risultato, è possibile accedere a ulteriori opzioni cliccando sul link "More options", attraverso il quale si accede ad un elenco di scelte sul tipo di rimozione desiderata: della singola pagina per la specifica ricerca, della singola pagina per tutte le ricerche o dell'intero sito per tutte le ricerche.

Tutte le ricerche personalizzate private dei risultati cancellati dall'utente mostrano a fondo pagina un link "repeat your search with the omitted results included" che effettua nuovamente la ricerca includendo anche i risultati precedentemente cancellati, evidenziati in giallo e comprensivi di un link "Restore removed result" che, cliccato, rimuove il filtro su quella pagina o sito web.

Cutts ha dichiarato che bisogna vedere quanto e come gli utenti utilizzeranno questa nuova caratteristica per decidere se e come sfruttare le informazioni raccolte per migliorare in futuro i risultati di ricerca generali di Google.

MSN attiva un accesso gratuito ad Encarta per dare modo agli utenti di consultare i principali contenuti dell'enciclopedia di Microsoft.
26 settembre '05 11:04:25
Search Engine Watch segnala che MSN ha attivato degli accessi gratuiti al contenuto dell'enciclopedia Encarta, ottenibili seguendo le indicazioni in questa pagina.

In poche parole, è sufficiente effettuare una ricerca su Encarta e poi cliccare su uno qualsiasi dei risultati della ricerca o sui link delle "Direct Answers" per accedere al testo completo delle pagine dell'enciclopedia. E' importante sottolineare che è necessario che il browser abbia i cookie attivati.

L'accesso gratuito scade dopo due ore dalla sua attivazione ma è sufficiente ripetere l'operazione sopra descritta per attivarne un secondo, per altre due ore di consultazione.

Questo "free pass" per Encarta è un'offerta limitata nel tempo ed è soggetta a cambiamenti in qualsiasi momento.

Google rilascia una versione aggiornata della propria toolbar per Firefox, aggiungendo alcune nuove caratteristiche.
26 settembre '05 10:40:35
Google ha annunciato la disponibilità di una nuova versione della propria toolbar per Firefox, che con l'occasione esce anche dallo stato di "beta" e viene promossa a software definitivo.

La nuova toolbar presenta novità quali l'integrazione di Google Suggest nel campo della ricerca (caratteristica finora disponibile solo come estensione), per fornire all'utente una lista di suggerimenti di ricerca a partire dal testo immesso, e la possibilità di riorganizzare i contenuti della toolbar spostandone gli elementi a piacimento sulla finestra di Firefox.

La toolbar di Google per Firefox richiede una versione del browser uguale o superiore alla 1.0 e un sistema operativo tra Windows XP/2000 SP3+, Mac OS X 10.2+ e Red Hat Linux 8.0+ (o equivalenti).

L'associazione di scrittori Authors Guild ha fatto causa a Google per violazione di copyright attraverso il servizio Google Library.
22 settembre '05 09:41:37
Google Print, il motore di ricerca di Google dedicato alle pubblicazioni cartacee, non ha mai incontrato il favore degli editori e degli scrittori.

In particolare, il progetto Google Library, che ha l'obiettivo di indicizzare i testi dei libri (anche quelli commerciali) esistenti in alcune grandi biblioteche, viene percepito da molti editori ed autori come una violazione dei diritti d'autore bella e buona, tanto da aver spinto l'associazione di scrittori Authors Guild a fare causa alla società del motore di ricerca.

Authors Guild sostiene che solo gli autori hanno il diritto di decidere se e come un proprio lavoro può venire copiato, Google di contro ha chiarito sul proprio blog che Google Print mostra agli utenti solo dei brevi estratti che contengono i termini cercati dall'utente, e che le intere pagine di testo vengono visualizzate solo se chi detiene i diritti sull'opera ha concesso a Google il permesso.

22 settembre '05 09:05:29
Già si sapeva che Barry Diller, CEO di Ask.com, aveva da tempo deciso di cambiare nome al motore di ricerca Ask Jeeves, senza tuttavia essere ancora sicuro di cosa scegliere.

Adesso questo articolo di TheStreet.com riporta la decisione presa da Diller, che consiste nel rinominare il motore semplicemente in "Ask" e perdere definitivamente la figura del maggiordomo (Jeeves) che ha caratterizzato dagli inizi tutte le attività del motore di ricerca.

Ask Jeeves, la mascotte del motore di ricerca

Il cambiamento è stato ritenuto opportuno per rafforzare il marchio Ask, in qualche modo limitato da quel maggiordomo che veniva considerato un retaggio del passato e che spesso veniva associato alla vecchia tecnologia di ricerca del motore, molto limitata rispetto alle migliorie tecniche apportate da Ask Jeeves e da Teoma negli ultimi anni. I lifting fatti a Jeeves nel corso degli anni, nel tentativo di dargli una linea più giovane, slanciata e dinamica, non sono serviti a molto.

Non si sa ancora quando Ask effettuerà l'operazione di re-branding, eliminando del tutto il maggiordomo dai propri siti web.

21 settembre '05 15:06:02
Opera, il browser gratuito che da tempo erode piccole quote di mercato al gigante Internet Explorer, è diventato ancora più gratuito rinunciando alle pubblicità finora mostrate agli utenti durante la navigazione.

Ciò che è più interessante è che i ricavi ai quali Opera ha deciso di rinunciare, che hanno costituito finora gran parte degli introiti dell'azienda, saranno in parte colmati da alcuni nuovi accordi commerciali, stretti con aziende quali eBay, Amazon e anche Google.

Il nuovo accordo tra Opera e Google prevede che il motore di ricerca predefinito nel browser sia quello della società di Brin e Page e che Google paghi Opera con una percentuale dei proventi AdWords ottenuti attraverso le ricerche effettuate dagli utenti di Opera.

I creatori del browser norvegese ritengono che l'eliminazione dei banner pubblicitari spingerà molti nuovi utenti ad adottare Opera, con la speranza di triplicare la base di utenti attuale che ammonta a circa venti milioni di persone.

Maggiori informazioni in questo articolo di eWeek.com.

Danny Sullivan riprende affermazioni fatte ad agosto da alcuni SEO sul fenomeno Sandbox, dimostrando che nessuno ha le idee chiare in proposito.
21 settembre '05 10:20:15
In seguito ad un articolo di News.com che riprende una notizia dello scorso agosto, Danny Sullivan riassume in un intervento sul blog di Search Engine Watch le opinioni sul fenomeno Sandbox espresse da tre illustri SEO dopo aver chiacchierato con gli ingegneri di Google durante un party. Lo scenario è a dir poco deludente.

Nonostante DougS, Rand Fishkin e Dave Naylor in quell'occasione abbiano parlato con gli stessi ingegneri di Google circa il Sandbox, le opinioni dei tre sul fenomeno sono a dir poco discordanti.

DougS ha capito che tutti i nuovi siti, a prescindere dai meriti, passano attraverso un periodo di "libertà condizionata".

Rand Fishkin, al contrario, ha capito che un sito web deve far "scattare un interrutore" affinché venga messo in Sandbox.

Dave Nayolor, dal canto suo, sostiene che ciò che Rand Fishkin ha capito non si riferiva al Sandbox ma ad altri filtri anti-spam.

E tutto ciò, beninteso, senza che nessuno abbia certezze su cosa diavolo sia il Sandbox.

L'unica conclusione che si può trarre da questo riassunto è che tre persone diverse ma con accesso alla stessa quantità di birra ad un party, percepiscono la stessa informazione in tre modi completamente differenti.

Una nuova caratteristica nei risultati di ricerca di Yahoo! fornisce all'utente dei link a risorse ed informazioni specifiche su un sito web.
21 settembre '05 09:51:33
Yahoo! ha annunciato l'attivazione di una nuova caratteristica dei risultati delle ricerche, in grado di determinare le informazioni di una pagina potenzialmente più usate dagli utenti e promuoverle sotto forma di link proprio sotto la descrizione del risultato, indicate col termine "Quick links".

La caratteristica, che sotto alcuni aspetti ricorda molto i link di approfondimento sperimentati da Google a luglio e adesso diventati caratteristiche piuttosto usuali del motore, si differenzia tuttavia nel fatto che i link aggiuntivi proposti da Yahoo! non derivano sempre dai contenuti del sito web riportato ma possono condurre anche a servizi di Yahoo! in qualche modo legati ai contenuti del sito.

Un esempio è la ricerca di un esercizio commerciale, come un ristorante, che subito sotto la descrizione del primo sito propone dei link a Yahoo! Local per trovare velocemente l'indirizzo del locale, eventuali recensioni sul servizio, il tragitto da percorrere per arrivarvi e la possibilità di inviare un SMS con le informazioni principali ad un telefonino.

21 settembre '05 09:18:52
Aumentano i motori di ricerca dedicati ai programmatori e alla ricerca di codici sorgenti e Codase rappresenta un passo avanti considerevole rispetto ai concorrenti, essendo in grado di effettuare ricerche su elementi specifici dei sorgenti, come le definizioni dei metodi o delle classi.

Codase, infatti, non indicizza i codici sorgenti considerandoli dei normali testi ma effettuandone a monte un'analisi per distinguere elementi come definizioni di classi, variabili, definizioni e chiamate di metodi, fornendo poi all'utente una ricca interfaccia per effettuare ricerche molto mirate.

Come i programmatori avranno già intuito, Codase è al momento dedicato all'indicizzazione di quei linguaggi di programmazione che sono orientati agli oggetti, come Java e C++, ma l'archivio contiene anche sorgenti in linguaggio C che, per quanto non orientato agli oggetti, possiede comunque elementi (come le variabili o le strutture) cercabili attraverso il motore di ricerca.

Una volta effettuata una ricerca, il motore pubblica a fianco dei risultati un elenco dei progetti ai quali il codice individuato appartiene. Cliccando sul nome di un progetto è possibile restringere la ricerca ai sorgenti appartenenti ad esso.

La ricca pagina di aiuto di Codase fornisce una chiara carrellata di tutti i tipi di ricerche effettuabili, indicando vari esempi di utilizzo.

20 settembre '05 09:29:45
Google Secure Access è un nuovo software realizzato da Google che fornisce alle connessioni WiFi un grado di sicurezza maggiore criptando tutte le informazioni dell'utente e facendole passare attraverso i server di Google.

Il servizio, attualmente disponibile solo nell'area di San Francisco funziona usando i server di Google come dei proxy attraverso i quali far transitare tutte i dati trasmessi e ricevuti dal PC (o generico dispositivo) dell'utente, in un modo che ricorda molto Google Web Accelerator.

Tutti le informazioni in transito tra il client e i server di Google, sia quelle in entrata che quelle in uscita, vengono automaticamente criptati e decriptati da Google Secure Access. In questo modo i dati WiFi non viaggiano mai in chiaro, aumentando il livello di sicurezza.

L'aspetto più interessante è che il software Google Secure Access si collega con un server VPN (Virtual Private Network) di Google, un metodo per la transazione dei dati tra l'utente ed Internet che starebbe anche alla base di quel GoogleNet ipotizzato tempo fa da Om Malik.

Non è dunque un caso che, proprio in concomitanza dell'uscita di Google Secure Access, Om Malik faccia oggi riemergere le voci su quell'ipotetico (ma plausibile) progetto di Google di realizzare un proprio network, che si frappone tra l'utente provvisto di WiFi ed Internet per velocizzarne la navigazione e per, come Google Secure Access già permette, aumentare la sicurezza del transito delle informazioni.

Malik segnala infatti questa news di IP Democracy in cui si afferma che Google ha contattato diversi fornitori per la creazione di un network DWDM (Dense Wavelength Division Multiplexing, una tecnologia per aumentare la banda su fibre ottiche già esistenti) sull'intero suolo USA.

In particolare, IP Democracy afferma: I fornitori che hanno letto la richiesta di preventivo per il network di Google dicono che la natura di questa rete può significare solo che Google spera di spingere grandi quantità di voce, video e dati vicino all'utente finale. E per coprire l'ultimo miglio, Google utilizzerebbe il proprio NetWork Wifi!

La notizia, approfondita in questo articolo (richiede una registrazione), fa comprendere come un semplice software come Google Secure Access sia in realtà un primo e vero banco di prova di GoogleNet o, più precisamente, un banco di prova dell'ultimo miglio.

Placeopedia.com consente di collegare su una mappa gli articoli dell'enciclopedia Wikipedia con le zone geografiche a cui si riferiscono.
20 settembre '05 08:54:09
Le mappe di Google si rivelano sempre in grado di integrarsi con altri strumenti e migliorarne l'efficacia e l'uso che ne fa Placeopedia.com è estremamente interessante in quanto consente di creare collegamenti tra le moltissime voci enciclopediche di Wikipedia con le locazioni geografiche a cui le voci fanno riferimento.

Placeopedia.com mostra in home page una mappa di Google sulla quale i classici segnalini indicano delle locazioni trattata da un articolo dell'enciclopedia e, a destra della mappa, i link agli articoli relativi. Come è di consueto nelle mappe di Google, i segnalini possono essere cliccati per ottenere il link all'articolo a cui si riferiscono.

Muovendo la mappa, sia i segnalini che l'elenco degli articoli a destra della pagina vengono aggiornati in tempo reale. E' possibile anche cercare una locazione attraverso l'apposito campo presente in alto a destra sulla pagina.

Chiunque può aggiungere una correlazione tra un articolo di Wikipedia ed una locazione geografica. E' infatti sufficiente cliccare sulla voce "Add your place" in cima alla home page ed inserire le due informazioni necessarie: il nome dell'articolo di Wikipedia che si vuole assegnare ad un luogo ed il luogo sulla mappa.

E' piacevole notare, durante l'aggiunta di una nuova locazione, l'uso di tecnologie AJAX per la funzione di auto-completamento dei nomi degli articoli di Wikipedia.

Placeopedia.com fornisce anche tutte le informazioni aggiunte al database dagli utenti attraverso dei feed pubblicati in questa pagina. E' disponibile anche file KML per far mostrare a Google Earth le ultime locazioni inserite in Placeopedia.com.

Si torna a parlare di keyword density, parametro insensato del posizionamento, ma stavolta ampliando la discussione a temi realmente influenti.
19 settembre '05 15:47:12
Sul fatto che il parametro della keyword density non sia mai stato utilizzato dai principali motori di ricerca ho già scritto in passato.

Tuttavia la discussione Key Density 2.0 sul forum di HTML.it prende spunto dal vecchio concetto della densità delle keyword (ovvero la percentuale di una keyword in un testo) per introdurre un paio di temi interessanti, correlati al concetto di term weighting usato in information retrieval.

L'utente gik25, infatti, fa alcuni esempi sulla co-occorrenza dei termini e teorizza (correttamente) che non esiste una "densità" fissa ma variabile a seconda dei termini.

Questa discussione è un eccellente esempio di ciò che è possibile intuire usando il semplice buonsenso. Alcune opinioni si discostano da ciò che i motori di ricerca realmente utilizzano per assegnare un peso ai termini, ma nel complesso il dibattito rimane interessante e potrebbe fungere da spunto per approfondire ulteriormente l'argomento.

19 settembre '05 09:33:56
Myriad Search è un nuovo meta-motore di ricerca sviluppato da SEO Book e che deriva da un precedente strumento chiamato "Authority Finder". Attraverso Myriad Search è possibile interrogare più motori di ricerca contemporaneamente e ottenere una lista di risultati ordinata in base al piazzamento delle pagine su ciascun motore interrogato (Google, Yahoo!, MSN ed Ask Jeeves).

Tra le caratteristiche dello strumento, riassunte in questa pagina, si evidenzia in particolar modo la possibilità di assegnare una preferenza ad uno o più dei motori interrogati, in modo che le posizioni assegnate da un motore possano pesare di più sul risultato finale.

Nelle ricerche effettuate, Myriad Search non si è dimostrato particolarmente veloce nel fornire i risultati di ricerca, tuttavia va sottolineato che un paragone con un vero meta-motore apparirebbe fuori luogo, tenuto conto che Myriad consta di un semplice script, il cui codice sorgente verrà, tra l'altro, prossimamente diffuso.

Matt Cutts spiega nel suo blog il metodo migliore per chiedere a Google la reinclusione di un sito bandito dal motore di ricerca.
19 settembre '05 09:12:52
Il metodo per chiedere la reinclusione di un sito su Google che Matt Cutts ha fornito sul suo blog non è nuovo, in quanto era già stato diffuso lo scorso giugno, ma la nuova pubblicazione sul blog dell'ingegnere del motore di ricerca assegna al metodo una certa connotazione di ufficialità.

Riassumendo quanto già riportato in passato, questi sono i passi da seguire:


  • Visitare questa pagina e selezionare la voce "I’m a webmaster inquiring about my website" e successivamente "Why my site disappeared from the search results or dropped in ranking.".

  • Cliccare su "Continue" e, nella nuova pagina, indicare "Reinclusion Request" nel campo del subject. Maiuscole o minuscole non contano, l'importante è che quel testo sia presente.

  • Nel testo del messaggio fornire due indispensabili informazioni: che lo spam è stato rimosso del tutto dal sito e che non si ha l'intenzione di riutilizzare tecniche di spam.

  • Spiegare brevemente cosa è successo, quali elementi hanno probabilmente spinto Google a penalizzare il sito e che tipo di provvedimenti sono stati presi per evitare che ciò avvenga di nuovo in futuro.

  • Se il sito si è rivolto ad un'azienda SEO, indicarne il nome e spiegare il modo in cui l'azienda ha operato sul sito. Matt Cutts sottolinea che i SEO devono fornire una ottima evidenza della propria buona fede affinché il sito venga reincluso, in quanto gli operatori del settore avrebbero dovuto ben conoscere (ed applicare) le linee guida di Google.

  • E' inutile specificare di essere clienti AdWords o publisher AdSense, perché la richieste di reinclusione vengono gestite da una sezione di Google che non ha alcun collegamento con la sezione commerciale o di marketing.

  • In caso di richieste per più di un sito, Matt Cutts consiglia di inviare una richiesta per ciascun sito, in quanto una richiesta per un intero gruppo potrebbe dare una brutta impressione all'esaminatore.

Fatto ciò, si deve attendere che un dipendente di Google esamini la richiesta e decida se accettare il sito o mantenerlo fuori dall'indice di Google. Ciò può richiedere diverse settimane di attesa, a seconda della gravità del tipo di spam utilizzato.

Luca Mori, un blogger italiano, ha scoperto un'antica villa romana nei pressi di Sorbolo usando Google Maps e Google Earth.
19 settembre '05 08:45:18
La notizia ha fatto il giro del mondo tra gli appassionati di archeologia ed è stata anche riportata sul sito di Nature: il blogger Luca Mori è riuscito ad individuare vicino Sorbolo (Parma) i resti di un'antica villa romana finora sconosciuta usando Google Maps e Google Earth.

Successivamente al ritrovamento "virtuale" di Mori, documentato sul suo blog, la locazione è stata visitata da alcuni archeologi del Museo Archeologico Nazionale di Parma, che hanno confermato l'esistenza dei resti e che hanno determinato l'origine romana ritrovando alcuni reperti in ceramica.

A seguito dell'attenzione nata intorno alla notizia, Luca Mori ha aperto un sito chiamato CyberArchaeologist.net, con lo scopo di discutere il ritrovamento e di far partire nuove cyber-indagini archeologiche.

Cinque major musicali denunciano Baidu. Ask Jeeves aggiunge lo shopping alle Smart Answers. Google conferma gli avvisi spediti a chi spamma.
17 settembre '05 09:38:30
Notizie di questi giorni:


  • Search engine Watch riporta la notizia che cinque major musicali (tra le quali Universal, EMI, Warner e Sony BMG) hanno denunciato Baidu per aver permesso agli utenti di cercare MP3.

  • Ask Jeeves annuncia che le Smart Answers sono state ampliate con informazioni relative allo shopping grazie ad un accordo con Gifts.com.

  • Su Threadwatch, Matt Cutts conferma che le e-mail recentemente ricevute da alcuni webmaster sono un'iniziativa ufficiale di Google per avvisare i webmaster delle sanzioni antispam prese dal motore di ricerca.

  • Google Earth si arricchisce di foto, articoli ed altre informazioni sul continente africano fornite dal National Geographic.
Terrorism Knowledge Base mette a disposizione un ampio archivio di informazioni e risorse sul fenomeno del terrorismo.
16 settembre '05 10:51:58
Terrorism Knowledge Base (TKB) ed in particolare la sua pagina con la ricerca avanzata consentono di cercare una ampia gamma di informazioni relative al terrorismo.

Le ricerche possono essere condotte sui gruppi terroristici, per aree geografiche, sugli episodi terroristici avvenuti e persino sulle vertenze giudiziarie legate ad attività terroristiche.

La pagina di Terrorism Knowledge Base dedicata all'Italia pubblica le principali informazioni sul nostro paese ed elenca tutti i gruppi terroristici che hanno operato sul suolo italiano, con tanto di mappa degli episodi avvenuti.

La perlustrazione geografica dell'intero pianeta può cominciare dalla cartina presente sulla home page del servizio.

16 settembre '05 10:29:55
Jeteye nasce dal tentativo di conciliare un normale motore di ricerca con le potenzialità che derivano da una comunità di utenti.

Una ricerca effettuata su Jeteye, infatti, riporta i classici risultati di un motore di ricerca (a scelta tra Google, Yahoo!, Ask Jeeves, Lycos e Wisenut) ma dà la possibilità all'utente di creare un risultato di ricerca personalizzato, includendo solo le risorse selezionate dall'utente (cliccando sul quadratino a fianco di ogni risultato) e chiamato Jetpack.

Ogni jetpack può essere personalizzato in vari modi, ad esempio attribuendovi un titolo o aggiungendovi note, immagini o link ad altre risorse. Una volta che il jetpack viene salvato, verrà considerato una risorsa aggiuntiva che potrà apparire tra i risultati del motore di ricerca, per le ricerche effettuate nella sezione Jeteye.

La caratteristica che differenzia questo motore di ricerca dagli altri consiste nel poter scambiare i jetpack creati con altri utenti (è richiesta la registrazione), in modo da creare delle vere e proprie comunità interessate agli stessi argomenti di ricerca.

Per un corretto funzionamento, Jeteye richiede l'attivazione dei cookie del browser.

Alcuni accessi a Motoricerca.info, provenienti da dipendenti di Yahoo!, mi fanno credere che la risposta al Blog Search di Google sia vicina.
15 settembre '05 12:58:39
Ho notato la presenza di alcuni accessi molto particolari sul file di log di Motoricerca.info ed ho pensato di segnalare la cosa, ritenendola un segno di come le cose si stanno muovendo.

Ma prima vi dovrete sorbire una necessaria premessa.

Yahoo! ha sempre avuto un occhio di riguardo nei confronti del protocollo RSS e dei feed in genere, contribuendo attivamente alla loro diffusione nonché alla progettazione di nuovi formati come il Media RSS.

Al contrario, Google ha sempre mantenuto un certo distacco nei confronti dei feed e dei blog, iniziando a supportare RSS ed Atom sui propri servizi solo negli ultimi tempi.

Tuttavia, tra i due concorrenti, Google è stato il primo a rilasciare un motore di ricerca per i blog. In casi normali questa mossa non avrebbe comportato conseguenze particolari, ma osservando il modo (stupido, a mio parere) in cui i due motori di ricerca si sono vicendevolmente rincorsi negli ultimi mesi, persino sfornando servizi simili a distanza di pochissimi giorni o addirittura ore l'uno dall'altro, non è da escludere che Yahoo! provi in questo momento una sorta di "pepe al sedere" per controbattere al più presto al recente Google Blog Search.

Questa mia previsione poggia adesso su basi un po' più concrete tenuto conto di alcuni accessi registrati oggi da Motoricerca.info.

Qualcuno identificato dall'indirizzo IP 207.126.233.138, corrispondente a weilin.corp.yahoo.com ha visitato la mia news su Yahoo! Instant Search, pubblicata solo un paio di ore fa, ma da subito segnalata a Yahoo! attraverso un apposito servizio di ping.

Adesso arriva la parte più significativa: il referrer di questo utente mostra inequivocabilmente che il link seguito per raggiungere Motoricerca.info stava su una pagina di risultati di ricerca del loro motore per la ricerca sui blog, presente all'indirizzo http://test.rss.search.yahoo.com/blog/, al quale è inutile tentare di accedere perché Yahoo! dirotta l'utente (non autorizzato, ovviamente) alla pagina della ricerca avanzata di Yahoo! Search.

C'è di più: sempre il referrer dell'utente indica che quest'ultimo ha effettuato una ricerca per i termini [instant search], mentre il parametro rssSrchButton=Search+Blogs chiarisce che l'etichetta che identifica il tipo di ricerca effettuata era quella per la ricerca dei blog.

Cosa è successo, dunque? E' successo che un dipendente di Yahoo!, qualcuno con accesso al prototipo del motore di ricerca per blog ha effettuato la ricerca [instant search] tra i blog, probabilmente per vedere quali blog discutevano dell'ultima novità introdotta da Yahoo! e magari per valutare la capacità del motore di indicizzare velocemente i post recenti.

Si noti che questa non è la prima volta che il prototipo del motore per blog di Yahoo! balza agli onori della cronaca. Lo scorso luglio Steve Rubel notò che il servizio era stranamente accessibile e pubblicò persino degli screenshot.

Le cose si stanno muovendo. Vediamo un po' quanto tempo passerà prima che Yahoo! sforni il suo motore dedicato ai feed.

Yahoo! Instant Search fornisce risultati di ricerca mentre si digitano i termini da cercare, senza bisogno di far compilare la lista dei risultati.
15 settembre '05 10:50:50
Search Engine Watch segnala l'attivazione del servizio Yahoo! Instant Search, un modo nuovo per ottenere velocemente una risposta alla propria interrogazione senza dover attendere la classica compilazione della lista dei risultati.

Attraverso tecniche AJAX, infatti, Yahoo! Instant Search è in grado di mostrare una risposta ai termini inseriti dall'utente durante la loro digitazione, facendo apparire proprio sotto il campo di ricerca un bubble (fumetto) che contiene l'informazione.

Uno dei risultati di Yahoo! Instant Search

I contenuti di questa zona provengono dagli Shortcut di Yahoo!, ovvero informazioni solitamente compilate manualmente dagli editori del motore di ricerca e che spaziano dalle definizioni, alle quotazioni di borsa, al meteo. A volte il fumetto può ospitare anche un classico risultato di ricerca sul Web, se il termine immesso è particolarmente popolare.

L'informazione o risorsa presentata al volo può essere raggiunta premendo semplicemente Ctrl+Invio mentre il semplice Invio serve ad avviare una normale ricerca dei termini.

Oltre all'apposito indirizzo dedicato al servizio, è possibile aggiungere Yahoo! Instant Search alla pagina generale di Yahoo! Search cliccando su questo link. Altre informazioni sul servizio sono disponibili nella relativa pagina delle FAQ.

Questo approccio a fornire direttamente l'informazione cercata invece che un elenco di risorse in cui l'informazione può risiedere è una delle strade che diversi motori di ricerca stanno cercando di percorrere e uno dei campi di ricerca che promette sviluppi estremamente interessanti.

I responsabili tecnici dei principali motori di ricerca si incontreranno per discutere le contromisure attuali e di futura implementazione contro il web spam.
15 settembre '05 09:18:25
Technorati si sta occupando dell'organizzazione del secondo Web Spam Summit, un incontro tra gli ingegneri dei principali motori di ricerca per fare il punto sul fenomeno del web spamming e per illustrare le contromisure adottate o di futura implementazione.

Le tecniche di spam discusse nel summit includeranno lo spam nei commenti, quello dei link, quello ottenuto col TrackBack, lo spam con i tag, ed i falsi blog, discussi tempo fa anche in questo intervento di Dave Sifry sul blog di Technorati.

Al summit, che si terrà presso la sede di Google a Mountain View, parteciperanno rappresentanti di Ask Jeeves, Feedster, Google, Microsoft, Six Apart, Tucows, Yahoo! e Wordpress.

E' interessante evidenziare l'espressione spam as a community usata da Niall Kennedy sul post che annuncia l'evento. Il concetto di comunità di spam non si applica semplicemente a quei siti che appartengono a "zone del web" fortemente interessate dal fenomeno dello spam ma persino a quei siti che mostrano collegamenti comportamentali (e quindi non diretti) con gli spammer.

In poche parole, fatto un identikit delle caratteristiche dei siti che fanno spam, i motori di ricerca possono calcolare un indice di "spammosità" per ciascun sito archiviato confrontando le caratteristiche di ogni sito con quelle indicate nell'identikit dello spammer. Questa tecnica di analisi è stata tempo fa esplicitamente accennata da un ingegnere di Google. Nella comunità degli spammer entra pertanto chi mostra comportamenti simili a quelli di altri spammer, a prescindere dalla "zona del web" in cui il sito risiede e dai link che il sito offre o riceve, elementi che comunque possono essere utilizzati per analisi aggiuntive o rientrare tra quelli inclusi nell'identikit.

Sembra che Google stia cercando di assumere qualcuno che occupi la posizione di SEM Manager per l'Europa.
15 settembre '05 08:46:12
Con una mossa che non mancherà di destare fastidi tra chi si occupa di marketing dedicato ai motori di ricerca, Google pare sia intenzionato ad assumere per l'Europa un SEM Manager (o più SEM Manager), secondo quanto riporta Search Engine War.

L'autore dell'intervento afferma infatti di aver ricevuto una telefonata da parte di qualcuno che si sta occupando di individuare un SEM europeo in grado di gestire questo settore per Google.

Se ciò fosse vero, come è avvenuto già in passato e come leggevo fino allo scorso giorno tra i blog degli esperti di search engine marketing, mosse simili non possono che essere considerate da molti SEM altro che vere e proprie invasioni di campo, con Google che tenta di scavalcare il ruolo degli operatori del settore per gestire e controllare direttamente i clienti finali.

MSN ha prodotto diverse API, attraverso le quali i programmatori possono realizzare software basati sui servizi di Microsoft.
15 settembre '05 08:31:51
MSN aveva annunciato la prossima disponibilità delle API qualche giorno fa e la promessa è stata mantenuta pubblicando i nuovi kit di sviluppo su MSN Developer Center.

Attraverso questi kit di sviluppo i programmatori di software potranno sfruttare i diversi servizi web offerti da MSN per realizzare nuove applicazioni basate su essi.

Si evidenziano tra le altre, le API per MSN Search, attraverso le quali è possibile interrogare il motore di ricerca di Microsoft per ottenere risultati di ricerca sul web o specifici per ogni categoria messa a disposizione dal motore (ricerche locali, mappe, ecc.) e le API per Virtual Earth, il cui utilizzo da parte dei programmatori può avvenire anche per fini commerciali.

MSN offre kit di sviluppo e tutorial per ognuno dei servizi interrogabili attraverso le API, che supportano anche MSN Messenger e Start.com, che può essere espanso attraverso dei gadget.

Yahoo! presenta Shopping Search on Mobile, il servizio di ricerca dedicato allo shopping da consultare attraverso dispositivi mobili.
15 settembre '05 08:06:12
Con questo annuncio sul blog di Yahoo! Search, il portale americano introduce un nuovo servizio di ricerca: shopping dai dispositivi mobili.

Attraverso il nuovo motore di ricerca, è possibile condurre le stesse ricerche per la comparazione dei prezzi tipiche dei motori dedicati allo shopping ed il servizio è stato costruito sulle API di Shopping Web Services, che Yahoo! invita ad utilizzare per spingere i programmatori a produrre nuovi servizi basati sulla tecnologia di Yahoo!.

Per accedere con un cellulare è sufficiente che l'apparecchio sia provvisto di supporto del protocollo WAP 2.0 e visitare l'indirizzo http://shopping.yahoo.com.

Questo nuovo servizio giunge anche per tenere il passo con Google, che lo scorso agosto aveva introdotto Froogle per dispositivi mobili.

La vertenza giudiziaria tra Microsoft e Google sull'assunzione da parte di quest'ultimo di Kai-Fu Lee giunge ad un primo risultato.
15 settembre '05 07:49:41
Il dott. Kai-Fu Lee è stato l'oggetto del contendere tra Google, che ha voluto assumerlo per la sua esperienza maturata in Microsoft e quest'ultima, che ha citato in giudizio Google per evitare che mettesse la mani su una persona che per anni, secondo Microsoft, ha avuto accesso ad informazioni riservate sui progetti della società di Redmond in Cina.

Google adesso segnala che il giudice ha raggiunto un primo verdetto che nella pratica permette al motore di ricerca di assumere Kai-Fu Lee per creare un centro di ricerche in Cina e per occuparsi della ricerca ed assunzione del personale più adatto.

Tuttavia non è tutto oro ciò che luccica. La decisione del giudice comprende anche alcune restrizioni: Kai-Fu Lee può occuparsi della realizzazione del centro di ricerche ma, almeno per il momento, non delle tecnologie che il centro dovrà sviluppare.

Una decisione sui ruoli definitivi che il dottor Lee potrà assumere in Google verrà presa dal giudice nel gennaio 2006.

Google attiva finalmente il motore di ricerca dedicato ai blog, che colma una lacuna da tempo avvertita dagli utenti.
14 settembre '05 13:16:19
Google ha pubblicato il proprio motore di ricerca per blog (con tanto di versione italiana), Google Blog Search, facendo un passo avanti su uno dei terreni finora poco esplorati dalla società di Mountain View.

L'interfaccia si presenta identica ai consueti servizi di ricerca di Google, ma esiste anche un'interfaccia utente in "stile Blogger" pubblicata all'indirizzo search.blogger.com.

Una delle caratteristiche più influenti di questo nuovo servizio consiste nel fatto che Google non indicizza realmente i blog ma solo il contenuto dei loro feed (RSS o Atom). Questo fa di Google Blog Search un motore di ricerca non full-text, ovvero che non indicizza tutti i contenuti delle pagine web su cui i post appaiono ma solo gli estratti che gli autori decidono di includere nei propri feed.

Si tratta di una differenza consistente rispetto alla concorrenza, a cominciare da Technorati, uno dei leader della ricerca nei blog, le cui ricerche vengono effettuate tra l'intero testo dei post.

La seconda caratteristica di Google Blog Search è il modo in cui l'indice viene aggiornato: Google controlla i servizi che accettano i ping dai blog, come Weblogs.com, per individuare quelli che hanno recentemente aggiornato i propri feed.

Questa tecnica chiarisce finalmente i dubbi di coloro che avevano notato da un po' di tempo un'immediata reazione dello spider di Google non appena si utilizzava un servizio per il ping multiplo come ping-o-matic. Questo approccio garantisce un'indicizzazione pressoché in tempo reale dei post da parte del motore di ricerca.

Google ha affermato di voler aggiungere in futuro una pagina per la segnalazione diretta dei feed/blog ma fino ad allora sarà sufficiente utilizzare uno dei servizi di ping indicati sopra, direttamente o attraverso gli automatismi che molte piattaforme di blogging offrono agli autori.

I risultati di ricerca del nuovo servizio sono essenziali. Immessi i termini da cercare, il motore riporta un elenco dei post individuati, ordinato in base ad un criterio proprietario di rilevanza. E' possibile ordinare i risultati anche per data, cliccando sull'apposito link presente in alto a destra nella pagina dei risultati.

Oltre all'elenco dei singoli post, Google riporta in cima ai risultati anche un link ai blog ritenuti più attinenti con la ricerca effettuata.

Dalle prime prove condotte, sembra che la scelta di indicizzare solo gli estratti nei feed e non l'intero corpo dei post abbia un'influenza decisiva sulla qualità dei risultati, che a volte appaiono fin troppo basati sul contenuto dei titoli o del nome dei blog.

La pagina delle FAQ del servizio introduce anche dei nuovi operatori di ricerca specifici per i blog. Oltre ai familiari link:, site: e intitle: esistono infatti inblogtitle:, inposttitle:, inpostauthor: e blogurl:, che restringono la ricerca rispettivamente al nome del blog, al titolo del post, all'autore del post e all'URL del blog.

In alternativa all'uso diretto dei nuovi operatori di ricerca, la pagina di ricerca avanzata consente di effettuare le stesse ricerche attraverso una interfaccia grafica.

Google Blog Search produce anche dei feed RSS ed Atom per ogni risultato di ricerca, i cui link appaiono in fondo ad ogni pagina. In questo modo è possibile monitorare costantemente i risultati di una specifica ricerca, un po' come è possibile fare da un po' di tempo con l'analogo servizio di Google News.

Google e Yahoo! forniscono servizi di ricerca specializzati nell'individuare informazioni sull'uragano Katrina e sulle persone coinvolte nella tragedia.
13 settembre '05 15:39:04
Google annuncia sul proprio blog la disponibilità di un indice dedicato a Katrina contenente informazioni relative alle persone coinvolte nel disastro e pagine web riguardanti il tornado e le zone colpite.

Cooperando con la Croce Rossa Americana, Microsoft, Yahoo! ed altre società ed organizzazioni, Google ha potuto offrire due diversi servizi di ricerca: uno relativo alle persone coinvolte nella tragedia ed un altro riservato alla consueta ricerca sul Web di documenti relativi a Katrina.

Questa pagina di aiuto illustra le principali caratteristiche del nuovo servizio e ne chiarisce i limiti, specificando che Google non può garantire l'accuratezza delle informazioni individuate attraverso il motore di ricerca, in quanto provenienti da fonti esterne.

Anche Yahoo! si è impegnato nel fornire aiuti alle persone colpite dalla tragedia e ai loro familiari realizzando un'apposito servizio di Yahoo! News per la ricerca di persone scomparse. Ogni ricerca riporta dei link alle pagine in cui il nome della persona cercata appare.

Il servizio include una nutrita serie di link a pagine per l'inserimento di messaggi tematici, per facilitare la ricerca delle persone e la cooperazione.

Un webmaster mostra una e-mail, apparentemente ricevuta da Google, che notifica un ban specificando persino la causa del provvedimento.
13 settembre '05 08:33:05
Lo stile è quello delle e-mail di Google, pertanto se non è autentica può essere considerata un eccellente falso. Si tratta della mail che l'utente Hampstead pubblica su Searchengineforums.com, affermando di averla ricevuta da Google.

La mail comunica al webmaster che il sito da lui gestito ha subito un ban temporaneo di almeno 30 giorni, specificando la causa: doorway con redirect Javascript. Viene anche aggiunto come ritornare nell'indice del motore, una volta eliminate le caratteristiche che hanno portato alla penalizzazione.

Se non fosse che l'utente Hampstead è ben conosciuto dalla comunità del forum, ci sarebbe da pensare ad una burla, inoltre lo stile del messaggio e l'intento con in quale è stato inviato farebbero proprio pensare ad una comunicazione ufficiale di Google.

Al momento non si sa nulla sull'origine dell'e-mail e sarebbe eccessivo dedurre che si tratta di una e-mail automatizzata per segnalare i ban agli spammer. Il webmaster destinatario della missiva ha ricevuto il messaggio agli indirizzi e-mail istituzionali del sito, indicati sul sito stesso. Anche qua non è possibile sapere se all'origine vi sia un software che cerca l'indirizzo del webmaster sulle pagine del sito oppure se si tratta di un provvedimento manuale (o automatico solo in parte).

Se l'email si rivelasse realmente proveniente da Google, questa mossa rappresenterebbe una svolta nei rapporti con gli spammer. Forse Google si è reso conto che tra i tanti spammer esistono semplici webmaster "molto intraprendenti", che non avrebbero difficoltà a tornare ad usare metodi più graditi al motore di fronte ad una prova delle capacità dei suoi algoritmi o dei suoi dipendenti.

Negli scorsi giorni GoogleGuy ha detto che Google è diventato molto più bravo ad individuare i redirect ingannevoli in Javascript. A prescindere dal fatto che l'e-mail sia vera o falsa, sicuramente rappresenta una buona forma di marketing per il motore di ricerca.

13 settembre '05 08:13:05
Gary Price, di Search engine Watch, ha comparato i risultati di ricerca di Yahoo! Images e Google Images per la query [Hurricane Katrina], un argomento non a caso recente, per controllare quale dei due motori di ricerca presentava risultati migliori ed aggiornati.

La ricerca su Yahoo! hanno prodotto oltre seimila risultati, la maggior parte dei quali mostra le conseguenze del tornado sulla popolazione e le abitazioni: presumibilmente ciò che la maggior parte degli utenti ha interesse a trovare.

Al contrario la ricerca su Google ha offerto solo 36 immagini, consistenti perlopiù in mappe delle zone colpite dall'uragano.

Questi risultati evidenziano ancora una volta come l'attività del crawler di Google dedicato alle immagini sia alquanto lenta se comparata a quella dello spider di Yahoo!. Il motore di ricerca per le immagini di Google, infatti rappresenta uno di quei campi in cui la concorrenza (e non solo quella di Yahoo!) pare aver raggiunto obiettivi migliori, come al momento avviene anche per la ricerca dei file audio e quella dei video, per la quale Yahoo! al momento eccelle.

13 settembre '05 06:38:07
Non si può dire che Google abbia scelto per il proprio servizio di posta un nome finora mai usato.

GMail è già stato infatti al centro di una vertenza legale tra Google e una società tedesca e adesso rischia di fare bis con una società inglese chiamata Independent International Investment Research (IIIR), anch'essa proprietaria di diritti su un servizio di web mail chiamato G-Mail.

E' quanto riporta questo articolo del Times Online, che sottolinea anche come la società inglese avrebbe interesse ad unire gli sforzi con quella tedesca per aumentare le chance di vincita in tribunale, tenuto anche conto del fatto che una causa intentata a Google può costare una cifra considerevole.

A nulla sono valsi gli sforzi della società per tentare di trovare con Google un compromesso che avrebbe evitato il ricorso all'autorità giudiziaria. In altri termini questo significa che Google non ha accettato di acquistare i diritti sul nome G-Mail pagando le cifre proposte da IIIR.

Un'analisi [PDF], commissionata dalla stessa società e segnalata da questo post di Search Engine Watch ha stimato che la royalty sul nome G-Mail potrebbe fruttare ad IIIR tra i 25 ed i 34 milioni di sterline.

Google cerca di diffondere il proprio servizio Google Sitemaps traducendo le pagine dedicate al servizio in molte lingue, compreso l'italiano.
12 settembre '05 09:27:22
Il blog di Google Sitemaps annuncia la disponibilità delle pagine dedicate al servizio in dodici nuove lingue, compreso l'italiano.

Il protocollo e servizio Google Sitemaps, introdotto lo scorso giugno dal motore di ricerca, è stato creato da Google per facilitare agli spider l'indicizzazione dei siti web consentendo ai webmaster di segnalare un file di testo contenente una lista delle pagine che compongono un sito.

L'iniziativa non ha mancato di sollevare dubbi e critiche sulle reali intenzioni di Google che, secondo alcuni webmaster potrebbe sfruttare le informazioni contenute nei file per individuare siti collegati o realizzati dalla stessa persona ed utilizzare questi dati per determinare in parte la posizione delle pagine nei risultati delle ricerche.

Al momento, non sono state segnalate situazioni che farebbero pensare ad una reale applicazione dei provvedimenti ipotizzati dai webmaster. Sull'inopportunità di questo atteggiamento succube e timoroso il sottoscritto si è già espresso in passato.

12 settembre '05 09:12:03
Il sempre attento Gary Price segnala un interessante documento [PDF] presentato al recente congresso SIGIR di agosto nel quale l'autore delinea alcune tecniche basate sull'intelligenza artificiale in grado di determinare l'umore con il quale un autore ha prodotto un testo.

Il documento cerca di muovere i primi passi su un campo finora poco perlustrato dai motori di ricerca e dall'Information Retrieval. In passato, elementi relativi all'umore degli autori e al tono dei testi facevano parte di progetto Web Fountain di IBM, ma in maniera alquanto limitata.

L'autore dello studio, lo studente dell'università di Amsterdam Gilad Mishne riesce invece a presentare tecniche ben funzionanti e realmente in grado di essere sfruttate nell'Information Retrieval, ad esempio per individuare comunità o filtrare e classificare (clustering) i documenti in base all'umore che i loro autori hanno fatto trasparire nel testo.

Una lettura davvero consigliata.

I ricercatori di MSN hanno recentemente presentato al SIGIR una interessantissima lista di documenti su nuove tecniche di Information Retrieval.
12 settembre '05 08:56:38
Il SIGIR è un'organizzazione che ha lo scopo di promuovere l'avanzamento delle tecnologie dedicate all'Information Retrieval, ovvero a quella branca della scienza che studia l'individuazione, archivazione, classificazione e ricerca delle informazioni.

Al congresso del SIGIR 2005, tenutosi lo scorso luglio, i principali protagonisti del settore della ricerca si sono incontrati per discutere nuove tecniche e tecnologie. Tra loro, Miscosoft ha presentato una nutrita serie di documenti dedicati a metodi ed algoritmi diversi.

Tra i contenuti che reputo più interessanti segnalo Detecting Phrase-Level Duplication on the World Wide Web [PDF], una tecnica per individuare quelle pagine di testo ottenute automaticamente componendo frasi estratte da un corpus limitato di documenti.

Si tratta di una tecnica utilizzata spesso dagli spammer per creare grandi quantità di doorway in modo automatico, ottenendo i contenuti testuali facendo dei veri e propri collage di frasi estrapolate da siti web pubblici o uno o più documenti di partenza.

Altri studi meritevoli di lettura sono A Study of Relevance Propagation for Web Search [PDF], che illustra come sfruttare le mappe dei siti per realizzare un buon metodo per la propagazione dei contenuti, un'altra tecnica base dell'IR che espande i contenuti dei documenti aggiungendo contenuti di documenti "vicini" e Improving Web Search Results Using Affinity Graph [PDF], un modo per migliorare i risultati delle ricerche aumentando diversità e ricchezza dei documenti trovati in base alla computazione di un grafo di collegamenti tra i documenti stessi.

Questo post su Search Engine Watch elenca altri contributi del team MSN al SIGIR.

12 settembre '05 08:26:28
Search Engine Watch segnala l'esistenza di un nuovo brevetto assegnato a Google che discute di alcune tecniche per trovare termini e descrizioni equivalenti in grado di soddisfare la stessa necessità di informazione degli utenti.

Il brevetto, richiesto nel lontano febbraio 2002 (le cui tecniche potrebbero dunque essere state utilizzate già da diversi anni), ha per obiettivo quello di comprendere quali query possono soddisfare la ricerca di una specifica informazione. L'obiettivo del motore di ricerca è integrare i termini usati in una ricerca con un insieme di altri termini ed espressioni che possono aiutare l'utente a raggiungere l'informazione che sta cercando.

Il concetto non è affatto nuovo in quanto l'espansione delle query è uno dei passi tipici effettuati dai motori di ricerca per fornire all'utente una selezione più ampia di documenti. La ricerca effettuata, dunque, non prende in oggetto solo i termini inseriti dall'utente ma beneficia di altre parole concettualmente legate alle prime, solitamente sinonimi ma anche termini semplicemente correlati.

Per fare ciò, il metodo di Google analizza una lista di query inviate al motore di ricerca e tenta di individuarne tra le stesse alcune che possono essere considerate connesse tra loro in funzione della presenza di termini comuni. Una volta individuata una coppia di query correlate, i termini non comuni possono essere utilizzati per espandere in modo automatico la query di ricerca.

Il brevetto non discute solo dell'analisi delle query ma applica lo stesso concetto di copresenza di termini anche ad informazioni di altro tipo come il testo dell'ancora dei link.

9 settembre '05 09:23:46
Vint Cerf stesso si presenta agli utenti di Google sul blog dell'azienda e comunica di essere entrato a far parte della società di Mountain View per apportare nuove idee e nuove tecnologie.

Vint Cerf è considerato uno dei padri di Internet, autore tra le altre cose del protocollo TCP/IP sul quale l'intera Rete si basa, vincitore di un Turing Award (l'oscar del Web) e progettista di nuove tecnologie futuristiche come Interplanetary Network, un progetto NASA per espandere Internet oltre i confini terrestri, per le comunicazioni tra il pianeta e le future postazioni umane fuori dalla Terra.

Il comunicato stampa di Google illustra l'identità di vedute tra il motore di ricerca, da sempre innovatore su Internet con tecnologie e idee fuori dagli schemi e Vint Cerf, che con le proprie visioni tecnologiche ha posto le basi per un costante miglioramento di Internet e per creare interi nuovi settori industriali.

Cerf ha assunto il titolo di Chief Internet Evangelist a sottolineare che, oltre all'apporto scientifico, sarà sopratutto un consigliere ed un evangelizzatore col compito di diffondere la filosofia di Google.

9 settembre '05 09:06:04
Sul forum di Giorgiotave.it apprendo dall'utente Catone di un seminario sui motori di ricerca e sulle tecniche di posizionamento organizzato da Connecting-Managers.

Il seminario è aperto gratuitamente a tutti, ma è richiesta una registrazione da effettuare online. L'evento si terrà il 28 settembre a Levada di Piombino Dese (PD) ed è stato organizzato con la collaborazione di ePOINT.

Gli argomenti discussi spaziano dalle tecniche per ottimizzare i siti a quelle per mantenere sui motori di ricerca le posizioni acquisite; alla fine delle relazioni degli esperti sarà possibile per i partecipanti fare un po' di "marketing relazionale" (chiacchiere ed eventuali accordi di collaborazione).

E' importante precisare che non ho idea della natura del seminario e non so quanto conti la componente promozionale e commerciale dell'evento. Il fatto che inizi alle ore diciannove mi fa credere che il tempo dedicato agli interventi sia piuttosto limitato.

8 settembre '05 11:24:14
Di Open Directory Project si sente parlare molto, in ambito SEO, ed in molti casi si tratta di critiche e lamentele nei confronti di un progetto poco promosso da chi ne cura lo sviluppo e poco compreso da chi ci vede solo un aiuto per il posizionamento.

Editando.org nasce proprio per colmare quella che molti editor di ODP consideravano una lacuna nella comunicazione tra il progetto ed i suoi usufruitori, gli utenti. Si tratta di un portale non ufficiale che ospiterà articoli, consigli e tutorial per conoscere meglio ODP e per sfruttarne appieno l'utilità della risorsa.

Tra le sezioni che il portale include, si evidenziano diversi blog curati da alcuni editor della directory, che con i propri interventi personali aggiungono considerazioni e informazioni sulla natura del progetto e sulle sue caratteristiche.

Un ottimo esempio è rappresentato da queste statistiche pubblicate da bigmarlin, che mostrano l'incremento nel corso degli anni dei siti italiani aggiunti alla directory, senza purtroppo poter dare un'idea del grande lavoro che è stato compiuto per rifiutare i siti non conformi alle linee guida di ODP e quelli palesemente di spam, che superano in percentuale (di gran lunga) i siti accettabili.

Editando.org è dedicato a tutti gli utenti, webmaster compresi, ed offre ovviamente anche consigli su come suggerire un sito ad ODP. Faccio i miei migliori auguri a questa nuova risorsa, certo che sarà in grado di far conoscere un po' meglio Open Directory Project ai navigatori.

8 settembre '05 08:35:06
Google Mini è una soluzione hardware di Google dedicata alle aziende che desiderano indicizzare (e cercare, ovviamente) i contenuti della propria rete Intranet e dei propri siti web, fino ad un massimo di centomila documenti.

AnandTech ha avuto per le mani uno di questi apparecchi e lo ha smontato, per scoprirne i segreti hardware, documentando l'impresa con una nutrita serie di fotografie.

L'analisi non rivela particolari tecnici particolarmente eclatanti, a dire il vero, anche se si apprezza un modem che viene dato in dotazione con l'apparecchio per collegare il Google Mini alla rete telefonica e consentire all'assistenza di Google di effettuare le manutenzioni remote.

I webmaster e SEO interessati a scoprire le caratteristiche software rimarranno delusi: Jason Clark non si è spinto fino ad applicare tecniche di reverse engineering al fine di identificare quali algoritmi vengono usati dal software, ovviamente completamente diverso da quello usato dal motore di ricerca sul Web, ma pur sempre prodotto da Google.

Il motore di ricerca di Microsoft ha attivato nei propri risultati di ricerca il tracciamento dei click degli utenti.
8 settembre '05 08:19:52
Search Engine Journal segnala che MSN si è unito al club dei motori di ricerca che tracciano i click degli utenti sui link dei risultati di ricerca.

Il tracking del click è stato implementato attraverso un consueto redirect, ed è probabile che questa introduzione servirà a costruire statistiche sui comportamenti degli utenti, anche in vista del futuro servizio di pubblicità di MSN, MSN Keywords, che baserà la scelta delle inserzioni da mostrare proprio sul comportamento e le preferenze degli utenti, un po' come il Publisher Network di Yahoo!.

Peccato che MSN non abbia scelto una soluzione tecnica simile a quella di Google, che non sfrutta un redirect e rende di conseguenza la navigazione un minimo più fluida.

8 settembre '05 08:01:06
C'è chi sostiene che Google non è in grado di determinare se un link è stato acquistato o meno, c'è chi esamina il problema da un altro punto di vista e dice che l'acquisto dei link non dovrebbe essere uno dei fattori preso in considerazione da Google e c'è chi ritiene che Google abbia diritto di combattere qualunque fenomeno sul Web che possa ridurre la qualità dei risultati delle ricerche.

Questo parapiglia, attualmente giunto a quota 69 interventi, si è sviluppato a seguito di questo intervento di Matt Cutts, ingegnere di Google, sul proprio blog personale.

Cutts ha spiegato perché, dal punto di vista di Google, i link acquistati al principale solo scopo di influenzare i motori di ricerca costituiscono un elemento in grado di inficiare la qualità dei risultati di Google e di qualsiasi altro motore che fa uso di algoritmi che lavorano su un grafo del Web e che non ci sarebbe da stupirsi se i motori prendessero presto delle forti contromisure contro la vendita di link ai fini di posizionamento.

I commenti di questo intervento sono quasi tutti contrari a provvedimenti simili (chissà perché) e criticano Matt Cutts quando consiglia ai webmaster di fare uso dell'attributo rel="nofollow" nei link venduti.

L'opinione generale pare essere che Google non dovrebbe dire ai webmaster in che modo comportarsi solo in funzione del vantaggio che il motore di ricerca ne ricaverebbe e che la capacità di individuare quali link accettare e quali rifiutare dovrebbe essere di esclusiva competenza del motore di ricerca, senza che i webmaster lo aiutino specificando esplicitamente di non dare peso ad un link.

Una discussione molto animata, che in alcuni punti ha regalato anche alcuni spunti tecnici molto interessanti.

8 settembre '05 07:45:54
In questa discussione di Webmaster World, i SEO hanno battezzato "Gilligan" l'aggiornamento di backlink e dei dati della directory di Google.

Tuttavia, GoogleGuy è intervenuto per chiarire che non si tratta di un vero aggiornamento ma solo di una "rinfrescata" di alcune informazioni, come i backlink e i dati presenti nella directory. I risultati delle ricerche, pertanto, non sono cambiati se non in funzione del normale "everflux", l'effetto di continuo aggiornamento che è usuale nei risultati di Google.

In aggiunta a ciò, GoogleGuy conferma ciò che molti SEO hanno osservato nel corso degli scorsi mesi: un aggiornamento di alcuni dati non corrisponde necessariamente ad una variazioni delle posizioni e i nuovi dati che appaiono possono essere solo la fotografia di una situazione in realtà esistente da tempo.

In altre parole, gli effetti dei backlink mostrati durante questi aggiornamenti sono attivi da ben prima che le nuove informazioni vengano mostrate al pubblico.

GoogleGuy non fa riferimento al PageRank, ma anche questo fattore viene aggiornato ormai costantemente, e mostrato al pubblico solo ogni tanto.

Marco Varone, socio fondatore e responsabile dell'area sviluppo di Expert System, ci parla di analisi semantica e di COGITO Semantic Search, un motore di ricerca per concetti.
7 settembre '05 12:03:27
La prima volta che mi sono imbattuto nella tecnologia COGITO di Expert System è stato durante una normalissima ricerca su Libero.it, e ne sono rimasto immediatamente colpito.

Expert System produce infatti, tra le altre cose, soluzioni software che si basano sull'analisi semantica dei testi per migliorare i risultati di un motore di ricerca. Nell'intervista che segue, Marco Varone ci spiega come funziona.


Enrico Altavilla: Dottor Varone, la invito ad introdurre brevemente Expert System e il tipo di tecnologie che essa sviluppa.

Marco Varone: Expert System è una S.p.A. con sede a Modena (abbiamo recentemente inaugurato anche una nuova sede a Roma) che oggi conta una cinquantina di persone, la maggior parte delle quali impegnate nel settore tecnico. Siamo in attività fin dai primi anni '90, da sempre specializzati in tecnologie linguistiche per il trattamento automatico del linguaggio e di contenuti testuali (usate, ad esempio, da milioni di italiani tutti i giorni grazie al fatto che tutti i proofing tools di Microsoft sono realizzati da noi utilizzando proprio implementazioni specifiche della nostra tecnologia).

L'obiettivo di queste tecnologie è quello di rendere comprensibile e manipolabile il contenuto informativo (la conoscenza) presente all'interno di ogni tipo di testo scritto nel linguaggio di tutti i giorni, superando i limiti degli altri approcci esistenti che si limitano a lavorare sulla parte superficiale del testo e cioè sulle parole chiave che vi sono contenute.

Enrico Altavilla: Che cos'è la tecnologia COGITO e per soddisfare quali esigenze è nata?

La notizia continua. Leggi il seguito...

Feed RSS completo, contiene tutte le notizie (se non sai a che serve, leggi qua):
http://www.motoricerca.info/news/feed.rss

Feed RSS personalizzato. Seleziona le categorie di tuo interesse e apparirà un link al feed che contiene solo notizie di quelle categorie:
 

Discussioni Eventi Google Interviste
Motori di ricerca Motoricerca.info MSN Notizie brevi
Strumenti Tecnologia Yahoo!

< Torna alla pagina principale delle notizie

<< Torna alla pagina principale di Motoricerca.info