Search Marketing

Guida al posizionamento dei siti web nei motori di ricerca

Amico degli spider
Home
2 Apr '05
Guida
8 Nov '04
Articoli
27 Mar '05
News/Blog
La Newsletter
30 Apr '09
FAQ
12 Gen '03
Risorse
10 Ott '04

Newsblog (agosto 2005)

La pagina di submission di Yahoo! adesso accetta la segnalazione di file di testo contenenti un elenco di URL.
24 agosto '05 12:43:33
Si tratta di qualcosa di estremamente più semplice del protocollo Sitemap recentemente introdotto da Google, ma l'utilità è indubbia: anche Yahoo! adesso accetta la segnalazione di file di testo contenenti un elenco delle URL, che possono riguardare lo stesso sito web o siti diversi.

La nuova caratteristica, notata da SEO Scoop, permette di fornire a Yahoo! una mappa dei propri siti web attraverso lo stesso servizio adibito alla segnalazione delle singole URL.

Il file segnalato deve essere di semplice testo (ASCII) e deve elencare una URL per riga. Può anche essere compresso in un archivio zip/gzip, che Yahoo! provvederà a decomprimere.

Al solito, non vi sono assicurazioni che tutti gli URL indicati nel file vengano realmente visitati dagli spider ed indicizzati dal motore di ricerca, ma la novità risulterà comunque d'aiuto a coloro che utilizzano spesso il servizio di segnalazione di Yahoo!, risparmiando tempo prezioso.

Un paio di considerazioni su quello che Google vuole fare con i protocolli di instant messaging e su come la cosa influirà sui motori di ricerca, gli utenti ed il posizionamento.
24 agosto '05 10:50:53
Google ha appena rilasciato la prima versione di Google talk.

Oggettivamente, il software appare a dir poco essenziale (o striminzito, ad essere cattivi) rispetto ad uno qualunque dei client della concorrenza: MSN, Yahoo!, AOL, ecc.

Che senso ha dunque per una società diventata famosa per la propria capacità di innovare produrre e diffondere un'applicazione così semplice e poco competitiva? Perché Google stesso spinge gli utenti a non cambiare i client di chat che usano già, posto che supportino il protocollo Jabber, sul quale Google Talk si basa? E perché sta addirittura collaborando con i suoi stessi concorrenti, come Yahoo! e AOL?

La ragione è presto detta: l'obiettivo di Google e delle altre società che stanno collaborando assieme a lui è a medio/lungo termine e si presenta ambizioso: creare un ambiente ed uno standard aperto per la chat, così come il Web lo è per la navigazione delle pagine HTML.

La notizia continua. Leggi il seguito...

Google rilascia l'atteso client di chat, Google Talk, e pone le basi per un sistema di instant messaging unificato, aperto e condiviso.
24 agosto '05 08:02:25
Come annunciato l'altroieri da Google stesso ad alcuni giornalisti e preceduto dalla febbrile attesa di utenti e blogger, Google rilascia finalmente la prima versione (beta) di Google Talk, il client di chat testuale e vocale del motore di ricerca.

Va subito precisato che Google Talk è uno strumento volutamente molto semplice perché, come spiegato di seguito, Google non punta al software quanto al network.

L'interfaccia di Google Talk

Se i client di MSN, Yahoo! o AOL hanno riempito le proprie applicazioni con decine di caratteristiche e abbellimenti, quello di Google si differenzia proponendo un software essenziale, un servizio che a differenza delle altre produzioni della società non presenta caratteristiche tecniche innovative né particolarmente originali.

Per usare Google Talk è necessario un account GMail. Il servizio di posta GMail accetta nuovi utenti solo ad invito e quindi sarà necessario ottenere un invito da qualcuno che è già utente per aprire una casella postale. Solo allora sarà possibile usare Google Talk ed effettuare il login specificando il proprio indirizzo dell'account GMail.

La notizia continua. Leggi il seguito...

Google introduce un sistema per indicare ad AdSense quali parti del testo delle pagine web vanno usate per tematizzare gli annunci.
23 agosto '05 14:17:37
JenSense segnala una nuova caratteristica del sistema di pubblicità contestuale di Google, AdSense, che consente ai webmaster di enfatizzare alcune sezioni delle pagine web per dare modo ad AdSense di tematizzare meglio gli annunci.

Il nuovo sistema, chiamato Section Targeting è molto semplice da usare e consente due operazioni: indicare sezioni significative delle pagine ed indicare sezioni poco rilevanti.

Per enfatizzare alcuni contenuti, è sufficiente includerli tra due appositi tag/commenti di apertura e chiusura: <!-- google_ad_section_start --> e <!-- google_ad_section_end -->.

AdSense terrà conto di tale indicazione e attribuirà maggior peso ai testi compresi tra i due commenti per decidere quali annunci pubblicare sulla pagina.

Allo stesso modo, è possibile utilizzare un secondo apposito tag/commento di apertura, <!-- google_ad_section_start(weight=ignore) --> e lo stesso tag di chiusura indicato sopra, per chiedere ad AdSense di ignorare quei contenuti della pagina meno rilevanti col tema della stessa. E' una buona idea chiedere ad AdSense di ignorare, ad esempio, i menu di navigazione, le intestazioni, le diciture di copyright a fondo pagina, e qualsiasi altro elemento generico e poco focalizzato sul tema della pagina.

Si noti che Google utilizzerà le indicazioni del webmaster solo come dei consigli e non come degli ordini imperativi. I webmaster possono dunque enfatizzare o svalutare i contenuti di una pagina, ma la decisione finale su quali contenuti sfruttare per tematizzare gli annunci spetterà comunque e sempre al motore di ricerca.

Ask Jeeves ha aggiunto numerose nuove Smart Answer, le risposte veloci che a volte precedono i risultati delle ricerche sul Web.
23 agosto '05 12:59:24
Ask Jeeves ha annunciato di aver ampliato l'archivio delle proprie Smart Answer, le risposte che il motore fornisce direttamente agli utenti e che vengono pubblicate in cima ai risultati delle ricerche.

Tra le nuove risposte che Ask Jeeves può fornire, oltre alle piuttosto consuete informazioni su città e stati, si segnalano le risposte su mammiferi, videogiochi, elementi chimici, pianeti, codici ISBN dei libri, musicisti famosi e persino ricette di cucina.

Ogni Smart Answer mostra una foto correlata alla ricerca effettuata e, a seconda della tipologia della ricerca, pubblica informazioni e link di approfondimento sull'argomento cercato.

Quasi tutti i principali motori di ricerca offrono un servizio simile alle Smart Answer, a volte utilizzando un archivio di contenuti precompilato da personale umano, come fa MSN, a volte affidandosi agli spider e ad algoritmi per la catalogazione automatica delle informazioni, come fa Google. Ask Jeeves, tuttavia, è stato il primo ad implementare questa caratteristica, in quanto il motore stesso è stato progettato proprio per fornire risposte dirette, oltre ai normali risultati di ricerca sul Web.

Google ha rilasciato la seconda versione (beta) del proprio motore di ricerca per desktop, e si appresta ad annunciare un software per la chat.
22 agosto '05 11:01:39
Google Desktop Search raggiunge la seconda versione, seppure in beta, ed introduce diverse novità a cominciare da una barra per l'aggregazione di informazioni chiamata Sidebar.

Le novità introdotte appaiono corpose e modificano in parte le finalità stesse del software, che da semplice motore di ricerca per il PC si è trasformato in un aggregatore di informazioni: anteprime delle e-mail di GMail, notizie dal Web, feed RSS ed Atom, meteo, quotazioni di borsa e foto (residenti sul PC o trovare in rete nei feed).

Tutte queste informazioni vengono mostrate sulla Sidebar, una barra laterale che ospita anche una nuova funzionalità di ricerca: Quick Find, che mostra i risultati di una ricerca mentre ancora si stanno digitando i termini da cercare, in maniera simile a quanto fa l'opzione "complete" su Google.

Ecco alcuni screenshot della Sidebar e dell'opzione Quick Find di Google Desktop Search. L'applicazione richiede Windows XP o Windows 2000 con SP 3 o superiore.

Secondo questo articolo del News York Times, Google potrebbe rilasciare mercoledì prossimo anche un proprio software per la chat, per fare breccia in un settore che finora ha portato molti utenti ai concorrenti, come Yahoo! ed MSN.

Aggiunto: Ricordo un bel po' di tempo fa di alcuni spider di Google che bazzicavano i canali pubblici delle chat IRC per ottenere informazioni, in uno dei tanti test del motore volti a sperimentare nuove soluzioni. Sono certo che Google approfitterà prima o poi anche delle discussioni PUBBLICHE sul proprio software di chat (che si mormora sia basato sul protocollo Jabber) per introdurre interessanti novità nel settore della ricerca di informazioni. Non mancheranno i consueti allarmismi sulla privacy. In ogni caso, ne vedremo delle belle.

Al recente party Google Dance, qualche ingegnere di Google ha adottato interessanti tecniche psicologiche per ottenere informazione dagli spammer invitati alla festa.
22 agosto '05 10:18:14
Pare che invitare gli spammer alle feste organizzate dai motori di ricerca sia un buon metodo per acquisire informazioni interessanti. Specie se a queste feste viene offerto alcool in abbondanza.

Matt Cutts racconta la sua chiacchierata con Dave Naylor ed altri SEO dichiaratamente "black hat" (ovvero che usano tecniche di posizionamento discutibili), avvenuta in occasione della scorsa edizione della Google Dance, la festa organizzata da Google ogni anno a ridosso del Search Engine Strategies di San Josè (gli uffici di Google non sono distanti da San Josè).

Cutts riassume l'intero processo nella frase "loro bevono alcool, io sprite" e spiega che ogni volta che discute con degli spammer professionisti è inevitabile iniziare una sorta di gioco psicologico, volto a carpire informazioni riservate o semplici indizi.

Ovviamente gli spammer cercano di capire come funziona Google e gli ingegneri di Google come gli spammer riescono a fregare il motore.

Cutts sostiene che gli incontri con i SEO possono fornire a Google una quantità di informazioni considerevole e che gli ingegneri del motore di ricerca sono abbastanza furbi da non fornire informazioni troppo importanti su come funzionano gli algoritmi.

Circa il fenomeno Sandbox, ad esempio, Matt Cutts ha detto che la tecnica adottata da Google "non è una cosa facile da fare", rispondendo a Rand Fishkin quando ha chiesto se altri motori avrebbero potuto adottare una soluzione simile, qualunque cosa sia il Sandbox. E' una risposta che lascia intravedere tecniche complesse e forse basate su molte informazioni, ma che non regala agli spammer delle solide basi sulle quali poter lavorare per capire cosa è il Sandbox e come può essere evitato.

Ma la tecnica che ha funzionato meglio per l'ingegnere di Google è stata quella di assistere all'incontro tra alcuni "black hat" e gli stessi fondatori di Google, Brin e Page. La discussione avvenuta durante l'incontro, apparentemente accidentale, ha permesso a Cutts di imparare molte cose. Evidentemente per un qualunque SEO, e a maggior ragione per chi adotta giornalmente tecniche di spam, deve fare un certo effetto trovarsi di fronte alle persone che gli permettono, indirettamente, di guadagnare molto bene.

Una frase di Cutts è spiazzante: "[...] d'ora in poi, mi porterò dietro una sagoma di Sergey [Brin - Ndr] quando parlerò con i SEO. Ho bisogno solo di una cassetta con la sua voce registrata che dice 'Uh huh, dimmi di più su ciò che fai' e poi rimanere seduto a prendere appunti.".

Su questo insolito rapporto tra i motori di ricerca e i SEO, Wired pubblica un articolo, che riassume bene l'argomento.

Flash Earth porta tutta l'efficienza delle mappe di Google e di quelle di Virtual Earth su un'interfaccia Flash appariscente e funzionale.
21 agosto '05 15:12:30
Flash Earth utilizza tutta la potenza della tecnologia Flash per creare un'interfaccia semplice ma di estremo effetto alle mappe di Google o MSN.

Il software non si limita a ricopiare le caratteristiche di Google Maps o Virtual Earth ma ne aggiunge di proprie per migliorare ancora di più l'esperienza di navigazione.

Flash Earth mostra le mappe riempiendo l'intera finestra e dà tutto lo spazio possibile alla visuale evitando che i controlli per la navigazione interferiscano o coprano troppo i contenuti della mappa.

Il controllo posto in alto a sinistra della visuale permette di scegliere se utilizzare Google Maps o Virtual Earth, il secondo anche nella versione con i nomi di strade e località.

Gli altri due controlli presenti sono quello per decidere l'ingrandimento della mappa, posto a destra della finestra, e una bussola per spostarsi e ruotare la mappa a piacere, semplicemente cliccando sui bordi del controllo e muovendolo col mouse.

Ovviamente la mappa è esplorabile anche con il solo mouse, che può trascinarla in qualunque direzione e agire sul fattore di ingrandimento attraverso la rotellina. Il doppio click, come è ormai consuetudine, serve a centrare sulla mappa il punto cliccato.

Va evidenziata la cura con cui l'intero software è stato progettato, compresi i particolari come la trasparenza dei controlli, che consente di osservare la mappa sottostante senza coprirla in alcun modo.

L'esperienza che Flash Earth garantisce all'utente è indubbiamente superiore a quella degli strumenti online di Google ed MSN, quantomeno per quanto riguarda il risultato visivo e la comodità dell'interfaccia. Ovviamente non è possibile effettuare ricerche attraverso un campo per l'inserimento del testo, e questa rimane la differenza principale tra l'applicazione Flash, che è focalizzata sulla pura esplorazione del pianeta, e i servizi offerti dai motori di ricerca.

Il sorgente di Flash Earth [ZIP] è anche liberamente scaricabile.

ComScore Media Metrix ha rilasciato le statistiche sull'uso dei motori di ricerca in USA nel mese di luglio 2005, evidenziando la crescita di MSN.
21 agosto '05 13:58:44
Questo comunicato stampa di ComScore Media Metrix riassume le statistiche di utilizzo dei principali motori di ricerca durante il mese di luglio 2005 negli USA.

Si nota innanzitutto che le ricerche si spostano sempre più dai motori minori ad i grandi motori di ricerca: il 99,4% di tutte le ricerche è stato effettuato su Google, Yahoo!, MSN, Time Warner (AOL), Ask Jeeves ed InfoSpace, lasciando gli altri motori solo lo 0,6%, contro l'1,5% registrato un anno fa, nel luglio del 2004.

Google e Yahoo! sono ancora i due motori di ricerca più utilizzati, raccogliendo rispettivamente il 36,5% e 30,5% delle ricerche, tuttavia è MSN Search a mostrare la crescita maggiore rispetto alle cifre registrate nello stesso periodo dell'anno corso, aumentando del 30% le ricerche effettuate e aggiudicandosi un 15,5% delle ricerche effettuate negli USA.

E' difficile comprendere se la crescita di MSN Search possa essere considerata l'inizio di un cambiamento per il motore, per mesi snobbato dall'utenza ad esclusione di un picco di ricerche registrato dopo il lancio della nuova versione, avvenuto a febbraio. Bisognerà attendere le statistiche dei prossimi mesi per avere una visione più chiara e precisa delle prestazioni del motore targato Microsoft.

ComScore Media Metrix ha anche diffuso alcuni dati riguardanti l'utilizzo delle toolbar. Di tutte le ricerche effettuate da casa, quelle fatte con le toolbar ammontano all'11%, contro l'8% del luglio 2004. La toolbar più usata è quella di Yahoo!, che copre il 51% di tutte le ricerche effettuate con le toolbar.

Matt Cutts, ingegnere di Google, consiglia di non usare redirect automatici ingannevoli, per evitare future penalizzazioni. Propaganda o prossimo giro di vite?
20 agosto '05 17:10:45
Esiste una gigantesca differenza tra ciò che la tecnologia dei motori di ricerca è in grado di fare in teoria e quello che all'atto pratico è realmente possibile ottenere.

Questo concetto si applica anche all'individuazione dello spam e Matt Cutts, ingegnere di Google, ha pubblicato un post sul proprio blog in cui una specifica pagina web viene analizzata per evidenziare come il tipo di redirect automatico e ingannevole che essa contiene potrebbe nel prossimo futuro essere oggetto di una penalizzazione da parte di Google.

Tuttavia quel "potrebbe" ha un'importanza gigantesca perché delinea i confini tra ciò che Google è già in grado di fare, ciò che potrebbe essere in grado di fare nell'immediato futuro e ciò che riuscirà a fare solo tra molto tempo o anche mai.

Ovviamente Cutts non afferma affatto che Google si appresta a penalizzare i domini che usano quei redirect ingannevoli, ma lascia volutamente il lettore nel dubbio, probabilmente nel tentativo di spingere i più timorosi ad eliminare i redirect ingannevoli dai propri siti web.

Da un lato questo approccio pare indicare un semplice modo per fare propaganda e per "evangelizzare" i webmaster ed i SEO sulle corrette tecniche di posizionamento, dall'altro Cutts fornisce tre reali indicazioni dei possibili criteri utilizzabili da un motore di ricerca per individuare i redirect ingannevoli, ovvero:


  • Se create molte pagine, non mettete redirect Javascript su tutte.

  • Non offuscate il codice di un redirect Javascript, perché insospettireste chi lo legge circa i vostri intenti.

  • Se offuscate il codice, chiedetevi se una persona che non conosce Javascript può comunque intuire cosa il codice fa.

Queste indicazioni possiedono basi tecniche consistenti.

La terza, apparentemente non correlata all'individuazione di redirect ingannevoli, tratta in realtà uno dei criteri maggiormente sfruttabili dalle analisi di un motore di ricerca. Al motore basta infatti individuare in un codice Javascript offuscato dei piccoli pezzi che indicano la presenza di un URL, e la deduzione si fa più semplice: il webmaster ha volutamente offuscato un possibile redirect.

Anche la prima delle tre indicazioni è importante: Cutts fa notare come una grande quantità di pagine, tutte con un redirect, potrebbe far pensare ad una doorway farm.

Tali indicazioni non sono sufficienti a marcare una pagina come spam, ma possono sicuramente spingere un motore a marcarla come sospetta, lasciando poi ad altre analisi più approfondite il compito di comprendere con chiarezza la natura del documento.

Back Link Analyzer è un software gratuito per Windows che analizza i back link di un qualsiasi sito o pagina riportando numerose informazioni.
20 agosto '05 15:40:30
Aaron Wall ha presentato sul proprio blog un nuovo software chiamato Back Link Analyzer [ZIP], attualmente in versione beta (preliminare). Il programma è gratuito e solo per sistemi Windows.

Come il nome fa intuire, Back Link Analyzer è dedicato ad analizzare i back link di una pagina o di un intero sito web, ovvero quei link che la pagina o sito riceve da altri siti web. Il software non si limita a riportare i "numeri grezzi" ma compie un ottimo lavoro di analisi indicando, per ciascun link trovato, il testo dell'ancora, il titolo della pagina nella quale il link è stato pubblicato, il numero complessivo di link presenti nella pagina specificando quanti di essi puntano a siti esterni (outbound link), l'indirizzo IP del sito che offre il link e persino il tipo di link: reciproco o meno.

Va subito detto che, nonostante si tratti di una versione preliminare, Back Link Analyzer fa un lavoro eccellente, paragonabile a quello di altri software commerciali.

Il risultato di ogni analisi consiste in una tabella che riporta, per ogni backlink, tutte le informazioni indicate sopra e che possono essere salvate nel formato proprietario del software oppure esportate in formato Excel.

Non appena lanciato, il programma mostra la finestra che chiede quale pagina o sito deve analizzare. Oltre ad indicare l'URL del quale si vogliono analizzare i link, bisogna specificare quali motori di ricerca Back Link Analyzer deve interrogare per trovare i backlink. E' possibile scegliere tra Google, Yahoo!, MSN ed Alltheweb. Per analizzare i backlink riportati da Google è necessario possedere una chiave per Google API.

La stessa finestra di configurazione dell'analisi permette di decidere se far riportare quanti dei link individuati sono reciproci (voce "Check the link type" impostata su "ON"), se limitare il numero di pagine da analizzare (consigliato per limitare i tempi di analisi di quei siti che ricevono molti backlink) e che tipo di link richiedere a Yahoo!: quelli che puntano alla URL indicata dall'utente o quelli che puntano ad una qualunque pagina del sito a cui la URL indicata appartiene.

Un successivo click sul pulsante "Start" della finestra darà inizio all'analisi e le informazioni raccolte verranno tabellate entro pochi secondi nella finestra principale del software. Un'etichetta "Summary" fa accedere ad una sezione in cui vengono riassunte informazioni quali il numero dei link reciproci e non reciproci e il numero dei link provenienti da indirizzi IP di diversa Classe C.

Infine, un campo di ricerca posto in fondo alla finestra consente la ricerca di una qualunque keyword o keyphrase tra il testo dell'ancora dei link.

Back Link Analyzer, durante l'utilizzo, ha mostrato qualche piccolo difetto a livello di parsing del codice HTML e dei testi dei link. Ma tenuto conto della versione beta del software, i risultati ottenuti sono di indubbia qualità ed utilità per il posizionamento dei siti e l'installazione del software è consigliata a tutti i SEO.

Al fine di ottenere più liquidità, Google ha annunciato di voler vendere 14.159.265 delle proprie azioni di classe A.
19 agosto '05 06:25:47
Proprio un giorno prima dell'anniversario della sua IPO, Google ha annunciato di voler vendere 14.159.265 delle proprie azioni di classe A per incamerare più liquidi necessari alle operazioni che la società si appresta a fare.

Innanzitutto va notato come Google non abbia perso la voglia di giocare con i numeri: nell'IPO dell'anno scorso aveva utilizzato le cifre della costante di Nepero (e) per indicare quanto denaro si aspettava di raccogliere dalla quotazione in borsa e in questo anniversario (quasi un anno esatto dal giorno dell'IPO) utilizza le prime cifre del pi greco dopo la virgola per decidere quante azioni intende vendere sul mercato: il pi greco vale 3,14159265 e le azioni saranno appunto 14.159.265.

Riferimenti matematici a parte, questa vendita consegnerà a Google un regalo di compleanno cha vale circa quattro miliardi di dollari in liquidità. Il rompicapo che sta arrovellando la mente di diversi analisti consiste proprio nel cercare di capire come Google intenderà sfruttare tutti questi soldi, anche tenuto conto del fatto che possiede già una consistente liquidità, che ammonta a quasi tre miliardi di dollari.

In molti pensano che Google necessiti di una grossa cifra per acquistare una grossa azienda, ma la società ha indirettamente smentito questa possibilità, sostenendo che il denaro servirà per necessità interne di vario tipo e solo in parte per l'acquisto di aziende. Certi bisogni di Google, come quello dell'acquisto di infrastrutture e dell'assunzione di nuovi dipendenti, sembrano in effetti richiedere continue spese, necessarie per ampliarsi e per tenere il passo con i concorrenti.

Una prima analisi parrebbe confermare queste affermazioni di Google, in quanto gli acquisti di società possono essere fatti anche pagando direttamente in azioni e non necessariamente in denaro liquido. Pertanto l'assegnazione della somma ottenuta al finanziamento di molteplici settori e progetti della società parrebbe a prima vista coerente con l'operazione di vendita delle azioni.

Trovando è uno strumento personalizzabile che consente di effettuare ricerche su più motori senza dover riscrivere ogni volta i termini da cercare.
19 agosto '05 03:47:47
L'idea di Trovando è semplice ma estremamente funzionale: scrivere i termini di ricerca una sola volta, per poi usarli in ricerche multiple, su motori differenti.

Lo strumento, che richiede l'attivazione dei cookie per un funzionamento ottimale, si presenta con un'interfaccia semplice: i termini da cercare vanno inseriti nel classico campo per l'immissione del testo e le ricerche vengono eseguite semplicemente cliccando sul nome dei motori elencati sotto.

Visto che la quantità di motori utilizzabili è molto alta, Trovando ha separato i vari motori di ricerca tra diverse etichette, che appaiono in cima alla sezione adibita alla ricerca. Oltre alle usuali ricerche sul Web, ottenute usando Google, Yahoo!, MSN e gli altri principali motori e meta-motori di ricerca generalisti, altri motori più specifici possono essere raggiunti selezionando le etichette "Images", "Blogs" o "Torrent", che danno accesso a motori "verticali", ovvero specializzati.

I webmaster ed i SEO apprezzeranno un'etichetta particolare, chiamata semplicemente "URL", che permette di passare a diversi strumenti online l'URL inserito dall'utente. Si va dai validatori HTML, CSS e WAI agli strumenti per il calcolo dei backlink di un sito e per mostrare il valore di PageRank di una pagina. L'unico neo di questa sezione è un link ad uno strumento per il calcolo della keyword density che, come detto, non c'entra un fico secco con i motori di ricerca e rappresenta un fattore a dir poco fuorviante per i SEO. Ma sono consapevole del fatto che molti webmaster richiedono ancora strumenti simili, in quanto i miti sono duri a morire.

Ogni volta che l'utente clicca sul nome di un motore, si apre una pagina con frame che mostra in basso il risultato della ricerca ed in alto una barra di navigazione Trovando, per accedere agli altri motori senza dover tornare necessariamente alla home page. Tale barra può essere contratta o anche eliminata del tutto, a discrezione dell'utente.

Trovando non impone l'utilizzo dei motori di ricerca elencati nelle sezioni principali ma può essere personalizzato dall'utente semplicemente accedendo all'etichetta "Custom" e creando una propria lista di motori preferiti scegliendoli da un elenco di oltre 3500 motori di ricerca, provenienti dalla collezione Mycroft.

I motori aggiunti alla propria lista vengono mostrati nella sezione "Custom" e le ricerche avvengono come per qualunque altro motore: cliccandovi sopra. La lista personalizzata può essere salvata selezionando la voce "Save preferences" della sezione "Custom", che fa uso di un bookmarklet e che non chiede all'utente alcuna registrazione.

Trovando offre anche un plugin per Firefox, che aggiunge lo strumento ai motori di ricerca predisposti nel browser, ed una toolbar per Internet Explorer e Firefox. Per conoscere meglio lo strumento è possibile anche visualizzare alcune animazioni di aiuto.

Nonostante le pagine di Trovando non contengano grandi quantità di testo, alcuni utenti italiani potrebbero forse sentire la mancanza di una localizzazione in lingua italiana, che non è escluso che venga aggiunta tenendo conto del fatto che lo strumento è stato realizzato dall'italianissimo Francesco Passantino.

In sintesi, uno strumento con molta (e ottima) carne al fuoco, che vale la pena di provare.

Google ha acquistato Android, una società che sviluppa tecnologie software compatibili con alcuni dei settori tecnologici verso i quali il motore di ricerca potrebbe espandersi.
19 agosto '05 03:46:54
BusinessWeek pubblica un articolo che rivela la recente acquisizione dell'azienda Android da parte di Google.

Lo stesso articolo afferma che è difficile comprendere le ragioni di questa acquisizione, sia perché Google ha compiuto questa mossa senza divulgarne la notizia sia perché non si conoscono bene i software e le tecnologie sviluppate dalla società acquistata.

Una delle poche certezze che si hanno su Android è che parte del software realizzato riguarda i dispositivi mobili e la capacità di detti dispositivi di sapere in che luogo si trova il loro utilizzatore.

Questa caratteristica sembra essere uno dei tasselli del mosaico recentemente disegnato da Om Malik sui possibili interessi di Google a creare un proprio network ad accesso wireless, finanziato attraverso pubblicità contestuali al luogo in cui il dispositivo mobile dell'utente si trova. Anche i progetti realizzati da Andy Rubin, fondatore di Android, fanno immaginare scenari fortemente legati alla localizzazione e georeferenziazione delle informazioni.

Maggiori informazioni in questa precedente notizia del newsblog.

Yahoo! aggiorna il servizio di ricerche localizzate Yahoo! Local introducendo diverse novità.
19 agosto '05 03:46:14
Yahoo! informa gli utenti di aver introdotto diverse novità in Yahoo! Local, il proprio servizio per le ricerche localizzate.

Le modifiche apportate hanno per obiettivo la facilitazione delle ricerche per vicinanza e della navigazione dei contenuti prodotti dalla comunità di utenti di Yahoo!.

Yahoo! Local propone principalmente due pagine diverse: quella restituita cercando solo una località e quella restituita cercando anche una parola chiave.

Cercando solo una località si accede infatti ad una pagina che riassume le principali informazioni del luogo: gli eventi e gli appuntamenti che sono previsti, i ristoranti e locali preferiti dalla comunità di Yahoo!, i link alle località limitrofe e l'immancabile mappa con i segnalini che identificano tutte le risorse elencate sulla pagina. Viene inoltre pubblicata una directory tematica che contiene riferimenti alle aziende del luogo.

Aggiungendo alla ricerca anche una parola chiave, Yahoo! Local propone all'utente una più classica pagina con i risultati della ricerca. Nella colonna posta a sinistra della pagina si accede ad un controllo per specificare la grandezza della zona entro la quale si intende effettuare la ricerca, indicando un raggio (in miglia) dal centro della località indicata dall'utente.

Sempre nella stessa colonna, oltre ai link che puntano alle località limitrofe e alle categorie correlate alle keyword cercate, si evidenzia una piccola mappa che si ingrandisce automaticamente passandovi sopra il puntatore del mouse, coprendo parte del resto della pagina. Questa caratteristica, a parte l'effetto scenografico, si rivela comoda per accedere ad una mappa più grande senza togliere spazio ai risultati della ricerca.

I risultati della ricerca possono essere ordinati per rilevanza, distanza dal centro della località o voto degli utenti. Ognuno di essi è composto, oltre che dal link al sito web della risorsa e dalla classica descrizione, anche dal suo indirizzo e numero di telefono e da tre link per individuare la risorsa sulla mappa di Yahoo! Maps, per calcolare il tragitto per raggiungerla e per spedire un SMS contenente le informazioni della risorsa ad un cellulare.

Yahoo! Local è pieno di tante piccole novità e comodità, come i link alle ricerche più frequenti e una storia delle pagine recentemente visualizzate e delle ultime ricerche effettuate.

Google rilascia una toolbar per Word che consente di pubblicare su Blogger i documenti scritti col word processor di Microsoft.
19 agosto '05 03:45:37
Google annuncia la disponibilità di una toolbar per Word dedicata agli utenti Blogger.

Dopo l'installazione, la toolbar mostrerà alcuni nuovi pulsanti tra i controlli di Word, attraverso i quali sarà possibile pubblicare su Blogger il documento attualmente visualizzato dal word processor, conservarlo come bozza ed editare in Word gli ultimi interventi già pubblicati sul proprio blog.

La toolbar richiede ovviamente che l'utente abbia già attivato un proprio blog su Blogger e funziona su Windows XP o 2000 e Word 2000 o superiore. Questa pagina di Blogger fornisce informazioni aggiuntive sul nuovo strumento.

La creazione di questa toolbar non va vista esclusivamente come uno strumento in più offerto agli utenti di Blogger ma anche un ottimo modo per Google di facilitare la pubblicazione sul Web e la conseguente indicizzazione dei documenti creati in formato Word da parte del motore di ricerca.

Un intervento su Engadget su come il servizio GMail potrebbe essere migliorato produce centinaia di commenti e migliaia di idee e consigli a Google.
19 agosto '05 03:45:04
Questo post su Engadget chiede agli utenti cosa vorrebbero veder cambiato o aggiunto al sevizio di posta di Google, GMail.

I contributi non si sono fatti attendere e centinaia di commenti hanno fornito una mole consistente di consigli su nuove funzionalità da introdurre al servizio di posta e variazioni alle caratteristiche già esistenti. Una vera manna per gli ingegneri di Google che si dedicano a migliorare GMail.

Una delle richieste più diffuse è quella dell'aggiunta di un tasto di cancellazione dei messaggi. Per anni Google ha disincentivato la cancellazione dei messaggi, per ragioni che derivano sia dall'opportunità di incamerare più testi possibili sia dalla peculiarità del file system di Google, nel quale la cancellazione definitiva di un file non è facilmente garantibile a causa della ridondanza di dati su cui il sistema stesso si basa.

E' per questa ragione che il pulsante per la cancellazione dei messaggi è attualmente presente solo nella sezione "Cestino" di GMail, dopo essere stato visualizzato per diversi mesi anche nelle sezioni principali. Gli utenti sembrano avvertirne la mancanza.

Un'altra caratteristica molto richiesta è quella di poter accludere ai messaggi documenti in formato eseguibile ed archivi compressi, attualmente rifiutati dal servizio di posta.

C'è anche chi la prende a scherzo e, forse a sottolineare le caratteristiche più esotiche richieste da altri, si spinge oltre fino a chiedere l'integrazione di Half Life 2 nell'interfaccia e permettere la scrittura delle e-mail in linguaggio Fortran.

(discussione segnalata da Weppos)

Tutti i motori di ricerca elencano nei propri risultati dei link a risultati di ricerca di altri motori. Una veloce ricerca mostra la grandezza di questo fenomeno.
19 agosto '05 03:44:21
In teoria e salvo eccezioni, un motore di ricerca non dovrebbe mostrare tra i propri risultati dei link alle pagine di ricerca degli altri motori. Questa discussione sul forum di Search Engine Watch evidenzia che MSN mostra link ai risultati di ricerca di Ask Jeeves e addirittura ai propri stessi risultati, una pratica che non è certo indice di alta qualità.

Prendendo spunto dalla discussione, Dustin Woodard ha effettuato una piccola ricerca sui motori principali, scoprendo quante pagine con risultati di ricerca sono state incluse negli archivi di ciascun motore.

I risultati della ricerca, chiamata a ragione "Search Engine Orgy", sono estremamente interessanti e premiano AOL come il motore che ha ripulito meglio il proprio indice dai risultati di ricerca di altri motori ed MSN come il motore che più di ogni altro indicizza i propri stessi risultati, con oltre 73 milioni di URL archiviate.

Va specificato che nella maggior parte dei casi i motori indicizzano solo le URL, non le effettive pagine di ricerca a cui le URL fanno riferimento.

Yahoo! introduce il programma Marketing Alliances per assistere i SEO e le agenzie che vogliono promuovere e gestire il servizio Yahoo! Sponsored Search.
19 agosto '05 03:43:42
Yahoo! ha annunciato l'introduzione di un nuovo programma per l'assistenza ai SEO e alle agenzie, chiamato Yahoo! Search Marketing Alliances.

Marketing Alliances offre alle agenzie e singoli professionisti due strumenti per promuovere i servizi di Yahoo! Sponsored Search: Ambassador Program, per i professionisti che intendono gestire personalmente gli account Yahoo! dei propri clienti e Certified Affiliate Program, per quei professionisti che preferiscono limitarsi a promuovere i servizi Sponsored Search tra i propri clienti, spiegando loro come funzionano e consigliandoli su come sfruttarli al meglio.

Ogni programma richiede che il richiedente dimostri la propria eleggibilità attraverso un apposito test. Chi supererà il test acquisirà una certificazione ufficiale di Yahoo! che attesta la capacità del professionista di promuovere (Certified Affiliate) o gestire (Ambassador) i servizi Sponsored Search.

I professionisti approvati riceveranno alcuni strumenti per gestire al meglio la propria clientela e una commissione per ogni conto Sponsored Search attivato.

E' estate, dovreste avere più tempo a disposizione, ed io vi invito a dare un'occhiata al ToyBox. Ditemi se vi piace e se lo trovate utile.
16 agosto '05 09:22:19
Quando ero piccolo mettevo tutti i miei giocattoli in una grande scatola di legno. Io la ricordo gigantesca, ma osservandola adesso mi sembra molto meno capiente.

Qualche giorno fa ho creato una nuova scatola dei giocattoli, dedicata esclusivamente a questo newsblog e ai suoi lettori e, in un impeto di originalità, l'ho chiamata ToyBox.

Dentro ci sono un mucchio di cose strane, vi invito a dargli un'occhiata e a farmi sapere cosa ne pensate. Spero che troviate qualcosa di interessante.

MSN Mobile ed MSN Search hanno collaborato per fornire la ricerca locale di MSN a dispositivi mobili come cellulari e palmari.
16 agosto '05 08:51:23
Il team di MSN Search annuncia di aver lavorato assieme a quello di MSN Mobile per realizzare il motore di ricerca locale dedicato ai dispositivi mobili.

Attualmente in grado di effettuare solo ricerche sul suolo USA e disponibile per dispositivi con Windows Mobile o con WAP 2.0, il nuovo motore di ricerca permette di individuare pubblici esercizi, musei, scuole, semplicemente inserendo la parola da cercare e una locazione, sotto forma di codice ZIP, città/Stato o un indirizzo completo.

I risultati di ricerca, cliccati, conducono ad una pagina che mostra il luogo individuato su una mappa e, selezionando la voce "Get directions", anche delle indicazioni testuali ed una cartina per arrivare in quel luogo a partire dalla locazione specificata nella ricerca.

Nei mesi successivi, è prevista l'aggiunta di nuove funzionalità come gli SMS.

Business 2.0 afferma che Google sta acquistando miglia di fibre ottiche negli USA con la volontà di creare un network tutto speciale: via Wi-Fi e gratuito.
16 agosto '05 08:13:14
Om Malik su Business 2.0 pubblica un articolo che elenca dei fatti ormai assodati circa alcune operazioni che Google sta svolgendo dall'anno scorso e tira le somme producendo il seguente possibile risultato: una rete Internet ad accesso gratuito per tutti, via Wi-Fi.

Malik l'ha chiamata GoogleNet, e per quanto al momento non ci sia nulla di ufficiale, l'articolo pubblicato su Business 2.0 basa le proprie argomentazioni su dei fatti reali e già assodati.

Innanzitutto, dall'anno scorso Google sta acquistando miglia e miglia di cavi di fibre ottiche inutilizzati sul suolo americano, da grossisti come AboveNet.

In secondo luogo, sta comprando anche connessioni Internet superveloci tra le città della costa est degli USA, come Atlanta, Miami, e New York.

Terzo, lo scorso aprile Google ha attivato e sponsorizzato un hotspot a San Francisco (Union Square, quartiere conosciuto per lo shopping), creato da un'azienda locale chiamata Feeva, che realizza soluzioni software per offrire connessioni Internet Wi-Fi gratuite ad aziende o comuni.

Quarto, Feeva ha pronti altri hotspot da piazzare negli stati della California, Florida, New York, e Washington, e Google sta continuando a lavorare con la società, sebbene non si conosca la natura della collaborazione.

Quinto, la tecnologia basata sul Wi-Fi permette di localizzare con la precisione un dispositivo e inviare pubblicità correlata al luogo in cui il dispositivo si trova.

Da tutte le operazioni che Google sta compiendo e dal potenziale delle tecnologie impiegate, Om Malik deduce che Google potrebbe voler creare un proprio network per Internet, sfruttando le connessioni ed i cablaggi per collegarsi alla Rete e gli hotspot per collegare gli utenti al network di Google, quello che Malik chiama GoogleNet.

In questo modo Google sarebbe proprietario sia dell'infrastruttura collegata ad Internet sia gestore dell'"ultimo miglio", diventando a tutti gli effetti il provider degli utenti che si collegheranno agli hotspot.

Ma l'aspetto più interessante di questo progetto, tanto ipotetico quanto plausibile, consiste forse nel suo lato economico. Escludendo gli investimenti iniziali, che andrebbero ammortizzati nel tempo, un simile network permetterebbe a Google di risparmiare denaro, visto che la nuova struttura eliminerebbe la necessità di ricorrere alle aziende che attualmente "passano il traffico" a Google, ovviamente a pagamento.

Ed i guadagni? I guadagni arriverebbero dalle consuete pubblicità di Google, non più basate dai siti web visitati o dalle ricerche effettuate ma anche dal luogo in cui il dispositivo wireless utilizzato dall'utente si trova.

Decisamente un articolo interessante le cui affermazioni appaiono più consistenti rispetto alle tante voci di corridoio che girano in questi giorni su altri aspetti dei motori di ricerca.

News Corp, proprietà del magnate Murdoch, sarebbe intenzionata ad acquistare un motore di ricerca, forse Blinkx.
16 agosto '05 07:17:22
Murdoch ha più di una volta ammesso di aver sottovalutato l'importanza di un'espansione del proprio impero economico su Internet e negli ultimi mesi la sua società, News Corp, si è mossa per acquisire alcune aziende operanti sul Web.

Non stupisce allora la notizia, riportata anche da The Indipendent, che Murdoch desideri acquistare anche un motore di ricerca specializzato nella ricerca dei video.

Non vi sono ancora certezze su quale società verrà acquistata dalla News Corp, ma secondo alcune voci il motore di ricerca Blinkx potrebbe essere un ottimo candidato e le due società sarebbero già discutendo i primi particolari.

Sebbene Blinkx sia solo un piccolo motore di ricerca, non solo comparato ai quattro grandi (Google, Yahoo!, MSN ed Ask Jeeves) ma anche con motori secondati quali Gigablast, si è specializzato nella ricerca video ed audio (compresi i feed podcast) ed è uno dei pochi motori che possiede una tecnologia di conversione dei campioni audio in testi, per poterli indicizzare e renderli cercabili.

Un articolo di TheStreet.com riporta alcune voci che vedrebbero Apple e Google già accordate per offrire iTunes sul sito del motore di ricerca.
16 agosto '05 06:25:38
Un accordo tra Google ed Apple per la ricerca/vendita della musica di iTunes sul sito del motore di ricerca di Mountain View sarebbe già stato stipulato, secondo le voci che girano in questo momento e che questo articolo di TheStreet.com riporta.

Le due società interessate non hanno voluto commentare l'indiscrezione e al momento non si conosce alcun particolare sull'accordo. In special modo, non si sa in che maniera Google intenderebbe integrare iTunes sul proprio sito, anche se è plausibile ritenere che il motore di ricerca non vorrà limitarsi ad operare come un semplice rivenditore di musica.

Un accordo simile tra le due società, e posto che Google infonda nel progetto le proprie conoscenze tecnologiche, colmerebbe in parte una delle più grandi mancanze del motore di ricerca: quella di un motore di ricerca audio. A differenza di concorrenti come Yahoo!, Google pare finora non essersi nemmeno avvicinato alla realizzazione di una tecnologia per l'indicizzazione di documenti sonori.

La possibile partnership con Apple permetterebbe a Google di rimediare parzialmente all'assenza di una tecnologia proprietaria per il crawling e l'indicizzazione di contenuti audio. Proprio questa predisposizione a ricorrere ad accordi o acquisizioni di società esterne, rende Google uno dei migliori candidati per l'ipotetico acquisto di Technorati, come si vocifera in queste ore.

B.L. Ochman diffonde una indiscrezione circa Technorati: è in vendita e l'acquirente è un grosso motore di ricerca.
16 agosto '05 05:54:09
Sul proprio blog, WhatsNextOnline.com, B.L. Ochman pubblica una brevissima notizia, tanto stringata quanto dirompente nell'effetto: una grande società starebbe per acquistare il motore di ricerca per blog Technorati.

C'è di più: la grande società sarebbe un "big della ricerca", e questa affermazione ha subito prodotto una ridda di congetture ed ipotesi su chi potrebbe essere l'acquirente.

Si fanno i nomi di Google (che forse avrebbe bisogno più di altri di tecnologia per il crawling e l'indicizzazione dei feed), MSN, Yahoo!, ma anche quello di IAC (Ask Jeeves), sebbene quest'ultima possieda già Bloglines e, come mi ha fatto notare Weppos, finora non pare l'abbiano sfruttato più di tanto.

Nel frattempo il Community Manager di Technorati, Niall Kennedy, non ha voluto commentare l'indiscrezione, ma stando a B.L. Ochman l'acquisto dovrebbe avvenire entro pochi giorni e pertanto non ci sarà molto da attendere per scoprire se la notizia è una bufala o meno.

In una conferenza del SES 2005 di San Josè sono stati elencati gli elementi da controllare per individuare eventuali problemi di un sito web con i motori.
16 agosto '05 05:28:52
Continuano i riassunti delle conferenze più interessanti del Search Engine Strategies 2005, conclusosi la scorsa settimana. Resoconto originale di Search Engine Roundtable.

Quante volte ci si è chiesti "Che cosa c'è che non va nel mio sito?" di fronte alla difficoltà di ottenere buone posizioni sui motori di ricerca? Al SES 2005 un seminario è stato dedicato proprio a questo argomento: quali elementi controllare per tastare il polso ad un sito web.

Il primo a prendere la parola è stato Rand Fishkin di SEOMoz. Ha spiegato che la manipolazione della link popularity viene individuata dai motori attraverso la ricerca di "isole di spam". Schemi per la costruzione di link come Link Vault, DigitalPoint, TrafficPower/1P e schemi realizzati privatamente sono lì fuori e non è il caso di utilizzarli a meno che il webmaster non sia preparato ai rischi.

Fishkin introduce anche il concetto di sovra-ottimizzazione [un termine generalmente usato a sproposito, compreso in questo caso - Ndr] applicata ai backlink, al testo dell'ancora dei link, alla velocità con cui i link vengono ottenuti (alte velocità denoterebbero fenomeni poco naturali) e alla provenienza dei link (dallo stesso sito, dalla stessa comunità di siti o da pagine non correlate).

I motori di ricerca utilizzano la formula di Term Weight (TF*IDF) per determinare l'argomento principale di una pagina e la classificazione dei contenuti in base ai temi trattati avviene analizzando i testi del documento e appoggiandosi ad ontologie costruite in precedenza. A volte vengono utilizzati alcuni algoritmi per determinare la qualità di un testo calcolandone il grado di leggibilità, la qualità grammaticale o sintattica. Qui Rand Fishkin va molto sul teorico: è vero che questi algoritmi esistono ma è altrettanto vero che nessuno ha mai dimostrato che vengano realmente sfruttati dai motori di ricerca per assegnare un bonus ai testi scritti meglio.

Altri fattori che i motori di ricerca possono prendere in considerazione sono il CTR sulle pagine dei risultati di ricerca, il tempo trascorso dagli utenti a navigare un sito, dati raccolti dalle toolbar (tutti i motori di ricerca più importanti ne offrono una) e l'analisi di file di log del server o di pagine di statistiche.

A proposito di quest'ultima affermazione di Fishkin, c'è da chiedersi se la posizione di un sito migliorerebbe facendo trovare agli spider dei motori di ricerca un link ad una pagina di statistiche (Webalizer, Analog, o qualunque altro software molto popolare) contenente dati appositamente pompati.

Rand Fishkin conclude spiegando che il modo migliora per ottimizzare un sito basandosi sui dati appena esposti è quello di dare ai motori di ricerca quello che i motori di ricerca vogliono premiare: testi scritti di proprio pungo e un forte senso critico quando si decide chi linkare.

L'intervento successivo è di Anne Kennedy di Beyond Ink. Consiglia di utilizzare il comando site: dei motori di ricerca per dare un'occhiata ai titoli e alle descrizioni delle proprie pagine: l'indicazione della sola URL potrebbe significare un problema degli spider a prelevare la pagina. Si tratta anche di un buon modo per individuare i link rotti, che puntano a pagine non più esistenti: è bene usare un redirect lato server (301) nel caso in cui si trattasse di pagine che hanno cambiato URL.

Secondo Anne Kennedy, gli elementi che indicano un sito in buona salute sono (nei risultati di ricerca) un buon titolo, una buona descrizione, la presenza della cache della pagina, un buon numero di pagine indicizzate e la presenza di backlink. Al contrario, gli elementi che indicano una possibile penalizzazione per spam sono la scomparsa dei backlink, un improvviso e consistente crollo nelle posizioni, l'apparizione dei "risultati supplementari" su Google, una diminuzione del numero di pagine indicizzate e l'indicazione "nessuna informazione" sul dominio del sito web. L'intervento si conclude con i soliti consigli sulle cose da evitare: link su pagine FFA (free for all), pagine doorway, domini multipli con link diversi che puntano a ciascuno di essi [qui non è molto chiaro cosa la Kennedy intendesse - Ndr], siti duplicati e testo nascosto.

L'ultimo intervento è quello di Jake Baille di TrueLocal. Chiarisce subito che i ban manuali sono molto pochi e che se un sito web scende di X posizioni, questo non significa che è stato bandito dal motore di ricerca. Un cambiamento di posizione (anche in negativo) può avvenire per molteplici ragioni, sia interne al sito che esterne: una variazione nel link (interni o esterni), un cambiamento degli algoritmi del motore di ricerca, cambiamenti nelle pagine del sito, e così via.

Baille spiega il problema dell'hijacking delle pagine su Google, del quale hanno sofferto in passato molti siti web e che ultimamente pare sia stato in parte risolto. Non vengono fornite informazioni aggiuntive rispetto a quelle già conosciute da tempo e riportate in passato da questo newsblog qui e, ancora prima, qui.

L'intervento continua discutendo il filtro anti-duplicazione dei motori di ricerca, che ha come obiettivo quello di evitare di presentare agli utenti dei risultati di ricerca contenenti documenti troppo simili tra loro. Baille dice che questo tipo di filtri viene utilizzato da tutti i principali motori di ricerca e che quello di Google è il più sofisticato, sebbene anche quello di Yahoo! è ottimo [io dissento - Ndr].

Per capire se un sito è stato colpito dal filtro anti duplicazione è sufficiente usare il comando site: e controllare se per caso, al termine di tutte le pagine presentate dal motore, non appaia un esplicito messaggio che indica che alcune pagine "troppo simili" a quelle già elencate non sono state incluse nei risultati.

La soluzione al filtro anti duplicazione è, come era facile aspettarsi, semplicemente quella di diversificare i contenuti e creare testi diversi. Baille consiglia anche di provare un redirect (301) dalle pagine duplicate ad una pagina principale. Infine, viene spiegato il fenomeno della Slow Death (morte lenta), che avviene quando Google individua schemi di link "irregolari", come un sito da un milione di pagine che riceve solo pochi link. Il sintomo è che le pagine del sito vengono indicate nei risultati di ricerca con il solo URL. La soluzione è quella di ottenere più link e, se il sito contiene contenuti già presenti in altri siti web, modificare i testi.

Google Print ha introdotto alcune novità nel programma per la scansione dei libri, per venire incontro alle esigenze degli editori.
12 agosto '05 11:34:27
Google Print, l'ambizioso progetto di Google che ha per obiettivo la scansione di tutti i libri finora prodotti e la ricerca dei loro testi attraverso Google, ha incontrati sin dall'inizio i timori di diversi editori.

Tali timori sono nati perché gli editori temevano che la ricerca dei testi online potesse far diminuire gli introiti sulla vendita dei libri e diverse organizzazioni di editori hanno espresso tali remore a Google chiedendo assicurazioni e provvedimenti in tal senso.

In particolare, visto che Google ha stretto accordi con delle grandi biblioteche per la scansione di tutti i loro volumi, compresi quelli protetti da diritto d'autore, nasceva il problema di far ottenere un guadagno agli editori anche su questi libri.

Google ha discusso queste problematiche con le organizzazioni delle case editrici ed ha appena annunciato un paio di soluzioni che potrebbero fugare alcuni dei dubbi espressi dalle case editrici.

La prima novità introdotta da Google Print fornisce una possibile soluzione: gli editori possono adesso fornire a Google una lista di libri dei quali si detengono i diritti di pubblicazione e ogni volta che uno dei testi indicati verrà individuato attraverso una ricerca su Google, l'utente potrà raggiungere il sito dell'editore del libro per acquistarne eventualmente una copia. Google interromperà la scansione di pubblicazioni coperte da copyright fino al novembre 2005 per dare tempo alle case editrici di prendere visione di queste nuove opzioni e spedire (se lo vorranno) a Google le liste dei libri posseduti.

La seconda novità consiste nel rendere possibile all'editore l'accesso alle statistiche sui click e le ricerche ricevuti dai propri libri su Google Print, in modo da aiutare le case editrici a decidere quali libri è più conveniente ristampare in funzione dell'interesse manifestato dagli utenti.

Gli editori potranno inoltre guadagnare attraverso le pubblicità contestuali mostrare da Google a fianco dei libri.

I due più grandi contendenti nel settore delle ricerche annunciano nuove mosse per aumentare la propria presenza nel mercato cinese.
12 agosto '05 09:24:16
Reuters produce un articolo su un accordo tra Yahoo! ed il sito Alibaba.com, che possiede in Cina una consistente fetta del settore delle aste online e vendite B2B, seconda solo ad EBay.

L'accordo prevede una collaborazione tra Yahoo! Cina ed Alibaba, includendo la fusione dei servizi di Yahoo!, come e-mail e chat, con il sito del nuovo partner commerciale. In questo modo, Yahoo! riuscirà a diffondere maggiormente il proprio marchio attraverso una risorsa già conosciuta in Cina mentre Alibaba potrà sfruttare la tecnologia di ricerca di Yahoo!.

Yahoo! ha inoltre acquisito il 40% delle azioni di Alibaba pagandole un miliardo di dollari.

Anche Google si è dato ultimamente da fare per rendere più stabile la propria presenza sul mercato cinese introducento un programma per la rivendita di pubblicità volto a creare rivenditori AdWords autorizzati in Cina, come già avviene in altre nazioni.

Bisogna vedere se questa nuova mossa di Google riuscirà ad attrarre molti rivenditori, visto che diversi operatori del settore cinesi si sono lamentati delle percentuali di guadagno molto basse (per il mercato cinese) offerte dalla società di Mountain View.

Matt Cutts, l'ingegnere di Google che molti ritengono essere GoogleGuy, il personaggio che per anni ha dato consigli ai SEO sui forum, ha aperto un blog.
12 agosto '05 07:48:26
Non sono pochi i dipendenti di Google che usano un blog e generalmente i contenuti dei loro interventi si mantengono piuttosto distanti dagli argomenti relativi a Google, sopratutto in conseguenza di una policy piuttosto restrittiva imposta da Google ai propri dipendenti.

Ma il blog di Matt Cutts, ingegnere di Google, è diverso. Matt Cutts è ritenuto da molti la persona dietro "GoogleGuy", il dipendente di Google che da anni frequenta i forum SEO dando consigli e rispondendo alle domande (alcune) dei webmaster.

Per quanto anche Matt sottostà alla policy imposta da Google e non può divulgare informazioni specifiche sul funzionamento del motore di ricerca, gli interventi sul suo blog trattano prevalentemente (finora) l'argomento dei motori di ricerca o di quelle buone pratiche di webmastering che possono influenzare positivamente anche i motori.

Nei primi post del blog, aperto solo lo scorso luglio, Matt spiega alcuni comportamenti del filtro SafeSearch di Google e mostra una sintassi piuttosto diffusa per indicare una query, applicata anche dal newsblog di Motoricerca.info ma poco usata sul Web: quella che usa le parentesi quadre.

Ian McAnerin ha discusso con gli ingegneri di Google apprendendo come gli spider si comportano e come un sito con IP dedicato può avere un vantaggio iniziale.
12 agosto '05 01:13:18
La notizia del vantaggio di un IP dedicato è stata inizialmente diffusa su Search Engine Roundtable, ma riportata con diversi errori che ne rendono la comprensione ostica. JasonD l'ha allora corretta scrivendo un intervento su Threadwatch.

Durante la recente Google Dance (la festa di Google, non l'aggiornamento dei risultati delle ricerche) tenutasi in concomitanza del Search Engine Strategies, Ian McAnerin ha appreso dagli ingegneri di Google che gli spider iniziano ad analizzare per la prima volta un sito web usando i protocolli più basilari, come HTTP 1.0 e HTML 1.0.

Ecco come funziona: se lo spider riesce ad analizzare correttamente il sito usando protocolli vecchi, adotta quelli per tutte le successive spiderizzazioni. Al contrario, se un protocollo vecchio non è sufficiente, l'analisi viene ripetuta basandosi su protocolli via via più moderni, fino a quando non ne viene trovato uno che consente l'analisi corretta del sito. Più il sito richiede di essere analizzato con protocolli recenti e più analisi occorrono a Google per determinare i giusti protocolli. Questo processo può durare anche fino a tre mesi.

Il vantaggio di avere un sito su un IP dedicato, ovvero assegnato solo a quel sito web, consiste nel fatto che Google può determinare l'IP di un sito con IP dedicato usando già con il protocollo HTTP 1.0, quello base, giungendo quindi a tale informazione senza bisogno di effettuare altre analisi con protocolli superiori.

Il vantaggio è dunque la velocità con cui Google acquisisce una corretta informazione (in questo caso l'IP del sito).

C'è di più: limitatamente alle settimane che Google impiega per effettuare le analisi aggiuntive, un sito che utilizza un IP condiviso non vedrà accreditati a sé tutti i link che puntano al sito stesso. Terminate le analisi, i link verranno poi accreditati correttamente. Non c'è dunque pericolo che i link non vengano alla fine assegnati al sito, ma è comunque possibile che vengano assegnati al sito con un certo ritardo.

Gli ingegneri di Google che hanno discusso con Ian McAnerin hanno detto che la tecnica delle "analisi graduali" è probabilmente utilizzata da altri motori di ricerca oltre che Google.

Danny Sullivan modera una conferenza a cui partecipano i portavoce dei principali motori di ricerca, chiedendo loro cosa riserva il futuro delle tecnologie di ricerche.
12 agosto '05 01:12:11
Dal Search Engine Strategies 2005, a San Josè. Resoconto di Search Engine Roundtable.

Yahoo! fa l'esempio di Flickr e di My Web spiegando che i social network possono contribuire massicciamente alla qualità delle tecnologie di ricerca in quanto le comunità di persone sono in grado di decidere da sé e per sé quali cose considerano più importanti e quali meno, un fattore che può essere sfruttato negli algoritmi di information retrieval.

Google invece sostiene che il Web semantico sta migliorando. E' un'affermazione importante, da parte di un motore di ricerca, in quanto gli algoritmi che si basano sulle analisi semantiche, per quanto discussi in tanti brevetti, non sembrano costituire ancora una componente importante nelle tecniche adottate dai motori di ricerca. Aggiunge che il prossimo passo per le comunità sarà quello di consentire alla gente di comunicare al computer che cosa stanno pensando e quali voci sono importanti.

ASK riprende l'argomento delle informazioni semantiche e dice che questi concetti vengono applicati da ASK per etichettare le comunità e arrivare a determinare gli argomenti che ogni comunità sviluppa. Aggiunge che ASK possiede la tecnologia per individuare all'interno delle comunità gli elementi considerati "esperti" [Teoma, il motore collegato ad Ask Jeeves, sfrutta queste tecniche da tempo - Ndr].

Anche MSN attribuisce molta valenza alle comunità e sostiene che le comunità sono una componente importante del futuro delle ricerche.

Danny Sullivan chiede come le mappe potranno essere integrate nelle ricerche.

AOL, proprietaria di Mapquest, afferma che le mappe sono la stele di rosetta delle ricerche locali. Yahoo! invece prende Archive.org come esempio e dice che sarebbe interessante poter utilizzare una mappa per visualizzare un luogo come appariva in passato.

Infine, ciascun portavoce dei motori di ricerca fornisce qualche indicazione su come e quanto la ricerca, intesa come gli studi tecnologici, influisce nei risultati. Tutti convengono nel dire che la ricerca è strettamente indispensabile per riuscire ad offrire risultati migliori e Yahoo! ammette che all'inizio assegnava modeste risorse ad essa mentre ultimamente è riuscita a creare un luogo diricerca attraente agli occhi dei ricercatori.

Una conferenza del SES 2005 di San Josè è stata dedicata ad uno dei fattori più influenti sul posizionamento nei motori di ricerca: ottenere link.
12 agosto '05 01:11:22
Dal Search Engine Strategies 2005, a San Josè. Resoconto di Search Engine Roundtable.

La sessione del SES dedicata ai link riesce a fare chiarezza sulle tecniche da adottare per aumentare la propria link popularity e smonta i falsi miti che circolano abbondantemente tra i webmaster.

John Kleinberg ha specificato che l'analisi dei link si basa su due assunti: il primo è che un link da A a B è un voto per B ed il secondo è che A e B sono temi correlati. La co-citazione aiuta a determinare la classificazione e la categorizzazione. Se C linka sia A che B ma A e B non sono linkate tra loro, A e B sono comunque correlate in qualche modo [questa è un dei criteri usati da Google per il proprio operatore "related:" - Ndr].

Ecco un elenco delle cose più importanti che riguardano i link:


  • Qualità, non quantità.

  • Il testo dell'ancora dei link.

  • I motori di ricerca hanno già deciso chi è importante, quindi potete usare le loro informazioni per trovare link partner.

  • Non diluite un contenuto di qualità tentando di distribuirlo per tutto il sito, se non è necessario. Create una pagina autorevole che la gente vorrà linkare. Questo incrementa i link ottenuti per ragioni diverse.

  • I programmi di affiliazione possono portare molto traffico e vendite ma possono rovinare la propria strategia di linking.

  • Siate selettivi quando scegliete chi linkare. "Se è gratis, probabilmente è spazzatura".

  • Falsare la popolarità creando 5000 link provenienti da vostri siti fasulli funzionerà inizialmente, ma poi i motori di ricerca noteranno che quei siti non ricevono link.

  • Chiedere un link è un processo del lavoro come altri.

  • Acquisire link richiede tempo e l'uso di software non garantisce necessariamente che i link saranno "buoni". Bisogna personalizzare.

  • Invece di tentare di essere Yahoo! creando una directory, dovreste concentrarvi nella creazione di buoni contenuti.

Debra O’Neil-Mastaler di Alliance Link elenca alcuni dei miti e degli errori più comuni per quanto riguarda i link.

I link reciproci sono dannosi. Falso. I link reciproci permettono di piazzare testi ancora con keyword sui siti di propria scelta. Tuttavia bisogna diversificare i link e non usare solo link reciproci. Non bisogna usare e-mail di richiesta standard ma personalizzarle, e non proporre scambi ai siti che non lo fanno già. E' il caso di controllare che il link reciproco venga pubblicato proprio sul sito scelto e non su un sito esterno. Scambiare link su blog e newsletter è una ottima mossa perché si tratta di contenuti che generalmente vengono archiviati.

Link non reciproci e verso l'esterno sono dannosi. Falso. I motori di ricerca analizzano i siti in base ai link ricevuti ed offerti. Nessun sito è un'isola e l'assenza di link verso l'esterno può apparire sospetta. Offrire link non farà perdere PageRank.

I link su DMOZ hanno un grosso peso. Improbabile, ma rimangono link molto credibili.

Contano solo i link su pagine PR3 o superiori. Falso. Google tiene conto di tutti i link ma ha deciso di non mostrarli tutti attraverso il comando "link:".

Link in entrata da cattivi siti sono dannosi. Falso. Non si può essere considerati responsabili per le azioni degli altri.

C'è bisogno di molti link per posizionarsi bene. Falso.

Debra O’Neil-Mastaler illustra una presentazione di Eric Ward, che purtroppo non ha potuto partecipare al seminario. nella presentazione Eric sottolinea che non esiste un concetto universale per "link di qualità" ma che il concetto di qualità varia da sito a sito. La documentazione di Eric Ward è stata pubblicato sul suo sito web e spiega le basi dei link, le strategie da seguire e come acquistarli e venderli.

Mike Grehan conclude la sessione di domande e risposte di questo seminario affermando che Google non usa affatto il PageRank. Altre interessanti affermazioni possono essere lette nel resoconto completo di Search Engine Roundtable.

In una conferenza del SES 2005 di San Josè si è discusso di quei casi in cui è conveniente fare reverse engineering per capire e influenzare gli algoritmi dei motori.
12 agosto '05 01:10:43
Dal Search Engine Strategies 2005, a San Josè. Resoconto di Search Engine Roundtable.

Alla conferenza dal titolo "Should You Chase The Algorithm?" hanno partecipato alcune conosciute personalità del settore del search engine marketing diventate famose per le proprie tecniche di posizionamento molto aggressive. Il tema della conferenza in teoria avrebbe dovuto riguardare la convenienza nel comprendere gli algoritmi dei motori di ricerca al fine di influenzarli, sembra proprio che la discussione si sia spostata su una semplice carrellata delle tecniche da utilizzare per "fregare" gli algoritmi.

David Naylor ha affermato qualcosa che non viene ammessa molto spesso dagli spammer: la necessità di comprendere ed influenzare gli algoritmi nasce quando non si possiedono le capacità per creare contenuti eccellenti. Detto da una persona che da tempo si proclama un "black hat" (uno spammer), fa il suo effetto.

Shari Thurow di Grantistic Designs ha espresso la propria opinione circa il fatto che il posizionamento andrebbe considerata la summa di tutte le attività che portano alla visibilità di un sito e non solo il semplice ricorso alle tecniche per influenzare i criteri di ranking dei motori di ricerca.

Mikkel Svendsen ha detto di controllare e studiare continuamente le tendenze degli algoritmi applicati dai motori di ricerca, creando una grande quantità di siti e pagine web al solo scopo di monitorarne i risultati nelle ricerche. Svendsen ha detto che nella maggior parte dei casi è sufficiente adottare tecniche SEO molto basilari.

Greg Boser di WebGuerrilla è forse la voce più equilibrata e consiglia di adottare per lo stesso cliente sia tecniche aggressive sia tecniche di posizionamento base.

Nella sessione di domande e risposte che è seguita, tutti i partecipanti sono stati concordi su un paio di affermazioni, che vale la pena evidenziare: la prima è che il posizionamento aggressivo si fa principalmente attraverso i link, sia quelli interni che quelli esterni. Tale affermazione non dovrebbe stupire più di tanto, non solo perché è palese che i criteri dei motori di ricerca si siano spostati sempre più verso gli elementi esterni dei siti web, ma sopratutto perché tutti i relatori hanno indubbiamente a che fare con settori molto competitivi, dove gli elementi interni di un sito contano fino ad un certo punto.

Mikkel aggiunge che molto dipende dalla "dinamica del sito", e dalla sua crescita che deve essere costante in termine di contenuti, keyword e link.

La seconda affermazione, con la quale tutti concordano, è che la recente paper di Google (quella sulle informazioni storiche) va considerata solo fumo negli occhi. Pare insomma che lo spam si faccia ancora sfruttando gli elementi che tutti conosciamo.

Gli argomenti discussi durante questa conferenza hanno fornito elementi molto interessanti al posizionamento e si consiglia un approfondimento leggendo il resoconto completo.

Un seminario del SES 2005 di San Josè è stato dedicato ai blog e ai feed, evidenziando il ruolo che stanno assumendo nel web marketing.
12 agosto '05 01:10:01
Dal Search Engine Strategies 2005, a San Josè. Resoconto di Search Engine Roundtable.

L'espansione dei blog e delle tecnologie dei feed, RSS in testa, ha avuto una forte influenza non solo nel modo in cui le informazioni vengono diffuse e acquisite su Internet ma anche sul modo in cui è possibile fare web marketing.

Le personalità intervenute al seminario del SES dedicato ai blog e ai feed hanno infatti evidenziato, oltre alle consuete statistiche che dimostrano l'aumento di blog e dell'attenzione a loro rivolta, anche le tecniche per sfruttare questa nuova forma di comunicazione per acquisire visibilità e visitatori, anche attraverso i motori di ricerca.

Amanda Watlington di SearchingForProfit.com ha consigliato di sfruttare i blog per creare link di qualità e pagine web fortemente incentrate su keyword. Consiglia anche di gestire e monitorare il proprio brand misurando la sua reputazione e di produrre un blog di qualità ponendo l'accento su contenuti recenti e rilevanti.

Riguardo ai feed RSS, Watlington afferma che è stata dimostrata la loro capacità di creare traffico e che anche in questo caso è utile misurarne i risultati, come la diffusione e le visite che arrivano attraverso essi. Termina spiegando che i feed permettono di costruire con gli utenti una relazione più forte e una comunicazione più veloce.

Stephan Spencer di Netconcepts pone l'accento alla necessità di tracciare l'uso dei feed da parte degli utenti, identificando gli iscritti ai feed attraverso la stringa di user-agent registrata nei log del server web e tracciando le letture usando un "web bug", un'immagine grande un pixel il cui accesso testimonia una lettura del feed da parte di qualcuno. E' anche possibile monitorare i click degli utenti usando una pagina con redirect 301.

Infine, Greg Jarboe di SEO-PR ha spiegato che bisogna sfruttare il motovi per il quale la gente ama leggere i blog, ovvero per acquisire informazioni che altrove non è possibile trovare. Secondo Jarboe, l'obiettivo non è quello di avere un blog né quello di avere contenuti quanto quello di riuscire a produrre contenuti eccezionali.

Per alcune statistiche sull'utilizzo dei blog e dei feed, potete leggere il resoconto di Search Engine Roundtable.

Il blog Digital Inspiration pubblica una presentazione interattiva in Flash che riassume bene i passi più importanti nella storia di Google.
10 agosto '05 10:25:30
Digital Inspiration pubblica un'animazione in tecnologia Flash che mostra graficamente i principali traguardi conseguiti da Google, dalla sua nascita concettuale ai nostri giorni.

Le informazioni mostrate dalla presentazione sono state estrapolate dalla pagina ufficiale di Google che ospita la storia del motore di ricerca anche se, nell'operazione di riduzione, Digital Inspiration ha introdotto in alcuni punti un paio di piccole imprecisioni.

La presentazione è interattiva e l'utente può navigare tra le varie pagine che la compongono usando i controlli presenti in fondo alla pagina Flash. Si tratta di un piccolo strumento che riassume bene la strada compiuta da Google sin da prima della sua fondazione, e che sarebbe stato utile nella redazione di certi contenuti.

JenSense pubblica diversi screenshot del pannello di controllo di Yahoo! Publisher Network, il network pubblicitario di Yahoo!.
10 agosto '05 10:08:49
L'accesso a Yahoo! Publisher Network, la risposta di Yahoo! al network AdSense di Google, è attualmente riservato solo ad alcuni utenti, come indicato in questa precedente notizia.

JenSense ha allora pensato di pubblicare alcuni screenshot delle pagine di gestione di YPN per dare modo agli utenti di osservare la disposizione dei contenuti e le caratteristiche che il sistema offre ai gestori dei siti web.

Vengono dunque mostrate le pagine per la personalizzazione degli annunci, con tanto di tavolozza dei colori, quella per tracciare i rendimenti di singole pagine, directory o domini, quella per bloccare le inserzioni dei competitori, quella delle statistiche sui rendimenti e quella che consente di pubblicare contenuti diversi dalle semplici inserzioni, come le ricerche contestuali di Y!Q o un link a Yahoo! Maps.

E' quello che afferma Repubblica.it, in un articolo pieno di castronerie su Yahoo! e Google.
10 agosto '05 08:29:36
Nel claudicante tentativo di occuparsi di un tema a loro del tutto sconosciuto, Repubblica.it pubblica un articolo sulla guerra dei numeri tra Yahoo!, che ha appena annunciato di possedere un archivio contenente 20 miliardi di documenti, ed il concorrente Google.

Ciò che attira maggiormente l'attenzione non sono le affermazioni sul tema principale dell'articolo quanto il suo paragrafo conclusivo, che definire "delirante" è poca cosa, e che riporto di seguito, evidenziando le affermazioni più meritevoli.

"La caccia è partita da quando Google, all'inizio dell'anno, ha introdotto il suo motore di ricerca autonomo. Nei tre anni e mezzo precedenti aveva usato - su licenza - lo stesso motore Yahoo, che tuttora appare nella main page Google, in alternativa al suo proprio motore."

Secondo l'esperto/a giornalista, Google, considerato il motore di ricerca per eccellenza nonché quello che si è distinto sin dall'inizio della propria carriera per aver introdotto tecnologie di ricerca innovative, userebbe un proprio motore di ricerca solo dall'inizio del 2005.

Sempre secondo Repubblica.it, prima dell'inizio dell'anno corrente, Google avrebbe usato per tre anni e mezzo la tecnologia di ricerca di Yahoo!. Un po' come sostenere che Repubblica.it dà in outsourcing la scrittura dei propri articoli alla redazione di "Cucito Creativo" (e visti i risultati verrebbe pure da pensarlo).

Per finire in bellezza, nell'articolo si sostiene che, ancora oggi, sulla home page di Google siano presenti tutti e due i motori di ricerca: quello realizzato da Google quest'anno e il fantomatico motore di Yahoo!, frutto di chissà quali viaggi psichedelici.

Ciò che più stupisce, non è l'evidente inadeguatezza del(la) giornalista a trattare l'argomento, quanto l'assoluta e palese ignoranza anche come semplice utente dei motori di ricerca.

Al fortunato scrittore che si è goduto gli ultimi sei anni su Plutone, auguriamo un pronto aggiornamento delle proprie cognizioni in materia di motori di ricerca e di Web in genere.


Aggiornamento delle 10:56 - l'intero paragrafo è stato eliminato dall'articolo.

Yahoo! ha rivelato i numeri dei propri indici, affermando di aver indicizzato oltre venti miliardi di documenti, tra Web, immagini e file audio.
9 agosto '05 19:46:33
Yahoo! festeggia il primo compleanno del proprio blog rivelando alcune cifre sulla vastità degli indici dei propri motori di ricerca.

In totale, i documenti indicizzati ammontano a oltre venti miliardi di unità, di cui 19,2 miliardi sono costituiti da documenti di tipo testuale (o parzialmente testuale, come i file SWF) provenienti dal Web, 1,6 miliardi di immagini e 50 milioni di documenti audio, archiviati dal motore di contenuti audio recentemente rinverdito.

Yahoo! stesso tiene a precisare che la grandezza dell'indice non è l'unico indicatore della qualità di un motore di ricerca, e questa è la ragione per la quale il portale americano raramente fornisce informazioni sulla quantità dei documenti indicizzati.

Tuttavia è indubbio che per molto tempo il settore dei motori di ricerca ha visto protagonista una guerra di marketing tra Yahoo! e Google basata proprio sui nudi numeri. Per mesi, Google e Yahoo! hanno a turno ampliato la dimensione dei propri archivi in una evidente gara per impressionare utenti, webmaster ed investitori.

La guerra dei numeri è solo uno specchietto per le allodole: per aumentare velocemente la grandezza di un indice basta semplicemente incamerare più spam e più doppioni ed alcune recenti ricerche su Yahoo!, dopo il recente aggiornamento dell'indice, sembrerebbero proprio evidenziare problemi in tal senso, come viene mostrato dal seguente esempio di ricerca.

Esempio di una ricerca su Yahoo! che riporta solo spam

Si noti che risultati di ricerca simili, finora un'eccezione, sono aumentati in maniera evidente proprio dopo l'ultimo aggiornamento dell'indice: quello che ha permesso a Yahoo! di annunciare i venti miliardi di documenti indicizzati.

Google compie (finalmente) un deciso passo verso l'adozione dei feed aggiungendo dei link a feed RSS ed Atom sulle pagine di Google News.
9 agosto '05 10:57:33
Con la diffusione dei feed e dei formati RSS ed Atom, molti utenti hanno chiesto a Google di aggiungere dei feed a Google News, una mossa finalmente compiuta dal motore di ricerca che ha predisposto anche un'apposita pagina di informazioni sui feed.

Su ogni pagina di Google News, da oggi, appaiono due link sul lato sinistro: il primo ad un feed RSS, il secondo ad un feed Atom.

La caratteristica principale di questi due link è che puntano a feed diversi a seconda della pagina di Google News che l'utente sta visualizzando. Un link sulla pagina generale di Google News punta ad un feed che contiene tutte le notizie principali [RSS], un link sulla pagina della categoria "Business" condurrà ad un feed contenente solo le notizie economiche, e così via.

E' possibile anche ottenere feed personalizzati in base ad una ricerca effettuata o ai contenuti che l'utente ha disposto sulla pagina, personalizzandola con gli appositi controlli di Google News. Il sistema per accedere ai feed non cambia: è sufficiente effettuare una ricerca o personalizzare i contenuti della pagina e poi accedere ai feed cliccando sugli appositi link.

Al momento il servizio è ristretto alle versioni di Google News in lingua inglese. Maggiori informazioni sul nuovo servizio possono essere acquisite visitando la pagina dedicata ai feed.

Ad un seminario del SES 2005 di San Josè, i portavoce dei principali motori di ricerca spiegano l'importanza della personalizzazione e come essa influirà sui risultati di ricerca.
9 agosto '05 10:09:30
Dal Search Engine Strategies 2005, a San Josè. Resoconto di Search Engine Roundtable.

Durante questo seminario, Tim Mayer di Yahoo! spiega che la personalizzazione delle ricerche è il Santo Graal per i motori di ricerca, in quanto è teoricamente in grado di migliorare consistentemente i risultati di ricerca fornendo risorse più vicine alle preferenze e gli interessi di chi cerca.

L'implementazione delle ricerche personalizzate incontra tuttavia diverse difficoltà. Una di esse consiste nel comprendere con precisione quando una sessione inizia e finisce, ovvero quando l'utente decide di cambiare completamente l'argomento della ricerca. Il problema risiede nel fatto che alcuni algoritmi di personalizzazione si basano sulle ricerche effettuate in precedenza da un utente e che, se l'oggetto della ricerca cambia all'improvviso, le ricerche precedenti non devono essere prese in considerazione per fornire i risultati successivi.

Un altro problema della personalizzazione è costituito dagli interessi temporanei e quelli genuini. C'è differenza tra cercare un CD country per fare un regalo di Natale ed essere un estimatore del genere country.

Mayer spiega che Yahoo! vede l'intero Web svilupparsi in tre atti: la normale ricerca pubblica, la ricerca personale come quella sul proprio PC e la ricerca condivisa, influenzata dalle connessioni tra gli utenti e dalle comunità di ricerca che si vengono a creare. Viene fatto l'esplicito riferimento a My Web 2.0, il cui funzionamento si basa già sul concetto di "ricerca sociale".

Mayer accenna anche a Yahoo! Mindset e alla possibilità per gli utenti di decidere se i risultati di una ricerca devono tendere più al lato commerciale o a quello informativo. Tuttavia Mayer aggiunge che si tratta solo di un giocattolo e che difficilmente verrà utilizzato per le ricerche principali in quanto, a differenza di quello che lo strumento permette, un utente non è spinto al 70% da interessi commerciali e al 30% da interessi informativi, ma interessato all'una o all'altra cosa.

Jim Rainey di Ask Jeeves afferma che per fornire risultati di ricerca personalizzati è necessario acquisire maggiori informazioni sugli interessi degli utenti, facendoli registrare o magari facendogli compilare un profilo in cui dichiarano esplicitamente i propri interessi principali. Rainey sottolinea che qualunque soluzione deve essere raggiunta rendendo l'utilizzo delle ricerche personalizzate il più semplice possibile per l'utente finale.

Marissa Mayer di Google afferma che Google fornisce già alcuni strumenti per la personalizzazione delle ricerca, in particolare il Search History, attraverso il quale gli utenti (registrati) possono accedere all'archivio delle ricerche effettuate in precedenza. I contenuti del Search History vengono utilizzati da Google per consigliare a volte una risorsa già visitata in precedenza dall'utente, in seguito ad una ricerca passata. Mayer accenna anche alla nuova homepage personalizzabile di Google.

Tutti i rappresentanti dei motori si son detti concordi nell'affermare che il monitoraggio dei bookmark degli utenti può essere considerato un buon sistema per individuare sia le risorse alle quali le persone sono maggiormente interessate sia quelle considerate di qualità più alta sia quelle che gli utenti tornano a visitare frequentemente. Il portavoce di A9 afferma che il proprio motore di ricerca modifica l'ordine dei risultati di ricerca anche in base ai bookmark dell'utente.

Circa le informazioni demografiche, pare che al momento non siano utilizzate massicciamente da nessun motore, ad esclusione della provenienza dell'utente, che viene utilizzata da Yahoo! e da Google per modificare in parte i risultati di ricerca.

Marissa Mayer afferma che solo il 3-5% dei risultati di ricerca di Google è influenzato da fattori personali e che Google ha anche effettuato test cambiando i risultati in base all'orario in cui la ricerca viene effettuata.

Un seminario del SES 2005 di San Josè spiega come gli utenti che effettuano ricerche percepiscono ed interagiscono con gli elementi della pagina dei risultati.
9 agosto '05 09:06:25
Dal Search Engine Strategies 2005, a San Josè. Resoconto di Search Engine Roundtable.

Gord Hotchkiss di Enquiro illustra una ricerca effettuata tracciando i movimenti degli occhi degli utenti durante l'utilizzo di Google.

Viene preso in considerazione il "triangolo dorato", ovvero la sezione della pagina di ricerca alla quale gli utenti prestano maggiore attenzione. Tale sezione è composta dal largo angolo superiore sinistro della pagina e comprende sia gli eventuali risultati sponsorizzati che stanno in cima alla pagina sia i successivi due o tre risultati organici della ricerca.

Le cose si fanno comunque più complesse nel momento in cui la pagina osservata dall'utente è stata già visitata poco prima oppure se si tratta della seconda (o successiva) pagina dei risultati della ricerca: qui gli utenti abbandonano il comportamento che li porta a prestare maggiore attenzione alla sezione a forma di triangolo e adottano un criterio di scanning veloce dei contenuti, in cui l'occhio scorre velocemente sui testi senza leggere, aspettando di essere attratto da un elemento ritenuto interessante o significativo ai fini della ricerca effettuata.

E' stato scoperto che il titolo ricopre un ruolo fondamentale, sia perché è praticamente l'unica cosa che può attirare l'attenzione dell'occhio durante un'attività di scanning sia perché, anche durante una normale attività di lettura, è il primo elemento a cui l'utente presta attenzione.

Solo se il titolo letto è considerato interessante, l'utente procede leggendo la descrizione o l'estratto prodotto dal motore. Se risultano interessanti anche questi, l'utente può decidere di cliccare sul documento e visitarlo. Queste considerazioni valgono più per l'attività di lettura normale che per l'attività di scanning, in cui il comportamento dell'utente diviene maggiormente istintivo.

Ulteriori ed interessanti approfondimenti, anche relativi agli aspetti commerciali del comportamento degli utenti, possono essere letti nel resoconto completo di Search Engine Roundtable.

Un seminario del SES 2005 di San Josè spiega come analizzare i brevetti richiesti dai motori di ricerca per comprendere gli sviluppi tecnologici del settore.
9 agosto '05 08:30:08
Dal Search Engine Strategies 2005, a San Josè. Resoconto di Search Engine Roundtable.

"Search Algorithms: The Patent Files" è il titolo del seminario del Search Engine Strategies in cui è stato discusso come i brevetti richiesti dai responsabili dei motori di ricerca possono fornire importanti indicazioni su come la tecnologia cambia e sui criteri potenzialmente usati per determinare la posizione delle pagine e migliorare i risultati delle ricerche.

Rand Fishkin (o, meglio una sua voce registrata) spiega i fattori in gioco in un recente brevetto presentato da Google e lungamente discusso anche tra i SEO italiani: Information retrieval based on historical data.

Fishkin introduce il concetto di "data iniziale" di un documento, ovvero la data in cui il motore di ricerca ha per la prima volta preso atto dell'esistenza del documento. Questa data non coincide necessariamente con l'acquisizione della risorsa ma può essere relativa semplicemente al momento in cui il motore nota un riferimento ad un documento finora sconosciuto. Questa data iniziale è indispensabile per basare tutti gli algoritmi che sfruttano informazioni storiche.

Fishkin spiega anche come la variazione dei contenuti di una pagina può influire sulla sua posizione. Cambiamenti cosmetici e poco significativi vengono generalmente ignorati ed ai link che rimangono sulla pagina dopo un aggiornamento può essere assegnato un valore maggiore. La data in cui un link appare e tutti i cambiamenti che esso subisce nel corso del tempo possono essere registrati ed analizzati dal motore di ricerca per determinare alcuni trend e ai link provenienti da siti considerati generalmente più affidabili (quelli governativi o istituzionali, ad esempio) può essere assegnato un peso maggiore.

Per quanto riguarda l'individuazione dello spam, i dati storici possono entrare in gioco per determinare se un sito web è riuscito a salire i risultati di ricerca in modo troppo repentino. Fishkin aggiunge che le tecniche per l'individuazione di domini usa-e-getta possono basarsi anche su controlli dei dati provenienti dai DNS Records.

Il Dott. Garcia di Mi Islita discute invece il brevetto Detecting query-specific duplicate documents, che consente a Google di eliminare dai risultati di ricerca i risultati troppo simili o identici.

Garcia spiega il metodo impiegato da Google, che consiste nel creare un estratto rappresentativo dei contenuti del documento in base ai termini digitati dall'utente e poi individuare le pagine duplicate basandosi non sull'intero contenuto delle pagine ma solo sui contenuti degli estratti.

La comparazione può essere effattuata calcolando un term vector per ogni estratto e successivamente determinarne il coseno: in questo modo i documenti rappresentati da coseni molto vicini possono essere considerati maggiormente simili, ed un valore di soglia scelto dal motore può determinare infine se il documento va incluso nei risultati o se risulta troppo simile ad un documento già presente nella lista.

IBM prevede di rendere pubblici i sorgenti di UIMA, un framework per l'indicizzazione, l'analisi semantica, la gestione e la ricerca di informazioni non strutturate.
8 agosto '05 12:27:00
Questo articolo di Reuters fa il punto su UIMA, un framework realizzato da IBM e dedicato all'analisi, ricerca e gestione di informazioni non strutturate prodotte dalle aziende.

Nell'articolo, il capo della tecnologia di ricerca di IBM Research, Arthur Ciccolo, evidenzia che i motori di ricerca più importanti hanno focalizzato i propri sforzi sul Web, mentre le tecnologie di ricerca per le aziende, e in particolare quelle soluzioni volte a rendere possibili le ricerche di concetti invece che di termini, sono ancora poco sviluppate e diffuse.

Per tale ragione, IBM sta cercando di promuovere tra le grandi aziende l'utilizzo di UIMA, un framework che ha per scopo quello di analizzare la sterminata mole di informazioni non strutturate prodotte dalle società (si stima che circa l'85% delle informazioni possedute dalle aziende siano non strutturate) ed estrapolarne informazioni che possono essere utilizzate in ricerche semantiche.

UIMA permette dunque di "comprendere" il significato delle informazioni e di correlarle tra loro, in modo da fornire alle aziende un sistema per organizzare le informazioni in base ai concetti che hanno in comune e non in funzione dei semplici termini che sono stati utilizzati per esprimerle.

Il framework, già liberamente scaricabile per Linux e Windows dal sito di IBM, verrà reso open source entro la fine del 2005 e pubblicato su SourceForge.

Sulle informazioni non strutturate e sull'analisi semantica del testo, Motoricerca.info pubblicherà a breve una interessante intervista fatta al responsabile di una conosciuta società che sviluppa questo tipo di tecnologie.

Sui forum di Search Engine Watch, stuntdubl spiega come chiedere in modo efficace a Google la reinclusione di un sito bandito dal motore.
8 agosto '05 09:05:35
Questa discussione su Search Engine Watch vede protagonista un intervento dell'utente stuntdubl che spiega come aumentare le chance di una veloce reinclusione di un sito bandito da Google.

Ecco riassunti i consigli principali quando si scrive la richiesta di reinclusione a Google:


  • Se hai fatto qualcosa di sbagliato, ammettilo e aggiustalo.

  • Non chiedere il perché del ban. Tu sai che cosa hai fatto o quantomeno ne hai un'idea.

  • Non lamentarti.

  • Non essere recidivo. Se ti beccano una seconda volta non è detto che decidano di reincludere il sito.

  • Non essere pressante e non riempirli di e-mail.

  • Leggi più volte le linee guida per i webmaster prima di spedire la mail.

  • Contatta un professionista per far analizzare il sito in cerca di potenziali infrazioni delle linee guida e per capire se sei stato realmente bandito.

  • Sii educato.

Stuntdubl pubblica nel proprio intervento anche un buon esempio di una richiesta di inclusione: va subito al punto ed è educata. Sebbene è sconsigliato usarla con un copia-e-incolla, può essere utilizzata come base per scrivere la propria richiesta personalizzata.

Google Cache Tool estrapola tutti i link di una pagina web che puntano a pagine dello stesso sito e controlla che quelle pagine siano presenti nella cache di Google.
8 agosto '05 08:51:08
Google Cache Tool è uno strumento che potrà venire in aiuto più di una volta ai webmaster controllando il grado di indicizzazione del proprio sito web su Google.

E' sufficiente inserire l'URL di una pagina web e il software provvederà a scaricarla, estraendone i link interni, ovvero quelli che puntano ad altre pagine dello stesso sito. Un successivo click da parte dell'utente istruirà lo strumento ad interrogare Google per controllare quante e quali delle pagine individuate sono già presenti nella cache del motore di ricerca.

Il risultato di una ricerca con Google Cache Tool è infatti una pagina composta da due liste, una ospitante la lista di pagine già archiviate da Google (con tanto di data di archiviazione e link alla cache del motore di ricerca) ed una che mostra le pagine non archiviate.

Effettuando alcune prove con Google Cache Tool, è stato notato che Google rende disponibile la cache di una pagina prima ancora che la stessa venga mostrata nei risultati di ricerca. Le pagine che lo strumento indica come già archiviate non includono dunque solo i documenti già cercabili su Google ma anche quelli che saranno cercabili da lì a poche ore.

Su HTML.it si discute su come e quanto l'etica debba incidere sulle attività dei SEO e si arriva a comparare certe ottimizzazioni ai furti e Google ad un complice.
6 agosto '05 15:51:35
Questa discussione sul forum di HTML.it dedicato ai motori di ricerca ed al web marketing riprendono i mai sopiti discorsi su etica e morale, e su quanto tali fattori debbano essere presi in considerazione nel posizionamento.

Le parti più interessanti della discussione non consistono nelle opinioni tecniche, che in alcuni casi appaiono poco argomentate, quanto nella volontà da parte dell'utente Alto di comparare alcune pratiche di posizionamento a dei reati (furto e rapina di banche o vecchiette, per la precisione) e Google, il motore che le consente, ad un complice che fa da palo.

Le opinioni di Alto, espresse con forza, hanno dato vita al carosello di interventi che è tipico delle discussioni incentrate su etica e morale, nelle quali ognuno dei partecipanti si esprime in funzione dei propri valori e dei propri obiettivi e interessi: c'è chi si mantiene distante dalle considerazioni etiche e tenta di smontare le basi tecniche sulle quali le prime sembrano appoggiarsi, chi ritiene che le considerazioni morali possano essere figlie solo di frustrazioni tipiche de "La volpe e l'uva", chi misura tutto col metro del denaro, chi più equilibratamente afferma che Google è sì influenzabile, ma meno di altri motori di ricerca.

In definitiva, una discussione che merita una lettura.

La home page personalizzabile di Google include adesso il Search History, la lista delle ricerche effettuate in precedenza dall'utente.
6 agosto '05 09:04:14
La home page personalizzabile di Google ha subito riscosso un notevole interesse da parte degli utenti. Nonostante il suo utilizzo sia riservato a coloro che hanno aperto un account di Google, l'attenzione verso il servizio di personalizzazione è stata alta e molti utenti hanno discusso e fatto richiesta su Google Groups di nuove caratteristiche da aggiungere alla pagina.

Una delle caratteristiche più richieste, e probabilmente più facili da implementare per i programmatori del motore di ricerca, è stata quella della possibilità di aggiungere un riquadro con i contenuti del Search History, ovvero la lista delle ricerche effettuate in precedenza dall'utente su Google.

Detto, fatto. Da oggi, la home page personalizzabile permette di aggiungere un riquadro con le ricerche precedenti cliccando sull'apposito pulsante "Add" vicino alla voce "Search History" che appare nella categoria di contenuti "My Stuff".

Il riquadro con le ricerche può essere configurato per decidere quante delle passate ricerche far mostrare a Google, fino ad un massimo di 20 (le altre liste della pagina generalmente consentono elenchi più corti), e i suoi contenuti possono essere temporaneamente nascosti per conservare spazio sulla pagina, come può essere fatto anche con i contenuti del riquadro di Gmail.

Per ogni elemento elencato in Search History, Google mostra le keyword usate per effettuare la ricerca e l'orario/data della medesima. Esiste inoltre un link che conduce l'utente alla propria pagina di Search History, per avere una visione più completa sulle ricerche precedentemente effettuate.

Il riquadro riporta attualmente solo le ricerche effettuate sul Web e non quelle effettuate su Google Images, che sono dunque consultabili solo accedendo alla pagina di Search History.

La quotazione in borsa di Baidu ha visto quadruplicare il valore delle azioni del motore di ricerca cinese, già considerato il "nuovo Google".
6 agosto '05 08:47:12
Baidu, il motore di ricerca leader in Cina, è stato quotato per la prima volta sul mercato Nasdaq nella giornata di ieri, ottenendo un'accoglienza a dir poco entusiasta da parte degli investitori e riuscendo a quadruplicare il valore delle proprie azioni nel giro di poche ore, qualcosa che non si osservava dai tempi della "bolla" dot com.

Le azioni di Baidu, inizialmente offerte a 27 dollari hanno subito registrato una quotazione di apertura di 66 dollari, raggiungere i 150 dollari in poco meno di tre ore ed infine chiudere a 122,54 dollari, con un guadagno del 354% rispetto alla quotazione iniziale.

Questi risultati eccezionali sono principalmente derivati dalle rosee prospettive che il mercato dei motori di ricerca in Cina mostra agli investitori: Baidu è già il primo motore cinese per numero di ricerche effettuate e la sua crescita viene data per scontata tenendo conto che la quantità di utenti cinesi che accederanno ad Internet è destinata ad aumentare consistentemente nel corso dei prossimi mesi.

Parte della calorosa accoglienza che Baidu ha ricevuto in seguito all'IPO è dovuta anche al fatto che il motore di ricerca presenta similitudini con Google (Baidu, come Google, guadagna principalmente attraverso pubblicità contestuali a fianco delle ricerche), e diversi investitori non hanno escluso che Google stesso potesse essere interessato ad acquistare Baidu, anche se i dirigenti della società cinese hanno smentito di essere interessati a vendere a terzi.

Tutti questi fattori, uniti alla paura di farsi sfuggire un "fenomeno Google", che dalla propria IPO dell'anno scorso ha visto triplicare il valore delle proprie azioni, hanno spinto il mercato a fare incetta delle azioni del titolo "BIDU" (questo il simbolo sul mercato Nasdaq), producendo un incremento del valore del titolo che non veniva osservato dalle IPO delle società del periodo "dot com", quando l'euforia (immotivata) degli investitori rendeva normali le triplicazioni o quadruplicazioni della quotazione iniziale delle azioni di una nuova società.

In seguito all'offerta pubblica, Baidu ha acquisito 109,1 milioni di dollari, tra le azioni vendute dalla società e quelle vendute dai suoi dipendenti.

Yahoo! rilascia la versione beta del proprio motore di ricerca specializzato in musica, Podcast e documenti audio generici.
5 agosto '05 12:29:52
Yahoo! annuncia di aver aperto una versione beta (in prova) di un nuovo motore di ricerca dedicato ai file audio: Yahoo! Audio Search.

Il portale americano afferma che i documenti audio indicizzati dal motore ammontano ad oltre cinquanta milioni e che sono stati individuati non solo attraverso l'attività di appositi spider ma anche integrando le risorse audio a cui Yahoo! aveva già accesso grazie a servizi quali iTunes, Yahoo! Music Unlimited, Napster, e Garageband.com.

Pertanto il nuovo servizio può essere inquadrato nella definizione di meta-motore di ricerca, con la differenza, rispetto ad altri meta-motori, di possedere anche un proprio crawler attraverso il quale perlustrare il Web in cerca di file audio ed anche un sistema per consentire ai produttori di documenti audio di segnalare ad Yahoo! le proprie produzioni, attraverso la produzione di un file in formato Media RSS ed un'apposita pagina di segnalazione.

Ogni ricerca effettuata su Yahoo! Audio Search porta a tre differenti liste di risultati: i file musicali, quelli Podcast e i documenti audio generici. Ad ognuna di queste tre categorie si accede cliccando sul relativo link in cima ai risultati e, selezionando la voce "More Options" che appare a fianco dei suddetti link si apre una sezione che consente all'utente di affinare la ricerca, indicando il formato, la durata e le fonti dei documenti che le ricerche dovranno restituire all'utente.

Un ulteriore link "Select your preferred audio service" conduce l'utente ad una pagina in cui si può selezionare un servizio preferito da una nutrita lista; le successive ricerche sul motore daranno preferenza ai documenti provenienti dal servizio selezionato.

Per ogni documento restituito dal motore a seguito di una ricerca è presente un link che porta ad una pagina contenente una lista di tutti i siti web che pubblicano il file individuato.

I contenuti della suddetta pagina cambiano a seconda che il file provenga da uno dei fornitori consultati da Yahoo! o da un sito web generico. In caso di file individuati sul Web, appaiono indicazioni relative al suo formato, alla dimensione in byte, alla qualità sonora e ovviamente un link alla pagina web su cui il file è pubblicato. Se si tratta invece di un documento proveniente da uno dei servizi a cui Yahoo! si rivolge, la pagina ospita indicazioni sulla possibilità di masterizzare la musica, la possibilità di copiarla liberamente ed il prezzo proposto dalle varie fonti.

Questa pagina ospita anche un link che, cliccato, salva la ricerca in My Web, in modo che l'utente possa ripescarla in futuro cercando tra i contenuti della propria pagina My Web.

Tutte le ricerche effettuate da Yahoo! Audio Search si basano sulle meta-informazioni assegnate ai documenti e non sui testi delle frasi eventualmente pronunciate nei file audio, come Podscope riesce invece a fare.

SEObook.com pubblica la versione 2.0 di Hub Finder, uno strumento che individua, per una determinata keyword, quei siti che possono offrire backlink di qualità.
5 agosto '05 11:08:38
Nel gergo SEO, il termine hub indica dei siti o delle pagine web che i motori di ricerca considerano risorse attendibili, da consultare per individuare link a siti di qualità.

Per tale ragione, i webmaster ed i SEO hanno generalmente un interesse a far pubblicare un link al proprio sito sugli hub, ed Hub Finder è uno strumento realizzato da SEObook.com che può dare una mano per trovare quei siti che i motori possono considerare degli hub.

Il tool chiede l'inserimento di una keyword o keyphrase, effettua una ricerca su Yahoo! ed estrapola i primi dieci siti restituiti dal motore di ricerca. Su questi siti compie ulteriori ricerche per determinare da chi ricevono link ed infine redige un elenco di quelle risorse che hanno offerto link al numero maggiore dei dieci siti precedentemente selezionati, mettendo in cima le risorse più "generose".

Hub Finder si basa sul criterio che le risorse che offrono più link ai siti web che stanno ai primi posti nei risultati di una specifica ricerca possono essere considerati hub riguardo ai temi a cui i termini fanno riferimento.

Per ottenere risultati più precisi, è consigliato ampliare la lista dei dieci siti che lo strumento compila automaticamente fornendo ulteriori URL da analizzare, attraverso l'apposito campo "Enter up to 10 sites:". Ad esempio è una buona idea aggiungere siti che sviluppano il tema delle keyword cercate e i siti restituiti per quelle keyword da altri motori di ricerca (lo strumento, come detto, interroga solo Yahoo!).

Hub Finder non può fornire certezze circa il fatto che i siti individuati siano realmente considerati degli hub dai motori di ricerca, ma indubbiamente è uno strumento per il posizionamento estremamente utile in quanto aiuta a trovare quelle risorse sulle quali sarebbe utile far pubblicare un link al proprio sito web.

Una nota a margine: per diverse ricerche effettuate con lo strumento si potrà notare che in cima ai risultati appare spesso DMOZ e diversi suoi cloni. Non si deve commettere l'errore di credere che questo risultato implichi che ODP sia considerato di più dai motori di ricerca: in realtà significa solo che la quantità di siti a cui DMOZ offre un link è talmente alta che è più probabile trovarlo in cima ai risultati di molte delle ricerche effettuate con Hub Finder.

Dopo il Googlebombing, potrebbe essere possibile attuare tecniche di imagebombing facendo apparire specifiche immagini in cima ai risultati di una ricerca sul Web.
5 agosto '05 01:11:25
Per alcune ricerche sul Web, e a volte solo per alcuni utenti, Google presenta in cima ai risultati alcune immagini provenienti dall'indice usato da Google Images.

Immagini sopra i risultati di una ricerca sul Web

Questo intervento di Philipp Lenssen su Google Blogoscoped tenta di indagare sui criteri seguiti da Google per decidere quando una ricerca sul Web deve fornire anche delle immagini in cima ai risultati.

Lenssen elenca alcuni dei criteri più probabili, come la quantità di volte in cui i termini vengono cercati in Google Images o la presenza di specifiche parole tra i termini di ricerca ("logo", "photos", ecc.) e basandosi su questi potenziali criteri fornisce anche qualche indicazione su come potrebbe essere possibile influenzare Google in modo che sia spinto a mostrare delle immagini in cima ai risultati di una ricerca sul Web.

La tecnica, che potrebbe essere chiamata "Imagebombing", si può teoricamente spingere oltre fino ad arrivare a far mostrare specifiche immagini per una specifica ricerca, come per anni è stato possibile fare attraverso il Googlebombing. Lenssen fa l'esplicito esempio del volto di un politico che potrebbe apparire in cima alla pagina come risultato di una ricerca contenente termini poco gradevoli.

Iniziano ad uscire le prime informazioni su MSN Keywords, il sistema di pubblicità che MSN userà per gli annunci a fianco dei risultati delle ricerche.
4 agosto '05 19:42:00
In questo articolo il Wall Street Journal afferma che la prossima settimana MSN annuncerà la partenza ad ottobre del proprio programma "MSN Keywords", destinato ad accogliere gli inserzionisti del proprio sistema di annunci pubblicitari, quelli che verranno pubblicati a fianco dei risultati di ricerca di MSN.

MSN Keywords, che sarà uno degli servizi pubblicitari offerti dalla piattaforma AdCenter, è il primo passo di MSN per avvicinarsi ad un sistema per la vendita di inserzioni attraverso aste, simile a quello realizzato da Google con AdWords.

Search Engine Watch fornisce maggiori dettagli e rivela che MSN Keywords è già attivo in versione beta in Francia e Singapore, sebbene riservato solo ad alcuni inserzionisti. A settembre, chiunque potrà chiedere di essere iscritto al servizio e agli inizi di ottobre MSN inizierà un test su larga scala, che coinvolgerà circa 500 dei principali inserzionisti di MSN più altri soggetti selezionati, come alcune aziende di search engine marketing. Nelle settimane successive, MSN Keywords accetterà sempre più inserzionisti.

Le pubblicità di MSN Keywords seguiranno lo standard 25/70, ovvero 25 caratteri per il titolo dell'inserzione e 70 per la sua descrizione. Verranno inizialmente mostrate solo in parte delle ricerche effettuate negli USA, alternativamente alle pubblicità fornite da Yahoo!, per analizzare quali dei due tipi di annunci renderà di più.

Via via che il sistema verrà perfezionato, le pubblicità di Yahoo! scompariranno gradualmente, fino a quando i risultati di ricerca presenteranno esclusivamente pubblicità di MSN Keywords.

Non sono stati forniti tempi certi per l'attivazione definitiva e completa del servizio, ma la previsione è entro la primavera del 2006.

Il sito di Yahoo! Korea che offre blog agli utenti, introduce un motore per la ricerca di informazioni pubblicate nei blog.
4 agosto '05 09:17:59
Il fatto che Yahoo! abbia in cantiere lo sviluppo di un motore di ricerca specializzato in feed e blog non è certo un mistero, ma visto che la società non fornisce indicazioni sulla possibile data di completamento dei lavori, gli osservatori tentano di individuare qualunque piccolo segnale che possa fornire indicazioni in merito.

Un chiaro segnale è appena giunto e consiste nell'aggiunta di un motore di ricerca specializzato in blog che Yahoo! ha aggiunto al proprio sito coreano nato per fornire blog agli utenti.

Questa novità, oltre a testimoniare il fatto che Yahoo! possiede già parte della tecnologia necessaria all'indicizzazione dei blog (parziale perché un motore per blog è assai diverso da un motore per feed), potrebbe rivelarsi un primo banco di prova del futuro motore per feed.

Capita infatti spesso che i motori di ricerca testino alcuni servizi rendendoli disponibili solo in alcun siti regionali prima di aprirli al grande pubblico con la pubblicazione sul sito principale.

Continuando la serie di test su Adwords, Google adesso permette agli inserzionisti di inserire descrizioni lunghe fino a 200 caratteri.
4 agosto '05 08:47:00
ThreadWatch segnala che Google sta invitando alcuni inserzionisti AdWords a provare una nuova caratteristica sperimentale delle pubblicità: le descrizioni lunghe.

Il nuovo tipo di inserzioni, in poche parole, manterrà esattamente le stesse caratteristiche delle pubblicità standard, con l'unica differenza che il testo relativo alla descrizione potrà essere esteso fino ad un massimo di 200 caratteri.

Google aggiunge inoltre che durante la sperimentazione il motore di ricerca alternerà le versioni standard delle pubblicità con quelle più lunghe e mostrerà diverse impaginazioni delle inserzioni lunghe per calcolare quali modelli ottengono i migliori risultati in termini di click.

Questa novità introdotta da Google arriva proprio dopo il recente annuncio dell'apertura della versione beta del Publisher Network di Yahoo!, che mette a disposizione dei propri inserzioni, tra le altre cose, anche la possibilità di creare annunci con descrizioni lunghe.

Ask Jeeves annuncia il nuovo sistema PPC. Nuovi uffici di Google a San Pietroburgo? API di Yahoo! Shopping per inserire contenuti nei siti web.
3 agosto '05 13:06:26
Notizie di questi giorni:


  • Ask Jeeves annuncia che il nuovo sistema PPC, Ask Jeeves Sponsored Listings, è già attivo per gli attuali clienti e che sarà aperto a tutti per il 15 agosto.

  • Search Engine Watch riporta alcune statistiche che mostrano che i servizi di Google e Yahoo! sui quali gli utenti trascorrono più tempo sono la posta e (per Yahoo!) la chat, non il motore di ricerca.

  • The Moscow Times pubblica un articolo nel quale si afferma che Google potrebbe essere interessato ad aprire degli uffici a San Pietroburgo e assumere 3.000 dipendenti.

  • Search Engine Roundtable segnala che Ask Jeeves ridurrà il numero dei risultati sponsorizzati nelle pagine dei risultati di ricerca, venendo incontro alle richieste di molti utenti.

  • Novità già segnalata in un'altra notizia del newsblog, ma che magari è sfuggita: ecco un video con una divertente pubblicità di Google Maps.

  • Yahoo! ha rilasciato una API per consentire ai webmaster di inserire sui propri siti web i contenuti di Yahoo! Shopping.


Yahoo! ha appena lanciato la versione beta del proprio network di pubblicità contestuali, destinato a far concorrenza ad AdSense.
3 agosto '05 11:55:06
Si chiama Yahoo! Publisher Network e riferirsi ad esso con "network di pubblicità contestuali" sembra una forte sottovalutazione di ciò che Yahoo! oggi ha annunciato alla comunità.

Tutte le informazioni fornite dal portale americano fanno infatti immaginare che il network appena creato da Yahoo! e che nella attualmente versione di prova è disponibile solo per gli utenti residenti in USA e solo dietro invito sia destinato ad offrire, a differenza di AdSense, molto più che semplici pubblicità contestuali.

Consultandosi con i webmaster e gli inserzionisti che hanno avuto modo di provare la versione alfa del network, Yahoo! ha compreso che esiste una forte richiesta da parte degli editori dei siti per ottenere non solo delle semplici pubblicità ma una serie di contenuti in grado di arricchire realmente le pagine web, come box di ricerca sul Web, pubblicità nei feed, pulsanti "Add to My Yahoo!", consigli per lo shopping, ricerche contestuali di Y!Q, e così via. Il network di Yahoo! potrebbe fornire tutto questo all'interno di una unica piattaforma di gestione.

L'idea che Yahoo! possiede del proprio network, dunque, si discosta fortemente da quella di un semplice circuito per la pubblicazione di pubblicità contestuale.

Persino riguardo la contestualizzazione stessa delle inserzioni, Yahoo! aveva in passato segnalato che in diverse occasioni basare le pubblicità sui contenuti delle pagine non è la migliore strategia possibile e che il rendimento delle pubblicità sarebbe potuto aumentare adottando criteri basati, ad esempio, sull'analisi dei temi ai quali l'utente si è interessato nelle ultime ore o giorni, acquisendo tali informazioni attraverso appositi sistemi di tracking delle azioni delle persone.

L'intervento sul blog di Yahoo! che annuncia il lancio ufficiale, dunque, è ben lontano dal rappresentare al momento l'inizio di una forte concorrenza per gli AdSense di Google o per le pubblicità di altri network già diffusi, sia a causa delle attuali limitazioni del servizio beta (ad invito e riservato agli inserzionisti statunitensi), sia per il fatto che Yahoo! dovrà ancora implementare diverse caratteristiche del servizio durante le prossime settimane.

Tuttavia, da quel poco che è possibile comprendere, il network di Yahoo! nasce sin d'ora per fornire agli inserzionisti un grado piuttosto alto di personalizzazione, gestione e analisi delle proprie inserzioni. La pagina di Yahoo! Publisher Network beta attualmente contiene solo un modulo per consentire a chi possiede i requisiti di far richiesta di iscrizione.

La divisione search marketing di Yahoo! fornisce alcuni basilari consigli per migliorare il grado di indicizzazione dei siti web.
3 agosto '05 10:45:21
Non capita tutti i giorni di osservare un motore di ricerca fornire informazioni e consigli per indicizzare meglio i siti web, ma Online Marketing Blog segnala che la newsletter di Yahoo! Search Marketing ha recentemente pubblicato un link ad un articolo contenente alcuni consigli per l'ottimizzazione delle pagine web.

E' importante precisare che non si tratta di consigli per il posizionamento. L'obiettivo di Yahoo!, come quello di qualsiasi altro motore di ricerca, non è certamente quello di fornire un aiuto per influenzare i risultati delle ricerche ma, più semplicemente, il fine è quello di dare qualche basilare consiglio per rendere il compito degli spider più facile e per consentire ai siti web poco indicizzabili di entrare anch'essi nell'archivio del motore di ricerca.

Yahoo!, pertanto, consiglia innanzitutto di:


  • individuare le giuste keyword, magari facendosi aiutare da colleghi, clienti ed amici;
  • posizionarle nei punti prominenti del documento HTML (titolo, meta tag e intestazioni);
  • controllare il codice del documento affinché eventuali tabelle non spostino in fondo al codice sorgente ciò che in realtà appare visivamente in cima;
  • usare normali testi e non immagini che raffigurano caratteri o codici Javascript che producono i testi dinamicamente;
  • usare link HTML, non Javascript, in quanto gli spider non sono spesso in grado di individuare l'URL di destinazione con certezza;
  • evitare i FRAME, per i problemi che più volte sono stati evidenziati con gli spider dei motori;
  • rendere le proprie pagine statiche, in quanto moltimotori di ricerca hanno difficoltà a leggere pagine create attraverso script CGI.

A prima vista sembrerebbe che Yahoo! stia dando consigli valevoli per il proprio motore di ricerca, ma in realtà si sta limitando a fornire dei consigli applicabili per tutti i motori. Alcuni suggerimenti forniti, come quello relativo ai FRAME, fanno infatti riferimento a problemi riscontrati principalmente dai motori di ricerca minori, non dai motori più sofisticati come quello di Yahoo!.

Insomma, Yahoo! ha pubblicato delle regole generali di webmastering per la realizzazione di buoni siti web, non consigli di posizionamento valevoli per il proprio motore di ricerca.

Dogpile presenta uno studio che evidenzia come i risultati di una ricerca su un motore differiscano molto da quelli mostrati dagli altri motori.
3 agosto '05 09:54:51
Il meta-motore di ricerca Dogpile spiega in questa pagina perché un meta-motore fornisce all'utente una migliore esperienza di ricerca rispetto all'utilizzo di un singolo motore, basando le proprie affermazioni su un recente studio [PDF] realizzato da Dogpile stesso in collaborazione con alcuni ricercatori universitari.

Secondo lo studio di Dogpile, solo l'uno virgola uno percento dei risultati di una ricerca sui principali motori sono identici. Questo significa che, in media, cercando su un singolo motore si perde la possibilità di individuare i risultati realmente migliori, quelli che solo un meta-motore riuscirebbe ad individuare consultando più motori contemporaneamente.

Più precisamente, la ricerca di Dogpile fornisce le seguenti statistiche sulla sovrapposizione dei risultati di ricerca tra i motori Google, Yahoo!, Ask Jeeves ed MSN:


  • L'84,9% dei risultati di un motore non vengono mostrati dagli altri quattro
  • L'11,4% dei risultati sono comuni a due dei quattro motori
  • Il 2,6% dei risultati sono comuni a tre dei quattro motori
  • L'1,1% dei risultati, come già detto, sono comuni a tutti e quattro i motori

Il documento redatto dai ricercatori di Dogpile mostra numerose altre statistiche.

Per rendere queste informazioni ancora più chiare e a beneficio di coloro che non sono disposti a fidarsi di una ricerca realizzata da chi avrebbe interesse a produrre i risultati diffusi, Dogpile ha prodotto una nuova versione del proprio strumento di comparazione dei risultati dei motori di ricerca, che adesso confronta anche i risultati di MSN, recentemente aggiunto alla lista dei motori interrogati da Dogpile.

Una comparazione dello strumento Flash di Dogpile

Lo strumento, sviluppato in tecnologia Flash, invita l'utente ad inserire dei termini di ricerca e poi evidenzia graficamente come i risultati tra i principali motori (Google, Yahoo!, MSN ed opzionalmente anche Ask Jeeves) differiscano (in media) consistentemente, fenomeno reso evidente dal fatto che le zone grafiche che lo strumento assegna ai risultati comuni a più motori appaiono generalmente vuote.

Uno strumento online interroga Weather.com ed estrapola informazioni meteo che vengono successivamente assegnate su una mappa di Google.
3 agosto '05 08:56:31
Tutti sembrano impazzire per Google Maps, tanto che iniziano a spuntare fuori persino dei divertenti video promozionali (non è chiaro se ufficiali o meno) sul servizio. E non accennano a diminuire gli strumenti online che sfruttano le API di Google Maps per creare nuovi servizi.

Google Weather Maps mostra le condizioni meteorologiche su una mappa di Google. Certo, lo strumento non può essere considerato concettualmente innovativo ma mostra come anche le idee già da tempo sfruttate possono acquisire interesse se implementate attraverso una mappa interattiva di Google.

Google Weather Maps interroga periodicamente Weather.com e crea un file XML contenete una lista delle condizioni meteo di diverse città, principalmente americane, ma con qualche eccezione europea o asiatica. In corrispondenza di ogni città, poi, lo strumento appone una icona che ne indica le condizioni del tempo, usando le familiari immagini del sole pieno o annuvolato.

Cliccando su ciascuna di questi segnaposto, appare il classico "fumetto" di Google Maps che fornisce indicazioni meteorologiche più specifiche sulla città a cui il segnaposto fa riferimento: temperatura, temperatura percepita, velocità del vento e condizioni del cielo (annuvolato, annebbiato, ecc.), oltre ad un link che punta ad una pagina di Weather.com contenente maggiori informazioni sulla località.

Search Engine Watch pubblica una lista di alcune richieste di brevetto presentate da Yahoo!, tra cui ne spicca una sulle ricerche relative ad un utente.
3 agosto '05 08:33:06
Questo intervento su Search Engine Watch contiene un elenco di richieste di brevetto che Yahoo! ha avanzato dallo scorso gennaio.

La lista fornisce una buona rappresentazione dell'ampiezza di intenti ed interessi che un motore di ricerca possiede in quanto le richieste di brevetto elencate spaziano dalle ricerche di informazioni personali di un utente al miglioramento dei risultati di ricerca analizzando e categorizzando l'archivio di query precedentemente immesse dagli utenti, da sistemi per lo scambio di denaro tra utenti ad un sistema VOIP.

Di uno dei brevetti elencati da Search Engine Watch abbiamo già discusso in passato, ma è consigliato rileggerlo perché fornisce interessanti spunti di riflessione ai SEO, in particolare sui metodi usati dai motori di ricerca per espandere le query al fine di ottenere maggiori e migliori risultati per una ricerca. Un ottimo cibo per gli esperti di posizionamento.

Jupitermedia ha ventuto ad Incisive Media il network ClickZ, di cui Search Engine Watch e gli eventi Search Engine Strategies fanno parte.
3 agosto '05 07:41:00
Search Engine Watch, probabilmente il più autorevole e seguito sito web sul search marketing è stato venduto per la cifra di 43 milioni di dollari dal proprietario Jupitermedia ad Incisive Media.

La vendita non riguarda solo Search Engine Watch ma l'intero network ClickZ, a cui fanno capo anche le conferenze itineranti di Search Engine Strategies.

Sul proprio blog, il CEO di Jupitermedia spiega le ragioni della vendita, causata dalla necessità di acquisire maggiore liquidità per finanziare ulteriormente la sezione di Jupitermedia dedicata alle immagini, JupiterImages, nei confronti della quale Jupitermedia nutre maggiori interessi.

L'acquirente, Incisive Media, è una società del Regno Unito che con questa mossa intende allargare i propri orizzonti sul mercato USA, acquisendo velocemente tutta la visibilità che Search Engine Watch e gli eventi SES possiedono da anni nel settore SEO.

Nonostante da più parti siano nati dubbi circa la possibilità che questa vendita potesse in qualche modo influire negativamente su Search Engine Watch, Danny Sullivan afferma in un intervento sul blog di Search Engine Watch che nonostante il cambio di proprietà i servizi manterranno la qualità finora offerta agli utenti.

Un interessante sito web italiano spiega alcune tecniche psicologiche che possono essere applicate per migliorare il rendimento delle pubblicità AdSense.
1 agosto '05 10:10:37
Il nome delle tecniche è un po' altisonante: "Tecnica del rimbalzo percettivo", "Tecnica del filtro consecutivo", "Tecnica della parola immaginata", ma Edentity Coach le spiega in modo tanto semplice e diretto che i numerosi riferimenti agli studi sulla psicologia della comunicazione online non spaventano affatto il lettore.

Edentity Coach è un sito italiano che discute della costruzione di pagine web adatte sia agli utenti che ai motori di ricerca. Tra i vari articoli pubblicati fanno spicco quelli che illustrano alcune tecniche per il miglioramento del rendimento di AdSense sfruttando serissimi e precisi principi di psicologia applicati alla comunicazione online e alla percezione visiva.

Ancora più interessante è il fatto che i criteri che stanno alla base delle suddette tecniche sono sempre valevoli e spesso applicabili non solo alla massimizzazione delle pubblicità AdSense ma anche ad altre situazioni in cui, più generalmente, si desidera incentivare un click o una generica interazione dell'utente con un elemento dell'interfaccia.

Per esempio, la tecnica del rimbalzo percettivo mira ad incrementare i click sulle pubblicità appaiandole con un box di iscrizione ad una newsletter e fruttando il piccolo stato di tensione che nasce nell'utente col domandarsi se iscriversi o meno (effetto Zeigarnik). La vicina pubblicità viene dunque trasformata in una "via di fuga" psicologica che l'utente sfrutta, cliccandola, per scaricare la tensione accumulata.

I contenuti offerti da Edentity Coach non si limitano alla massimizzazione del CTR delle pubblicità ma spaziano tra numerosi argomenti, quali il web writing professionale, il social networking e la progettazione delle interfacce utente.

Una lettura consigliata a tutti, dai grafici che progettano le interfacce senza tener conto delle implicazioni psicologiche ai webmaster che desiderano ottimizzare la rendita degli annunci pubblicitari.

Gmap Extras è uno script per il plugin Greasemonkey di Firefox che aggiunge alcune utili opzioni alle mappe di Google.
1 agosto '05 09:17:35
Gmap Extras è uno script per il plugin Greasemonkey del broser Firefox. Aggiungendolo alla lista degli script gestiti da Greasemonkey, Gmap Extras visualizza nuove opzioni e caratteristiche ogni qualvolta l'utente utilizzerà Google Maps sulla barra orizzontale presente proprio sopra la mappa.

La caratteristica più evidente è la presenza costante di un indicatore che mostra le coordinate geografiche (latitudine e longitudine) relative alla locazione centrale della mappa. Muovendo la mappa o agendo sui controlli per il ridimensionamento, l'indicatore fornito da Gmap Extras viene aggiornato in tempo reale. Se seguite questo newsblog, è probabile che giudicherete questa caratteristica alquanto utile, se collegata a quanto esposto in questa notizia di alcuni giorni fa.

La caratteristica forse più utile di Gmap Extras consiste però nella possibilità di salvare una qualsiasi visuale di Googme Maps assegnandole un nome, in modo da poterla richiamare in futuro semplicemente selezionandola da una lista. Si tratta praticamente di una sorta di bookmard di Google Maps, che risulterà comodo sopratutto a coloro che usano il servizio di Google con una certa frequenza. Per sfruttare questa ultima caratteristica è necessario che Firefox abbia installata una versione di Greasemonkey uguale o superiore alla 0.3.

Talk Digger è un nuovo strumento per il calcolo dei backlink provenienti dai blog e che mostra anche statistiche storiche e trend.
1 agosto '05 08:56:07
Talk Digger può sembrare all'apparenza uno dei tanti strumenti online per il calcolo dei backlink di un sito ma in realtà possiede alcune peculiari caratteristiche alle quali vale la pena dare un'occhiata.

Innanzitutto, Talk Digger è specializzato nel calcolo dei backlink provenienti dai blog. Lo strumento interroga infatti, oltre ai motori generalisti Google e MSN, sopratutto diversi motori di ricerca specialitzzati nell'indicizzazione di blog e feed, come Bloglines, Technorati, BlogPulse, PubSub, Icerocket, Feedster e BlogDigger.

Lo strumento si presenta dunque utile in particolar modo per i possessori di un blog che desiderano conoscere quali dei propri post sono stati ripresi dagli altri blog esistenti in rete. Ma l'utilità di Talk Digger va oltre in quanto, se l'utente ha attivato i cookie, è in grado di mostrare il trend di un blog, ovvero se il numero dei risultati riportati (i backlink) è superiore, inferiore o uguale a quello osservato nell'interrogazione precedente.

C'è di più: viene anche fornito un grafico che mostra il trend delle ultime sette ricerche effettuate attraverso lo strumento.

Talk Digger fornisce, infine, anche un comodo bookmarklet che consente di effettuare la ricerca dei backlink di qualunque pagina visualizzata dal browser semplicemente selezionando l'apposito bookmark.

Gigablast ha rilasciato una toolbar per Internet Explorer che consente di effettuare particolari tipi di ricerche.
1 agosto '05 08:41:22
Gigablast rilascia una toolbar per Internet Explorer che consente di effettuare alcuni tipi di ricerche piuttosto particolari.

Oltre alla consueta ricerca sul Web, la barra degli strumenti di Gigablast permette all'utente di cercare nei termini solo all'interno del sito visualizzato dal browser al momento della ricerca oppure, opzione ancora più esotica, cercare nei siti web linkati dalla pagina visualizzata.

Per ultimo, la toolbar può effettuare ricerche tra i siti web che l'utente ha inserito nei propri bookmark (siti preferiti), una possibilità che può risultare utile in più di un'occasione, specie per quanto riguarda la ricerca tra siti sullo stesso tema archiviati dell'utente nel corso del tempo.

La toolbar consente anche di evidenziare nel testo della pagina i termini cercati e include anche un sistema per il bloccaggio delle fastidiose finestre pop-up. Al momento il software è stato sviluppato solo per Internet Explorer, e Gigablast non specifica se e quando verrà prodotta una versione per Firefox.

Chiunque può adesso implementare, grazie ad appositi script, un tracker GPS che mostra su una mappa di Google la posizione di una persona in tempo reale.
1 agosto '05 08:24:16
Real Time GPS Tracker consiste in un insieme di script liberamente distribuibili che consente di implementare sui propri siti web un sistema GPS per la visualizzazione in tempo reale della locazione di una persona su una mappa di Google Maps.

Il sistema si presenta tutto fuorché immediato, ma del resto è stato creato per webmaster e smanettoni che non dovrebbero fermarsi di fronte alle prime difficoltà tecniche. Il tracciatore necessita che l'utente installi diversi software sul proprio server, come il linguaggio di programmazione Python e l'application zerver Zope.

Gli script forniti sulla pagina del Real Time GPS Tracker consistono in uno script in Python che va lanciato sul dispositivo in movimento e che si occupa della spedizione delle coordinate al server Zope, un altro script in Python che archivia le coordinate in un database MySQL ed uno script in linguaggio Javascript che visualizza e aggiorna la mappa di Google Maps, interrogando periodicamente e in maniera asincrona il server Zope per ottenere la posizione aggiornata.

Sulla pagina dei realizzatori del software è presente una dimostrazione del suo funzionamento.

Feed RSS completo, contiene tutte le notizie (se non sai a che serve, leggi qua):
http://www.motoricerca.info/news/feed.rss

Feed RSS personalizzato. Seleziona le categorie di tuo interesse e apparirà un link al feed che contiene solo notizie di quelle categorie:
 

Discussioni Eventi Google Interviste
Motori di ricerca Motoricerca.info MSN Notizie brevi
Strumenti Tecnologia Yahoo!

< Torna alla pagina principale delle notizie

<< Torna alla pagina principale di Motoricerca.info