Home » Focus del mese

Google modifica sistema di classificazione: possibili azioni degli utenti per i danni ricevuti

8 Dicembre 2003 Commenta

Il primo motore di ricerca del mondo ha modificato il suo sistema di classificazione delle pagine Web, provocando l’ira dei gestori dei siti di e-commerce, i quali hanno lamentato l’inopportunita’ di una modifica svantaggiosa avvenuta in un periodo chiave per loro, quello delle feste natalizie.
Secondo il nuovo metodo adottato da Google, alcuni siti web che arrivavano in testa alle pagine dei risultati delle ricerche, si trovano adesso in posizioni piu’ basse.
Purtroppo sembra che la modifica degli algoritmi (le formule matematiche che permettono di stilare la classifica), destinata ad aumentare la pertinenza dei risultati, abbia fatto scivolare dalle prime posizioni soprattutto i commercianti. A seguito di tale modifica molti commercianti americani stanno addirittura pensando di citare in giudizio il motore di ricerca, per i danni ricevuti. Molti, addirittura, avanzano l’ipotesi che questa modifica della classifica serva prima di tutto gli interessi di Google, essendo passati in alto alle pagine dei risultati i link promozionali commercializzati dallo stesso motore di ricerca.
In altre parole, se un cyber commerciante accettasse di pagare per essere presente negli spazi “AdWords”, allora la sua offerta sarebbe considerata sufficientemente pertinente per figurare in alto nelle pagine dei risultati.
I responsabili di Google hanno naturalmente respinto tutte le accuse sostenendo che il motore sta solo cercando di migliorare la qualita’ del servizio per i suoi utenti.

Il “caso” di Google e’ sicuramente destinato a far discutere molto ed e’ una logica conseguenza dell’enorme importanza che ormai stanno assumendo i motori di ricerca nel mare sterminato di dati e documenti proprio di Internet.
Come e’ noto l’affermarsi e il diffondersi dell’utilizzo di reti telematiche, in particolare di Internet, porta un elemento nuovo e per molti aspetti rivoluzionario. L’accesso all’informazione avviene, in questa prospettiva reticolare, in modo diffuso; l’utente e’ per cosi’ dire immerso in una massa di dati ricca ma disordinata che spazia da un polo all’altro del globo terrestre. L’ovvia conseguenza di questa nuova dimensione e’ la prevalenza di un tipo di ragionamento associativo rispetto a quello deduttivo, al quale siamo culturalmente piu’ abituati. La modalita’ ipertestuale, che sta alla base di Internet, e’ la manifestazione piu’ evidente di questo processo mentale.
Alla visione di banche dati centralizzate, che pure hanno indiscussi vantaggi, si va affiancando la visione piu’ ampia di una informazione distribuita, dislocata cioe’ in piu’ punti della Rete.

I vantaggi e gli svantaggi delle due soluzioni sono in realta’ per cosi’ dire speculari. Le principali caratteristiche degli archivi centralizzati sono rappresentate da informazioni strutturate, sistemi di reperimento omogenei e piu’ sofisticati, registrazione uniforme dei dati. Nel sistema ad informazione diffusa mancano gli elementi sopra descritti con evidenti riflessi negativi ma sono presenti altri vantaggi quali, innanzi tutto, la ricchezza di informazione, l’ampiezza della diffusione, la responsabilita’ dei dati (l’informazione risiede dove nasce), la possibilita’ di aggiornamento tempestivo, l’agilita’ nella creazione degli archivi. In sintesi, gli aspetti positivi degli archivi centralizzati costituiscono gli aspetti problematici degli archivi diffusi e viceversa. Il regno di Internet si presenta come un mondo di anarchia, dove ciascuno mette in linea ogni tipo di materiale nelle forme piu’ diverse: elenchi, banche dati, testo integrale, riferimenti. Il panorama, quindi, e’ talmente vasto ed eterogeneo da rendere particolarmente difficile il reperimento delle informazioni ricercate.
Allo scopo, quindi, di sfruttare al meglio le potenzialita’ di Internet e’ necessario ricorrere a strumenti, come guide, motori di ricerca specifici, intelligent agent che consentano all’utente di orientarsi e ottenere delle informazioni pertinenti, ristabilendo un ordine fra il disordine. Ma affinche’ tali strumenti possano essere efficienti e’ necessario che siano coordinati fra di loro: l’elemento indispensabile che sta alla base di questa nuova filosofia e’ infatti proprio quello della cooperazione che non significa solo comunicarsi dati, ma significa, in prospettiva, concordare strategie, uniformare certi canoni di base (per esempio rendere omogenee le citazioni) in modo da evitare per quanto possibile la dispersivita’ che puo’ divenire fonte di disinformazione.

L’esigenza di disporre di strumenti di aiuto alla ricerca, almeno a livello generale, e’ stata avvertita fin dall’inizio, tant’e’ vero che esistono in Rete guide, intelligent agent e motori di ricerca.
Le guide sono di tipo eterogeneo; nella maggior parte dei casi sono raccolte di link organizzati per materie o su singoli argomenti oppure elenchi di siti di un determinato tipo (per esempio, in ambito giuridico amministrativo gli indirizzi di tutti i ministeri o delle piu’ importanti reti civiche), talvolta accompagnati da note di commento o illustrative.
Gli intelligent agent sono invece programmi che filtrano le informazioni in base ad un interesse particolare dell’utente, memorizzandone le scelte e costruendone la domanda. Oggi sono considerati il futuro della ricerca di informazioni su Internet e costituiscono quindi oggetto di studio da parte di molti produttori di software anche se allo stato attuale sono ancora una chimera.

I motori di ricerca (ad es. Google, AltaVista, Excite, HotBot, Infoseek, Lycos, Northern Light) accedono ai siti Web utilizzando particolari software denominati crawler o spider, che scaricano il contenuto delle pagine Web; tali pagine in seguito indicizzate in locale, andranno a costituire, insieme ai loro URL, il database del motore di ricerca.
La formazione degli indici dei motori di ricerca avviene grazie ad indicizzatori che, sebbene possano essere dotati delle piu’ avanzate tecnologie probabilistiche di analisi testuale per l’estrazione delle parole chiave, non possono fornire risultati qualitativamente comparabili ad un’analoga attivita’ umana.
L’operazione di download di tutte le pagine di un Web server (effettuata frequentemente al fine di mantenere aggiornato il database) comporta un oneroso aumento del traffico della rete: per ovviare a tale problema sono stati proposti sistemi che indicizzano in locale presso ogni web server il contenuto e che inviano al motore di ricerca (o a un sistema intermedio) solo tale indice, di dimensioni notevolmente inferiori rispetto all’intero contenuto del web server.

L’utente, dal suo canto, interroga il database compilando stringhe di ricerca frutto della combinazione di termini con operatori booleani o posizionali. I risultati delle sessioni di ricerca, anche se effettuate in base a stringhe complesse ed articolate, si presentano a volte di scarsa utilita’, per i seguenti motivi:
• rumore, “amplificato” dalla mole di documenti di natura eterogenea presenti in Internet;
• silenzio, causato dalla mancanza di una categorizzazione dell’informazione;
• attualita’ dei riferimenti trovati, cioe’ effettiva esistenza del nodo di destinazione.
Ogni motore ha caratteristiche particolari che lo rendono differente dagli altri come la facilita’ d’uso, la tempestivita’ di aggiornamento, la potenza elaborativa, il tipo di informazioni contenute. Nonostante le perplessita’ manifestate prima, i motori di ricerca rimangono lo strumento piu’ utile di reperimento di informazioni, soprattutto se l’utente, che in questo approccio svolge una funzione importante, imposta la ricerca in modo efficiente e corretto.
In particolare Google si basa su un software (spider o robot) che analizza le pagine, le classifica secondo i contenuti che sono in grado di leggervi, e le aggiunge al database. Il nome crawler (to crawl, strisciare) deriva dal fatto che gli spider si “spostano” di pagina in pagina seguendo i link che trovano.

I motori di ricerca come Google presentano indubbiamente vantaggi in quanto possono indicizzare numerose pagine di uno stesso sito. Gli spider analizzano incessantemente nuove pagine, quindi l’archivio dei motori automatici e’ ampio e aggiornato.

Ma tali motori di ricerca presentano anche svantaggi poiche’ non riescono ad esaminare tutte le pagine allo stesso modo, hanno difficolta’ ad es. con quelle dinamiche.
Non sempre restituiscono risultati attinenti alla ricerca. I criteri secondo i quali i motori automatici decidono quale pagina e’ piu’ rilevante e quindi la presentano prima di un’altra nei risultati di ricerca e’ basato su un algoritmo matematico che cambia frequentemente e non e’ pubblico, di conseguenza (ed e’ proprio quello che e’ successo recentemente) il ranking o la presenza stessa delle pagine dentro il motore di ricerca sono soggetti a cambiamenti improvvisi per manutenzione dei database o perche’ nuove pagine ne prendono il posto.

Scritto da

Commenta!

Aggiungi qui sotto il tuo commento. E' possibile iscriversi al feed rss dei commenti.

Sono permessi i seguenti tags:
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>