Web sommerso. La truffa delle ricerche on line
Chi naviga in rete sa che l’utilizzo dei motori di ricerca e’ un passaggio fondamentale per ottenere informazioni in maniera veloce e precisa. Non si puo’ prescindere, dunque, dal collegarsi a crawler famosi, che meglio possano soddisfare la nostra ricerca di informazioni. Ma non e’ tutto oro cio’ che luccica.
Le tre generazioni dei motori di ricerca
Navigare in rete, oggi soprattutto, e’ sinonimo di motori di ricerca. L’enorme importanza che i crawler (cosi’ si chiamano i motori di ricerca) e’ talmente evidente e conosciuta che non ci si meraviglia piu’ di tanto se Google e’ uno dei siti piu’ visitati al mondo. Qualunque informazione che l’utente sa di poter ottenere in rete parte in maniera quasi esclusiva da un crawler.
Nati con lo scopo di facilitare l’utilizzo delle pagine Web nei primi anni di vita del WWW, questi motori avevano modalita’ di funzionamento piuttosto semplici. Con l’ausilio di agenti informatici, chiamati «bot», i primi motori di ricerca indicizzavano il maggior numero possibile di pagine web e restituivano all’utente quelle pagine che contenevano (in maniera piu’ o meno frequente) le parole ricercate. Non veniva svolta alcuna attivita’ di studio ulteriore sulle pagine indicizzate, poiche’ l’obiettivo primario dei primi search engine era quello di aiutare il navigatore a orientarsi nel «mare magnum» della rete, senza che perdesse in maniera irreversibile la bussola del suo viaggio. Quei pochi (rispetto a oggi) risultati che venivano restituiti dai crawler negli anni passati erano certamente un ottimo punto di partenza per il navigatore.
Per facilitare l’ingresso di alcuni siti web nelle «grazie» di un motore di ricerca, i webmaster avevano giustamente puntato su un uso accurato dei meta tag per il proprio sito. I meta tag non sono altro che informazioni in linguaggio HTML, che vengono immediatamente visualizzate dal programma browser del visitatore. Esse rimangono nascoste a un esame superficiale, ma costituiscono un importantissimo (e sempre attuale) strumento per attirare l’attenzione dei bot al contenuto del proprio sito web. Attraverso i meta tag, colui che crea un sito non solo e’ in grado di descrivere il contenuto e i servizi offerti, ma puo’ anche inserire parole chiave, che, se particolarmente efficaci, permettono di rendere piu’ visibile il proprio sito web nei risultati dei motori di ricerca.
Bisogna ricordare, pero’, che il numero delle pagine nel corso degli anni e’ aumentato in maniera vertiginosa e, dunque, quel determinato modo di elaborazione fatto dai crawler avrebbe portato al collasso l’intero funzionamento delle ricerche on line. Infatti, come gia’ accennato, i primi motori di ricerca catalogavano solamente le pagine senza svolgere alcun tipo di analisi sui risultati ottenuti. Aumentando le pagine web di conseguenza si andava generando un disorganizzato e confuso archivio che non avrebbe fornito alcuna informazione davvero valida per l’utente (solo Google afferma di aver indicizzato ben sei miliardi di pagine, ma si tratta di una minima parte del Web). Nel linguaggio informatico, infatti, l’ottenimento di troppe informazioni, confuse e non dettagliate, equivale ad assenza totale di informazioni.
Nel corso degli anni, dunque, ha preso forma una «seconda generazione» di motori di ricerca. Mentre quella precedente basava la propria catalogazione esclusivamente sul testo della pagina e sulla densita’ delle parole di ricerca, con la seconda generazione i crawler hanno iniziato ad analizzare la popolarita’ delle pagine ricercate e la permanenza dei visitatori su queste pagine. Per misurare la popolarita’ di una pagina web, si prendono in considerazione non solo la quantita’ dei link che puntano su uno specifico sito web, ma anche la qualita’ di questi link: in poche parole, se un sito viene linkato da un importantissimo portale web oppure da un sito che ha un numero elevato di visitatori, automaticamente si ottiene un dato attendibile per incrementare l’importanza di questo sito e per farlo salire nella classifica dei risultati. Per misurare la permanenza, i crawler utilizzano complicati software che elaborano una media del tempo che si spende per visitare un sito o una determinata pagina web. Oggi con la enorme diffusione di collegamenti in banda larga, questo dato e’ particolarmente importante e significativo.
Nella terza generazione di crawler, che si sta affacciando solo ora in rete, a farla da padrone saranno ancora piu’ complessi calcoli matematici. Poiche’ finora sono gia’ tantissimi i siti indicizzati dai motori, si puntera’ a prendere come punto di riferimento un certo numero di questi siti (e si dara’ loro un punteggio, chiamato «page vector»). Tutte le pagine di nuova creazione, dopo essere state processate dai crawler, saranno confrontate con quei siti di riferimento (chiamati «core sites»). Dopo questi calcoli complicati, il search engine decidera’ che «peso» assegnare alle nuove pagine web e come impostare la classifica dei risultati di ricerca.
La lotta all’ultimo click
Dopo aver affrontato l’analisi di questo peculiare studio realizzato da chi gestisce un motore di ricerca, non bisogna dimenticare quelli che costituiscono la «materia prima» dell’intero settore: i siti web.
Ciascun sito, sin dalla sua realizzazione, cerca di raggiungere la vetta dei risultati delle ricerche che afferiscono al suo settore di competenza. Si tratta di una dura lotta che vede impegnati, oltre ai content provider, i webmaster che cercano sempre nuovi stratagemmi per uscire almeno nella prima pagina dei risultati.
Fino a poco tempo fa, l’impegno maggiore degli amministratori di siti era profuso nei meta tag, che, come si e’ detto, rappresentavano uno dei parametri primari presi in considerazione dai crawler. Oggi la tecnologia ha raggiunto traguardi ulteriori e i meta tag non sono piu’ l’obiettivo primario dei search engine. L’attenzione oggi e’ concentrata su una serie di trucchi, che pero’ possono costituire un pericoloso strumento per i siti web.
Fra i tanti, per esempio, vi sono le c.d. «doorway pages», ovvero pagine che contengono solo parole chiave, sicuramente illeggibili per un normale utente, ma comprensibili da un bot informatico. Poi vi sono i c.d. «hidden texts», ovvero parole nascoste all’interno di pagine web; per nascondere del testo, i webmaster usano colorare i caratteri con lo stesso colore dello sfondo delle pagine web, in modo da essere invisibili all’occhio umano, ma non ai bot.
Motori di ricerca importanti come Google, infatti, non amano affatto i numerosi sistemi escogitati dai webmaster per far si’ che i loro siti spuntino i migliori posizionamenti. Di conseguenza, ogni volta che si scoprono artefizi non completamente ortodossi, Google ha il potere di sanzionarli immediatamente, non menzionandoli nelle sue ricerche.
Il Search Engine Optimization
Di fronte a questa situazione di fatto, sono nate in questi anni aziende specializzate proprio ad assistere i webmaster nell’ottenimento dei primi posizionamenti nei piu’ famosi motori di ricerca. Tutte queste societa’ di servizi hanno dato vita a un nuovo settore, il c.d. «Search Engine Optimization», ovvero questa nuova attivita’ che serve a ottimizzare le potenzialita’ di un sito web per farlo finire in cima alle ricerche degli utenti.
Tante sono le tecniche che utilizzano i «Search Engine Optimizers» (SEO). Oltre a quelle citate poc’anzi, ve ne sono molte altre e tante altre sono inventate giorno dopo giorno. La strategia di base, comunque, resta sempre la stessa: ingannare il motore di ricerca facendogli credere che quel determinato sito dispone di una presenza in rete superiore a quella effettivamente detenuta.
Una delle tecniche che desta maggiore attenzione e’ quella del c.d. «cloacking», ovvero l’attivita’ di realizzare domini fantasma in cui vengono posizionate pagine appositamente create per migliorare i risultati delle ricerche e i meccanismi di redirezione dei browser. Si tratta semplicemente di siti «fotocopia» che utilizzano un indirizzo molto simile a quello originale, per esempio: original.com e web.original.com. Questo ultimo sito conterra’ una serie di parole che si riferiscono all’attivita’ del sito copiato e che verranno prese in considerazione dai crawler. L’enorme vantaggio di questa tecnica consiste nella circostanza che vi sono siti del tutto autonomi, che amplificano la presenza di una societa’ (nel nostro caso original.com) che continua a gestire il proprio sito. I search engine ogni volta che trovano un simile sito lo indicizzano e lo analizzano. Quando l’utente digitera’ una parola relativa all’attivita’ svolta da original.com, nei risultati di ricerca spunteranno anche questi domini fantasma. Per i crawler si tratta semplicemente di siti web cui reindirizzare il navigatore, ma in realta’, una volta clickato su un risultato di ricerca, l’utente verra’ diretto subito verso il sito original.com, restando solo per qualche impercepibile attimo su web.original.com.
Questi siti web fantasma sono realizzati con grande attenzione da societa’ specializzate, che promettono ai webmaster (dietro ovvio pagamento di corrispettivo) di raggiungere in pochissimo tempo i primi posti delle classifiche.
Google, per esempio, diffida i siti web dall’utilizzare tecniche di questo genere, poiche’ falsano incredibilmente i risultati delle ricerche e invita a segnalare le attivita’ di cloacking.
Problemi legali dei SEO
Da quanto emerge, i SEO svolgono un’attivita’ al limite della legalita’. Fino a quando si limitano ad assistere un webmaster nel miglioramento delle potenzialita’ del proprio sito non vi sono affatto problemi giuridici: suggerimenti nello scegliere i titoli piu’ adatti al contenuto del proprio sito, nel realizzare pagine di indice che verranno prese sicuramente in considerazione dai crawler, nel creare pagine di link ad altri siti web particolarmente importanti, ecc. Si tratta di attivita’ del tutto lecite che consentono a un webmaster di ottimizzare davvero le risorse del proprio sito.
Diverso dall’ottimizzare, invece, e’ realizzare domini fantasma per ingannare i crawler.
Infatti, questa tecnica danneggia due differenti gruppi di soggetti.
In primo luogo, i motori di ricerca vengono ingannati, poiche’ ritengono di aver indicizzato un sito web «funzionante», invece si trovano di fronte solo a un alter ego privo di veri e propri contenuti.
I navigatori sono altrettanto vittime di questa attivita’ fraudolenta, ma non ne risentono affatto, poiche’ non percepiscono neppure di essere stati reindirizzati verso altri siti web e ottengono lo stesso le informazione richieste. In realta’ si potrebbe ipotizzare in questo caso la violazione delle norme sulla disciplina della pubblicita’, cosi’ come la Direttiva CEE n. 450 del 1984 ha introdotto e il Decreto Legislativo 74/1992 ha recepito. Secondo queste norme, la pubblicita’ non solo ha una amplissima definizione (e quindi puo’ certamente inglobare il contenuto di una pagina web promozionale), ma deve rispondere a tre requisiti: chiarezza, verita’ e correttezza. Quest’ultimo requisito, in effetti, verrebbe a mancare qualora una azienda facesse uso di domini fantasma, poiche’, come si vedra’ piu’ avanti, non e’ un’attivita’ del tutto corretta nei confronti degli altri operatori del mercato.
Infine, i concorrenti dell’azienda (che si avvale dei domini fantasma) subiscono un grave danno da questa attivita’. Viene realizzata, infatti, una forma di concorrenza sleale che arreca detrimento a tutte quelle aziende che non ne fanno uso.
La fattispecie qui analizzata, infatti, va sussunta sotto la disciplina dell’art. 2598, n. 3, del Codice Civile, che tratta gli atti contrari alla correttezza professionale. Secondo questa norma, compie atti di concorrenza sleale chiunque si vale direttamente o indirettamente di ogni altro mezzo non conforme ai principi della correttezza professionale e idoneo a danneggiare l’altrui azienda. All’interno di questa norma «di chiusura» vanno fatti rientrare tutti quegli atti che sono contrari al parametro della correttezza professionale. Fra questi vi sono i casi di pubblicita’ menzognera, concorrenza parassitaria, boicottaggio economico, vendita sotto costo dei prodotti, ecc. Ebbene, il cloacking puo’ essere facilmente fatto rientrare all’interno di questa normativa. Con esso si cerca di avvantaggiare un’azienda con metodi che non sono il frutto di una pulita attivita’ concorrenziale, e quindi del rispetto di quelle norme di costume su cui si basa il concetto di correttezza professionale. Si fa uso, invece, di stratagemmi tecnici che vanno al di la’ di qualunque normale attivita’ pubblicitaria, poiche’ consistono in una falsificazione dei dati relativi alla presenza effettiva di un’azienda in rete.
Il rischio truffa delle ricerche on line
Secondo quanto precisano importanti motori di ricerca, tutti i siti che cercano di falsare i propri dati rischiano di essere esclusi dalla indicizzazione.
Questi crawler sottolineano inoltre che e’ rischioso affidarsi alla assistenza di SEO poco raccomandabili, poiche’ promettono risultati che in molti casi sono irrealizzabili.
Google, per esempio, conferma che «Nessuno puo’ garantire che il Vostro sito compaia al primo posto nei risultati di Google» e che e’ opportuno valutare con estrema attenzione l’attivita’ di consulenza che alcuni SEO offrono in rete. Il rischio, pertanto, e’ di essere truffati.
Scritto da
Commenta!