Home » Focus del mese

Motore di ricerca intelligente. Non condizionato da chi paga per le prime posizioni.

15 Ottobre 2003 Commenta

Il primo motore di ricerca ‘intelligente’, che verra’ messo in vendita entro la fine di quest’anno, è di IBM, la nota societa’ leader nel settore dell’informatica che ha messo a punto WebFountain e, assicura l’azienda produttrice, rivoluzionera’ lo stesso concetto di ricerca sul web. Il software permettera’ infatti alle aziende di identificare, analizzare e valorizzare le nuove e molteplici opportunita’ di business offerte dalla rete in maniera piu’ rapida e conveniente.
WebFountain, in pratica, puo’ essere considerato un surrogato dell’opinione pubblica e si differenzia dagli attuali motori di ricerca per la sua ‘democraticita’’: gli strumenti adottati oggi per le ricerche sul web sono infatti molto spesso condizionati dai soldi di chi paga per comparire nelle prime posizioni (si parla di introiti per 2 miliardi di dollari per il solo 2003). L’approccio di WebFountain, concepito inizialmente per l’industria musicale, all’analisi dei testi invece, e’ multidisciplinare: la tecnologia messa a punto da IBM e’ in grado di leggere e capire il testo del Web, usando un linguaggio naturale per trovare le correlazioni tra le parole.
Il nuovo strumento di ricerca e’ capace di analizzare milioni di dati a settimana e permette di identificare tendenze, schemi e relazioni all’interno di enormi quantita’ di dati testuali semistrutturati e non strutturati.
Le aziende cosi’ possono conoscere la reazione del mercato al loro prodotto, collezionando in pochi minuti informazioni impossibili da scovare con i tradizionali metodi manuali. Il processo di reperimento dei dati coinvolge infatti milioni di siti web, miliardi di pagine testuali. Le fonti usate, grazie agli accordi di IBM con partner esterni, sono tantissime e spaziano dalle pagine Internet ai weblog, dai documenti aziendali ai newsgroup.

Una bella sfida quella che l’IBM iniziera’ gia’ da quest’anno con un motore di ricerca per il quale ha investito oltre 100 milioni di dollari: un investimento enorme, nella considerazione che i tradizionali motori di ricerca richiedono costi decisamente inferiori e possono contare sugli introiti derivanti dalla pubblicita’. Ma stando alle previsioni i risultati di WebFountain dovrebbero essere eccezionali e c’e’ da giurarci che non tradiranno le attese.
L’IBM ha deciso di puntare tutto sull’intelligenza artificiale e l’aspirazione a tale “forma” di intelligenza e’ vecchia quanto la capacita’ dell’uomo di riflettere su se’ stesso, sul mondo che lo circonda e sul suo modo di percepirlo e di modificarlo. Sin da quando ha avuto mezzi tecnici sufficienti, l’uomo si e’ dedicato alla costruzione di macchine e meccanismi capaci  di simulare un comportamento intelligente (MARIANI).

Tuttavia e’ solo da poco tempo che sono disponibili le tecnologie adeguate per lo sviluppo di sistemi intelligenti cosi’ che, quasi simultaneamente, si e’ giunti nei paesi avanzati a considerare di fondamentale importanza l’intelligenza artificiale ed i sistemi esperti in particolare.
Lo studio dell’intelligenza artificiale e’ senz’altro uno dei campi piu’ stimolanti che si e’ sviluppato dall’avvento della tecnologia dei computer. Esso coinvolge varie e diverse discipline, come ad esempio la filosofia della mente, la psicologia cognitiva, la linguistica, oltre alla fisica, alla matematica e ad altri campi della scienza e della meccanica  relativi specificamente alla realizzazione delle macchine.

Parallelamente agli sviluppi della c.d. informatica “classica”, che studia algoritmi e sequenze di istruzioni e procedure, si e’ sviluppata una ricerca per tentare di simulare ed emulare attraverso i computer alcuni dei comportamenti ritenuti caratteristici dell’intelletto umano.  Questa ricerca ha preso il nome di Intelligenza Artificiale.
In sintesi, l’intelligenza artificiale e’ quella parte della scienza dei computer riguardante lo studio e la creazione di sistemi progettati in modo da avere quelle stesse caratteristiche che associamo all’intelligenza umana: comprensione del linguaggio, capacita’ di imparare, capacita’ di risolvere problemi e cosi’ via. Le ricerche in questo campo si sono sviluppate gia’ a partire dal 1950, suscitando sia diffidenze per gli eventuali effetti sulla nostra societa’, sia interesse ed entusiasmo nell’industria informatica. Cio’ che  in ogni caso si puo’ affermare con certezza  e’ che i programmi d’intelligenza artificiale giocheranno un ruolo importante nell’evoluzione della scienza dei computer.
La logica matematica ha avuto grande rilevanza per lo sviluppo dell’intelligenza artificiale: gia’ i primi sistemi logici di Frege, Russel e Tarski mostrarono che alcuni aspetti del ragionamento logico potevano essere facilmente formalizzati in una struttura.
Questo ha continuato ad essere un campo di ricerca dell’intelligenza artificiale anche perche’ i sistemi logico-deduttivi sono stati sperimentati con successo.
Ma i primi computer erano semplici calcolatori numerici che non avevano nessuna reale intelligenza. Si deve a studiosi come Church e Turing l’intuizione che i numeri non erano un aspetto essenziale della computazione. In particolare Turing, considerato il padre dell’intelligenza artificiale, invento’ un modello di calcolo non numerico, e argui’ che il meccanismo di calcolo poteva agire anche in modo intelligente.

Da queste idee si sviluppo’, con Turing, Babbage e Von Neumann, la convinzione che fosse possibile progettare e costruire macchine piu’ articolate, capaci di elaborare programmi in grado di svolgere attivita’ piu’ complesse quali, ad esempio, giocare a scacchi o tradurre testi da una lingua ad un’altra.

Per comprendere i fondamenti dell’intelligenza artificiale e’ necessario chiarire la nozione d’intelligenza naturale che comprende elementi diversi e di varia complessita’. Con quest’ultima locuzione, infatti, deve intendersi quel potenziale innato, di cui e’ dotato ogni essere umano, necessario per formulare valutazioni giuste, per profittare dell’esperienza e risolvere adeguatamente problemi. L’intelligenza, inoltre, consiste di un insieme di fenomeni con strutture e caratteristiche proprie che rivelano la capacita’ individuale di selezionare e di organizzare la molteplicita’ degli aspetti esterni in classi significative in modo da trattare oggetti e situazioni diverse come equivalenti. Poiche’  ogni attivita’ conoscitiva e’ essenzialmente un’attivita’ di classificazione e di presa di significato, si tende ad includere nello studio dell’intelligenza anche quei processi mediante i quali un individuo trae informazioni dall’ambiente, includendovi anche le percezioni, le abitudini e gli adattamenti sensoriomotori elementari. Secondo alcuni autori l’intelligenza e’ una struttura superiore comprensiva di tutti i processi conoscitivi che essa organizza, pone in equilibrio e potenzia.
Lo studio dell’intelligenza in funzione dell’eta’, conferma la fondatezza di tale affermazione, la capacita’ di pensare logicamente, infatti, si sviluppa progressivamente nel bambino. Dapprima essa si basa su azioni sensoriomotorie, poi su rappresentazioni simboliche e, infine, su operazioni logiche; le percezioni e i movimenti sfociano nel pensiero grazie allo sviluppo della capacita’ di sostituire un’azione o un oggetto mediante un segno (una parola, un segno grafico, un simbolo).
Appare evidente che il concetto d’intelligenza ha molte dimensioni, ma non tutte possono essere elaborate nella macchina. Esistono vari tipi d’intelligenza naturale, che e’ bene distinguere per una maggiore comprensione dell’intelligenza artificiale (MARIANI).
Dalle diverse definizioni e descrizioni dell’intelligenza che si sono succedute nel tempo si puo’ evincere che essa e’ un insieme di varie capacita’ come ad esempio: comprendere, classificare, formulare giudizi, ragionare, elaborare concetti, dare risposte appropriate e cosi’ via; quindi un sistema, sia esso naturale o artificiale, con una sola di queste capacita’ e’ assai limitato.

Inoltre la natura multidimensionale dell’intelligenza suggerisce che alcuni elementi saranno piu’ di altri agevolmente strutturabili in sistemi artificiali: e’ piu’ facile rappresentare elementi in qualche modo quantificabili e misurabili, che elementi di giudizio e di creativita’.
Definire quindi l’intelligenza artificiale e’ arduo quanto definire l’intelligenza naturale e benche’ molte siano state le definizioni date dai vari studiosi, tutte portano ad una sola conclusione: la ricerca nel settore dell’intelligenza artificiale non puo’ prescindere dai risultati raggiunti dalla ricerca in altre discipline: ad esempio e’ impossibile far capire al computer un linguaggio naturale senza uno studio della sintassi e della semantica di quel linguaggio.
Ad ogni modo e’ possibile affermare che gli obiettivi dell’intelligenza artificiale sono essenzialmente due:
• approfondire e comprendere  i principi che rendono possibile l’intelligenza (il computer viene usato per simulare le teorie sull’intelligenza);
• progettare computer dotati di capacita’ simili a quelle umane senza, pero’, tentare di imitare esattamente i processi informativi degli esseri umani.
I due approcci sono, naturalmente, correlati in quanto il risultato delle ricerche su come la gente risolve i problemi puo’ spesso dare notevoli contributi per le tecniche di problem-solving attraverso l’uso dei computer.
Si puo’ tentare di definire l’intelligenza artificiale come quella scienza tendente a sviluppare modelli computazionali di comportamento intelligente, in modo che gli elaboratori possano eseguire compiti che richiederebbero intelligenza da parte dell’uomo.
Questi compiti possono essere suddivisi in:
• compiti del senso comune, che possono essere svolti da qualsiasi persona adulta normale, anche priva di una formazione specifica (come parlare la propria lingua madre, riconoscere oggetti e forme, comprendere la trama di racconti, ecc.);
• compiti da esperti, che normalmente presuppongono conoscenze e abilita’ specifiche (come diagnosticare malattie, progettare sistemi informatici, effettuare analisi chimiche, ecc.).

L’intelligenza artificiale, quindi, comprende, da un lato, la c.d. scienza cognitiva, che studia l’intelligenza al fine di rappresentarla in modelli che possano essere trasferiti in applicazioni informatiche, d’altro lato, l’intelligenza artificiale in senso stretto, che si occupa delle tecnologie per tali applicazioni (SARTOR).
Quest’ultima, a sua volta, e’ stata divisa in intelligenza artificiale forte, intesa a duplicare la mente negli elaboratori, cioe’ a creare computer in grado di comprendere e di possedere stati cognitivi, ed in intelligenza artificiale debole intesa a realizzare sistemi informatici capaci di prestazioni normalmente attribuite all’intelligenza umana, pur senza assumere alcuna analogia tra le menti e i sistemi informatici.

Questa ripartizione dell’intelligenza artificiale e’ sicuramente la logica conseguenza della duplice concezione dell’intelligenza: quella pulita che assume la riducibilita’ di tutte le manifestazioni dell’intelligenza a pochi principi, esprimibili con eleganza in formalismi logici o matematici e quella sporca, secondo la quale, invece, l’intelligenza e’ una raccolta di molti metodi ad hoc, ciascuno adeguato ad un compito specifico.

Il dibattito tra la concezione sporca e la concezione pulita dell’intelligenza e’ connesso alla controversia tra i modelli procedurali ed i modelli dichiarativi della conoscenza: i primi assumono che la conoscenza sia costituita da un insieme di procedure intese a raggiungere determinati scopi nell’interazione con l’ambiente (ed e’ sicuramente questo il caso di WebFountain); i secondi presuppongono, invece, che la conoscenza consista di asserzioni che rappresentano il contesto dell’azione intelligente.

Scritto da

Commenta!

Aggiungi qui sotto il tuo commento. E' possibile iscriversi al feed rss dei commenti.

Sono permessi i seguenti tags:
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>