Microsoft: Un motore di ricerca contro Google.
L’azienda costruira’ un proprio motore di ricerca algoritmico per competere con compagnie come Google e Inktomi. Lo ha annunciato Christopher Payne, vice presidente per l’unita’ Internet MSN di Microsoft, alla conferenza sulle strategie di ricerca organizzata da Jupitermedia. In generale, secondo Payne, il settore dei motori di ricerca rappresenta una grande opportunita’ di guadagni per Microsoft e i suoi inserzionisti per cui e’ necessario investire molte risorse.
Anche la Microsoft ha quindi capito che riuscire ad elaborare un potente strumento di ricerca che consenta agli utenti di Internet di trovare con relativa facilita’ il documento voluto oltre ad essere un’impresa particolarmente auspicata nel mondo della Rete, costituirebbe un’autentica miniera di guadagni, ma ovviamente l’impresa non e’ cosi’ semplice.
Oggi pero’ gli esperti informatici hanno a loro disposizione nuovi strumenti mutuati dall’intelligenza artificiale per cui attraverso un adeguato dispendio di risorse ed energie finalmente l’obiettivo della ricerca perfetta puo’ considerarsi non tanto lontano.
Il software puo’ essere definito come lo sviluppo esecutivo, espresso in un linguaggio comprensibile anche alla macchina, di una o piu’ idee fondamentali sotto forma di regole la cui applicazione, porta ad una soluzione sicuramente esatta di un dato problema.
L’insieme delle regole che compongono il software, in informatica come in matematica, si chiama algoritmo, dal nome di un grande matematico arabo, Al-Khuwarizmi, vissuto circa mille anni fa, nato a Baghdad, considerato il padre dell’algebra.
Se il software, quindi, non e’ altro che sviluppo di un algoritmo, il computer, munito di adeguato software, puo’ svolgere qualsiasi attivita’ consentita da questo, quindi il computer puo’ essere piu’ precisamente definito come una macchina algoritmica universale (BORRUSO).
Si possono tradurre in algoritmo tanto operazioni matematiche quanto qualsiasi attivita’ dell’uomo, l’algoritmo quindi ha, al pari della logica, un valore universale che puo’ assurgere a punto d’incontro tra due culture, fino ad ora erroneamente considerate distinte e quasi opposte: l’umanistica e la scientifica.
Formulare prima un problema in forma precisa, stabilire l’obiettivo da raggiungere, distinguere le costanti dalle variabili, precisare in forma generale ed astratta le regole da eseguire per il raggiungimento dell’obiettivo prescelto, sono processi che caratterizzano non solo il pensiero matematico, ma tutto il pensiero razionale dell’uomo in qualsiasi campo di applicazione.
Dell’algoritmo e’ stata data (BORRUSO) la seguente definizione: insieme ordinato in sequenza, di tutte le regole precise, inequivoche, analitiche, generali, astratte, formulate “ex anteâ€, la cui scrupolosa e letterale applicazione, da parte di chiunque, lo pone infallibilmente in grado di conseguire il risultato giusto.
Sul rapporto tra algoritmo e programma puo’ dirsi che:
– programmare e’ relativamente facile;
– e’ piu’ difficile trovare, precisare e scegliere l’algoritmo quando ne sia concepibile piu’ d’uno.
La scelta e la creazione dell’algoritmo deve tenere conto della sua affidabilita’, del numero di operazioni che determina e, soprattutto, del risultato ottenibile con la sua applicazione, quest’ultimo deve essere migliore di quello raggiunto dall’uomo.
Di tutta l’informatica l’algoritmo e’ senza dubbio la nozione piu’ interessante, perche’ essa segna il limite della sostituibilita’ del computer all’uomo ed indica da quale progresso puo’ mai dipendere l’estendersi di tale sostituibilita’.
Occorre precisare che e’ algoritmizzabile solo cio’ che e’ razionale. Tutta la sfera dell’attivita’ psichica irrazionale, in quanto tale, non risponde a regole: l’uomo non potra’, quindi, mai essere sostituito ragionevolmente da un computer nelle manifestazioni della sua creativita’, nella fantasia, nella sfera dei sentimenti, cioe’ nell’affettivita’, desiderio di conoscenza e di novita’, in tutte queste attivita’ il computer potra’ essere usato non per sostituire l’uomo, ma solo per studiarlo meglio (BORRUSO).
Se l’attivita’ irrazionale, dal punto di vista dell’algoritmizzabilita’, richiede particolari delimitazioni, non c’e’ nessuna delimitazione nel campo dell’attivita’ razionale, perche’ tutto cio’ che e’ razionale e’, o dovrebbe essere, algoritmizzabile. Razionalita’, infatti, significa dipendenza dal controllo positivo della ragione, cioe’ correlazione dei mezzi con i fini: e’ libera la scelta degli uni e degli altri; ma e’ “obbligataâ€, quasi necessitata, la correlazione, che e’ assoggettabile ad un giudizio obiettivo di “vero/falsoâ€.
Ma non tutto il razionale (almeno oggi) e’ algoritmizzabile. Ci si accorge, cioe’, che accanto ad una razionalita’ “analitica†perfettamente calabile nella struttura dell’algoritmo, esiste una razionalita’ “intuitivaâ€, di cui, a differenza dell’altra, la nostra mente non riesce a definire un algoritmo, riuscendo soltanto a darne “ex post†una giustificazione razionale.
Anche quando non sia possibile formulare un algoritmo, il computer puo’ essere messo in grado di “simulare†un comportamento intelligente adeguandosi ad un modello di che sia stato registrato preventivamente nelle sue memorie o acquisito man mano per via telematica.
Il modello di comportamento e’ un surrogato dell’algoritmo e, come tutti i surrogati, molto meno soddisfacente, perche’ privo di riscontri critici, ma puo’ servire, in maniera sorprendentemente utile, per aggregare i tanti contributi di pensiero dati, in tempi e luoghi diversi, da persone diverse. Si crea cosi’ un’intelligenza artificiale di massa, che non e’ affatto aliena dall’uomo, perche’ frutto dell’imitazione di tanti uomini (BORRUSO).
Come e’ noto l’avvento di Internet ha sconvolto le tradizionali metodologie di trattamento documentario. Con la rete e’ cambiato il concetto di sistema informativo, passato da una dimensione locale ad una globale, e si e’ anche allargato il significato di informazione, non piu’ intesa come equivalente al documento, ma, grazie agli ipertesti, comprensiva di una soggettiva concatenazione di concetti.
Con la rete la tecnologia dell’informazione si trova a fronteggiare problemi diversi; il punto cruciale non e’ piu’ la raccolta ed organizzazione delle fonti, quanto l’accesso mirato a quelle rilevanti; spesso l’informazione a disposizione e’ troppa, confusa, non attendibile, disordinata, non strutturata.
In tale contesto il contributo dell’intelligenza artificiale si colloca nella cd. estrazione di conoscenza che e’ una tecnica che consente di filtrare, navigando nella rete, solo le informazioni pertinenti ad un dato settore di interesse (ad esempio solo le informazioni finanziarie); gli strumenti si basano su due tipici paradigmi di I.A.: i nuclei concettuali (conceptual cluster) ed i parser del linguaggio naturale. Con i primi vengono descritti gli elementi della materia di interesse mediante tutte le possibili espressioni e forme linguistiche ( ad es. societa’, capitali, azioni, stock, interesse, ratei, profitto, ecc.), segnalando anche quali caratteristiche ci si aspetta dai dati che si cercano, ad esempio, in notizie di carattere finanziario ricorreranno i nomi di societa’ quotate in borsa, di organismi finanziari, di quote azionarie, ecc. Con il secondo strumento si filtrano (parsing) le stringhe di parole in modo da rintracciare all’interno le ‘parole civetta’.
Una tecnica piu’ raffinata di I.A. da applicare sempre in tale settore e’ il data mining. Letteralmente mining e’ l’attivita’ del minatore, cioe’ lo scavo, l’estrazione di materiali preziosi da materiali di scarto: nel data minig il materiale prezioso da rintracciare e’ la conoscenza, cioe’ informazioni nuove e originali su determinati fenomeni, estratte da grandi quantita’ di dati. La conoscenza scoperta con il data mining e’ qualcosa di piu’ del risultato di analisi statistiche, in quanto dovrebbe evidenziare non solo la frequenza di certi fenomeni, ma i modi in cui vengono a concatenarsi circostanze o fattori (association rules). Data una grande quantita’ di dati, si tratta di individuare combinazioni di dati o attribuzioni di valori che si ripetono con continuita’, per stabilire dipendenze o connessioni (ad es., dai dati sulle vendite di un prodotto e’ possibile individuare le classi di consumatori ecc.).
In informatica il KDD (knowledge discovery in databases) viene utilizzato per l’acquisizione semi-automatica di conoscenza da grandi masse di dati esistenti. Un perfezionamento dunque dei tipici processi induttivi di apprendimento automatico.
Scritto da
Commenta!