Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Direttore responsabile Alessandro Longo

SCENARI COMPLESSI. UN LIBRO AL MESE

Motori di ricerca? Un libro di MacCormick racconta come funzionano

di Valerio Eletti, Complexity Education Project

26 Giu 2015

26 giugno 2015

Sembra normale cercare al volo in rete qualsiasi informazione, ma a volte ci fermiamo e ci chiediamo: come hanno fatto a rendere così precise e veloci le ricerche fra miliardi di dati? E davvero la scelta delle risposte è oggettiva? su quale criteri è basata questa scelta? Il libro di MacCormick, “9 algoritmi che hanno cambiato il futuro”, dà una risposta

Nel nostro itinerario a zig zag tra le parole chiave e le domande che ci poniamo quando pensiamo alla realtà su cui si dovrebbe innestare l’agenda digitale, abbiamo incontrato concetti astratti, come la società della trasparenza o la complessità, e oggetti concreti ma difficili da afferrare, come quelli di rete o di big data. Introduciamo qui ora una nuova categoria: quella delle parole tecniche, che ci permettono di dare uno sguardo a territori operativi, fatti di algoritmi, matematica e scienze dell’informazione, che la gran parte di noi conosce solo per sentito dire. Ovviamente la lente che usiamo per guardare anche a questa nuova categoria di parole chiave – e in particolare qui oggi al funzionamento di base dei motori di ricerca – rimane sempre quella dell’approccio sistemico, che ci permette di capire i meccanismi di correlazione, retroazione, adattamento all’ambiente ed emersione di ordine dal disordine che caratterizza qualunque sistema complesso, sia esso biologico, sociale o tecnologico.

Le domande

Quando parliamo di motori di ricerca pensiamo immediatamente a Google; vent’anni fa avremmo parlato di Lycos, di AltaVista o dell’italiano Virgilio. Ripensandoci ora, per chi ha fatto la loro esperienza a quei tempi, ci sorprendiamo per come siano diventate veloci e precise le ricerche on line nel corso di appena due decenni, attraverso l’evoluzione continua di decine e decine di motori di ricerca nati e scomparsi ciascuno nel giro di pochi anni. Oggi, accanto a Google, in partica c’è solo Baidu, enorme e forte, ma rinchiuso nel recinto della comunità cinese, e i due motori promossi da Apple (Yahoo!) e da Microsoft (Bing), con quote di mercato minime rispetto a Google.  

(Tra parentesi: una ricca mappa dello stato attuale dei motori di ricerca si trova nello speciale dedicato a questo tema nel paginone centrale di Nòva, l’inserto domenicale del Sole24ore uscito in edicola il 21 giugno 2015 e raggiungibile on line sul sito del giornale).

Ma, qualunque sia il motore di ricerca che usiamo on line, non di rado ci capita di chiederci come faccia ad analizzare in qualche frazione di secondo miliardi di siti per darci proprio quelli giusti per noi, almeno nella stragrande maggioranza dei casi. Quali sono gli algoritmi, le invenzioni, i “trucchi” che hanno permesso di ottenere risultati così eclatanti? E chi e come se li è inventati? Insomma, per concretizzare, come funzionano?

Una risposta esauriente, abbastanza particolareggiata, ma accessibile anche a chi non è informatico, l’abbiamo trovata in un libro di grande successo nel mondo anglosassone, uscito per la Princeton University Press nel 2012 e tradotto nello stesso anno in italiano da Apogeo con il titolo “9 algoritmi che hanno cambiato il futuro”. Autore John MacCormick, ricercatore e studioso di informatica.

Come dice il titolo, nel libro si trovano le spiegazioni di diversi grandi algoritmi che sorreggono l’attuale esplosione del mondo digitale in rete. Al tema dei motori di ricerca sono dedicate poche pagine, poco più di una trentina in tutto: veloci e facili da leggere e da comprendere.

Le risposte

Il funzionamento di un motore di ricerca efficace come Google si basa su moltissimi strumenti, ma i concetti base da afferrare per capire come funziona una query (una interrogazione al motore) sono soltanto due. Ecco come li espone MacCormick nel suo libro.

Primo, i contenuti vengono “indicizzati” attraverso tre step: a) l’identificazione, che viene effettuata parola per parola, per ogni pagina; b) l’affinamento per query “a sintagma” (vedremo che significa nelle citazioni riportate più in basso; per intanto diciamo che da questa azione deriva una indicizzazione anche della posizione di ciascuna parola all’interno della sua pagina); c) l’analisi delle “metaparole” che distinguono la posizione della parola (e dunque il suo “peso”) in un titolo, nel testo o in nota.

Secondo, e questa è stata la tecnica messa a punto da Google che ha spazzato via la concorrenza, dandogli un vantaggio di posizione che continua ad agire a livello globale, secondo, dicevamo, è il ranking. Di che si tratta? In sostanza è una misura basata sul semplice fatto che le pagine autorevoli conferiscono autorevolezza alle pagine a cui si collegano. Anche qui abbiamo tre step (quelli che l’autore chiama “trucchi”): a) il trucco del link (misura del numero di link – ovvero dei collegamenti ipertestuali – in entrata alla pagina in esame); b) il trucco dell’autorevolezza (sembra un gioco di parole, ma il concetto non è difficile: si tratta del numero di link in entrata di ciascun collegamento a sua volta in entrata alla pagine in esame); c) il trucco del “navigatore casuale”, ovvero l’introduzione di percorsi casuali per evitare che si formino dei cicli auto-confermanti (anche di questo concetto un po’ più complicato vedremo qualche dettaglio nelle citazioni più in basso).

 

Tre nostre brevi considerazioni al volo, al di fuori del testo di MacCormick.

Primo, da quanto appena detto emerge il fatto che il criterio base del motore di ricerca nel selezionare le informazioni da restituire a fronte di una query consiste nel considerare migliore come risposta quella che ha più successo nel contesto generale (un criterio analogo a quello emerso nello studio del cosiddetto “accrescimento preferenziale” (vedi) delle reti sia biologiche che sociali e tecnologiche).

Secondo, da questa sintetica descrizione del funzionamento dei motori di ricerca si evince che l’impostazione è quella tipica dei big data (vedi) ovvero quella basata sulla analisi di “tutti” i dati, compresi quelli sporchi, compreso il rumore, senza nessuna selezione statistica preventiva a campione.

Terzo, dalle prime due considerazioni possiamo trarre una riflessione interessante in un’ottica complessa: un motore di ricerca si può gestire solo utilizzando un approccio sistemico, una visione reticolare, in cui le relazioni e i loro pesi contano più dei nodi (ovvero dei singoli contenuti), e in cui dal disordine e dalla confusione di grandi masse di dati (parole) emergono pattern ben definiti e individuabili, con un loro specifico significato.

 

Perché abbiamo scelto questo libro

Di libri e manuali che trattano dei motori di ricerca dal punto di vista del funzionamento tecnico ce ne sono a bizzeffe. Abbiamo scelto “9 algoritmi che hanno cambiato il futuro” di John MacCormick perché permette di capire i concetti chiave (quelli che davvero non si possono non conoscere lavorando con la rete) leggendo solo poche decine di pagine, chiare e ricche di esempi concreti e convincenti.

Altro motivo: leggere i due capitoli dedicati ai motori di ricerca (il n°2 e il n°3) può far venire la voglia di proseguire la lettura per scoprire i trucchi e le invenzioni che sorreggono la struttura della rete digitale globale: come gli algoritmi che sono alla base della crittografia e del riconoscimento delle forme, quelli che permettono di superare i rischi dovuti ai bachi e agli errori di trasmissione dei dati, o quelli che permettono di comprimere le enormi masse di bit che compongono le immagini e i video. 

 

Il sommario  

Ecco come la casa editrice presenta il libro nella quarta di copertina: “Quotidianamente, senza pensarci troppo, con i nostri strumenti tecnologici (potenti computer o eleganti dispositivi mobili), facciamo cose che possiamo definire straordinarie: cerchiamo in rete; archiviamo dati; facciamo acquisti; trasmettiamo informazioni confidenziali; comprimiamo i file di grandi dimensioni.

Se siamo diventati così bravi lo dobbiamo ad alcune idee fondamentali che sono state sviluppate nel XX secolo e che prendono la forma di algoritmi: ricette precise che specificano sequenze di passi da compiere per risolvere un problema. Senza un algoritmo come PageRank, Google non saprebbe classificare le pagine web ogni volta che effettuiamo una ricerca; senza algoritmi come quelli della crittografia a chiave pubblica, Amazon o eBay non potrebbero eseguire transazioni sicure; senza gli algoritmi di compressione le comunicazioni via cellulare o chat consumerebbero così tanta banda da risultare farraginose se non impossibili…

L’autore ci introduce e ci guida alla scoperta delle idee che “fanno funzionare” il nostro mondo digitale aprendo l’imperscrutabile, e geniale, scatola nera che abbiamo a portata delle nostre dita.”

 

L’indice dei contenuti

La sequenza dei titoli dei paragrafi dei due capitoli dedicati ai motori di ricerca ci dà immediatamente un’idea di come vengono presentati problemi e soluzioni, seguendo sia una linea logica centrata sugli algoritmi messi a punto, sia un percorso storico, in sintonia con l’evoluzione degli strumenti di indicizzazione (il matching per identificare le corrispondenze) e di ordinamento (ranking) dei dati da cercare.

Nel Cap. 2 si parla di “Indicizzazione dei motori di ricerca, come trovare aghi nel pagliaio più grande del mondo”, attraverso alcune tappe fondamentali: “Corrispondenza e ordinamento – Alta Vista: il primo algoritmo di matching – Buona, vecchia indicizzazione – Il trucco della posizione della parola – Ordinamento e prossimità – Il trucco della metaparola …” per concludere rimandando al capitolo successivo con un paragrafo intitolato “I trucchi dell’indicizzazione e della ricerca di corrispondenza non sono tutto”.

Che altro serve ce lo dice il Cap. 3, intitolato “PageRank, la tecnologia che ha lanciato Google”, che passa in rassegna tre “trucchi”: quello del “collegamento ipertestuale”, quello della “autorevolezza” e quello del “navigatore casuale”, per concludere con il paragrafo dedicato a “PageRank in pratica”.

Dei capitoli successivi, che affrontano gli altri sette grandi algoritmi nominati nel titolo, diamo solo le intestazioni, per capire di che si tratta: “Crittografia a chiave pubblica”, “Codici a correzione di errore: sbagli che si aggiustano da soli”, “Riconoscimento di forme”, “Compressione dei dati”, “Database: alla ricerca della coerenza”, “Firme digitali”, “Che cosa è calcolabile” .. fino al capitolo conclusivo, dedicato a un riepilogo delle esplorazioni effettuate e a una riflessione sui possibili sviluppi di questo mondo in piena effervescenza (il primo capitolo invece è dedicato alle definizioni di base, come per esempio quella di “algoritmo”).

 

Commenti e citazioni

Le citazioni che diamo qui di seguito non fanno altro che approfondire quanto abbiamo detto in sintesi qui sopra, fornendo qualche definizione e qualche chiarimento, come quelli relativi alle “interrogazioni a sintagma” o al “trucco del navigatore casuale”.

Abbiamo preparato quindi per voi lettori un impegnativo copia-e-incolla che possa permettervi di capire se questo libro vi interessa o se vi basta saperne quel poco di essenziale che vi presentiamo qui.

 

Matching (identificare corrispondenze) e ranking (ordinamento). “Sarà utile iniziare con uno sguardo generale su quel che succede quando inviamo una richiesta di ricerca sul Web (…) Ci saranno due fasi principali: l’identificazione di corrispondenze e l’ordinamento. Nella pratica, i motori di ricerca combinano le due attività in un processo unico, ma le due fasi sono concettualmente distinte, perciò ipotizzeremo che l’identificazione delle corrispondenze sia completata prima che inizi l’ordinamento” (pag.12).

 

Buona, vecchia indicizzazione. “Il concetto di indice è l’idea fondamentale alla base di ogni motore di ricerca (…) L’indice di un motore di ricerca funziona nello stesso modo dell’indice [analitico, n.d.r.] di un libro: le ‘pagine’ sono pagine del www e i motori assegnano un numero di pagina diverso a ogni singola pagina web. (…) Un computer può costruire un indice innanzitutto stendendo un elenco di tutte le parole che compaiono nella pagina e poi ordinando alfabeticamente l’elenco. (…) Poi il computer esplorerà le pagine parola per parola e per ogni parola prenderà nota del numero della pagina in cui compare. (…) Con questo metodo molto semplice un motore di ricerca può già dare una risposta a molte domande semplici (…) Dato che l’elenco delle parole è in ordine alfabetico, un computer può trovare rapidamente un lemma (…) Appena trova il lemma il motore di ricerca può subito fornirvi l’elenco delle pagine in cui compare.” (pagg.14-15)

 Le interrogazioni a sintagma. “Ma cosa succede se l’interrogazione contiene più parole? [Il motore] prima cerca le parole singolarmente, per sapere in quali pagine sono presenti. Poi può rapidamente esaminare i diversi elenchi di risultati per vedere se ci sono numeri di pagina uguali. (…)

Fin qui sembrerebbe che costruire un motore di ricerca sia molto facile. Purtroppo però questa impostazione semplice è del tutto inadeguata per i motori di ricerca moderni: le ragioni sono diverse, ma per ora ci concentreremo su un solo problema, quello delle interrogazioni a sintagma. Sono le interrogazioni che cercano un sintagma preciso, un’espressione complessa e non semplicemente le occorrenze di varie parole in qualsiasi punto di una pagina. Nella maggior parte dei motori di ricerca queste interrogazioni si indicano con l’uso delle virgolette…” (pag.16).

Quando si mette una sequenza di parole tra virgolette significa che chiediamo al computer di trovare quella precisa sequenza, non le stesse parole disperse nella pagina: per rispondere a questa esigenza (non diffusa nell’uso dell’utente ma centrale per il modo di ordinare i risultati per importanza da parte del motore di ricerca) si è dovuta introdurre una nuova tipologia di indicizzazione. Vediamola.

Il trucco della posizione della parola. “La soluzione a questo problema è la prima idea veramente ingegnosa che ha contribuito al buon funzionamento dei motori di ricerca moderni: l’indice non deve conservare solo i numeri di pagina, ma anche le posizioni all’interno delle pagine. Queste posizioni non sono nulla di misterioso: indicano semplicemente la posizione di una parola all’interno della pagina, per cui la terza parola ha la posizione 3, la ventinovesima la posizione 29 e via elencando.” (pag.17). “… l’inclusione nell’indice della posizione delle parole nelle pagine ci permette di rispondere a un’interrogazione a sintagma esaminando solo poche righe dell’indice, invece di leggere per esteso un gran numero di pagine web. Questo semplice trucco della posizione delle parole è uno degli elementi chiave per il funzionamento dei motori di ricerca” (pag.19), dato che così non serve leggere “i contenuti effettivi” di una pagina web, ma basta consultare (molto velocemente) solo alcune voci dell’indice.

Ordinamento e prossimità. “Fin qui ci siamo concentrati sulla fase della corrispondenza: il problema di trovare in modo efficiente tutti i risultati validi, gli hit, per una interrogazione data.”

Viene poi una seconda fase dedicata all’ordinamento (il ranking), in cui “si selezionano pochi risultati ottimali per presentarli all’utente. (…) La domanda non è qui ‘Questa pagina soddisfa l’interrogazione?’ bensì ‘Questa pagina è rilevante per l’interrogazione?’ (…) Ma i computer non sono esseri umani e non esiste un modo facile per far ‘capire’ a un computer gli argomenti delle pagine, (…) esiste però un modo semplice per ottenere l’ordinamento giusto. Statisticamente, le pagine in cui le parole dell’interrogazione occorrono vicino l’una all’altra è più probabile siano pertinenti, rispetto alle pagine in cui le parole della query sono distanti … (ricordiamo che il motore di ricerca può stabilirlo rapidamente esaminando solo le voci dell’indice, senza dover tornare a leggere le pagine web stesse). (…) Per riassumere: gli esseri umani non usano molto le interrogazioni NEAR [operatore booelano che dà la vicinanza tra due parole, n.d.r.], ma i motori di ricerca usano costantemente le informazioni sulla prossimità per migliorare le loro classifiche, e il motivo per cui possono farlo in modo efficiente è l’uso del trucco della posizione delle parole.” (pagg. 20-21)

Il trucco delle metaparole. “Le pagine web in genere sono molto strutturate, con titoli, intestazioni, collegamenti e immagini, mentre fin qui le abbiamo trattate come semplici elenchi di parole. (…) Le istruzioni di formattazione per intestazioni, titoli, collegamenti, immagini e così via vengono scritte utilizzando parole speciali definite metaparole (metaword). (…) Quando si costruisce un indice è semplice includere tutte le metaparole: si memorizzano le posizioni delle metaparole esattamente come si fa per le parole normali.” (pagg. 22-23). “Quindi il trucco delle metaparole consente a un motore di ricerca di fornire risposta a interrogazioni sulla struttura di un documento in modo estremamente efficiente. (…) Proprio come per le interrogazioni viste prima, il motore di ricerca non deve tornare a esaminare le pagine web originali, ma può rispondere consultando solo un piccolo numero di voci dell’indice.” (pag. 26).

“Il trucco delle metaparole ha contribuito al successo di Alta Vista [richiesta di brevetto Usa del 1999 intitolato “Constrained Searching of an Index”, n.d.r.]. Nonostante la sua raffinata costruzione, l’algoritmo per le corrispondenze di Alta Vista non è stato sufficiente per rimanere a galla nella turbolenza dei primi tempi del settore delle ricerche. (…) La comparsa di un nuovo tipo di algoritmo di ordinamento è stata sufficiente a eclissare Alta Vista e a portare Google in vetta.” (pag. 27).

PageRank, la tecnologia che ha lanciato Google. “I primi motori di ricerca commerciali erano stati lanciati nel 1994: come ha fatto Google dal suo garage a compensare questo ritardo di quattro anni, saltando a piè pari davanti ai già diffusi Lycos e Alta Vista per quel che riguarda la qualità delle ricerche? (…) uno dei fattori più importanti è stato l’algoritmo innovativo utilizzato da Google per ordinare i risultati delle ricerche: un algoritmo noto con il nome di PageRank. È un po’ un gioco di parole: è un algoritmo che ordina pagine (page, in inglese), ma è anche l’algoritmo di ordinamento di Larry Page, il suo principale inventore. Page e Brin hanno reso pubblico l’algoritmo nel 1998…” (pag. 30).  Vediamo in sostanza e brevemente i tre “trucchi” su cui si basa il successo di Google, con la consapevolezza che l’autore semplifica enormemente la complessità degli strumenti effettivamente usati nel motore di ricerca.

Il trucco del collegamento ipertestuale. “Il primo passo per capire PageRank è un’idea semplice, che chiameremo trucco del collegamento ipertestuale.” Il problema è di trovare i contenuti migliori che rispondono alla domanda fatta dall’utente. Sappiamo che i computer non possono capire il significato delle pagine in esame, ma sappiamo che sono molto bravi a contare. E allora l’idea è di valutare l’importanza di una pagina contando quante altre pagine vi si collegano. “Statisticamente, in assenza di altre informazioni, il numero dei collegamenti in ingresso può essere un buon indicatore di quanto è probabile che la pagina sia utile, ovvero ‘autorevole’” (pag. 32). Tutto ciò evidentemente con i dovuti distinguo: l’autore porta come esempio il fatto che una parte dei collegamenti in entrata potrebbero derivare da giudizi negativi, anche se nella pratica questi sono pochi e trascurabili nel computo dei grandi numeri.  

Il trucco dell’autorevolezza. “Forse vi sarete chiesti perché i collegamenti in ingresso a una pagina debbano essere trattati tutti allo stesso modo. Una raccomandazione da parte di un esperto non vale di più di quella di chi è alle prime armi? (…) Questo principio di base è quello che chiamiamo il trucco dell’autorevolezza: i collegamenti che arrivano da pagine con elevata autorevolezza contribuiranno a un avanzamento in classifica più di quelli che arrivano da pagine con minore autorevolezza”.

Ma come fa il computer a stabilire l’autorevolezza di una pagina? Ecco l’esempio sintetico che ci da MacCormick per comprendere l’idea di base necessaria per ottenere questo risultato: “Combiniamo il trucco del collegamento ipertestuale con quello dell’autorevolezza. Tutte le pagine inizialmente hanno autorevolezza 1, ma se una pagina ha collegamenti ipertestuali in ingresso, la sua autorevolezza si calcola sommando l’autorevolezza di tutte le pagine che hanno un collegamento ad essa. In altre parole, se le pagine x e y hanno collegamenti alla pagina z, l’autorevolezza di z è la somma dell’autorevolezza di x e di y.” (pagg. 33-34).

Il trucco del navigatore casuale. Ma basta riflettere un po’ più a fondo su quanto abbiamo appena presentato per capire che c’è una tremenda trappola in questo procedimento: la formazione di anelli chiusi che si auto-alimentano facendo crescere l’autorevolezza delle pagine all’infinito. “Se si calcola l’autorevolezza in questo modo, si finisce in un problema ‘uovo o gallina’. (…) Siccome ciascuna [attribuzione di autorevolezza] dipende dalle altre, il problema sembra insolubile. Per fortuna si può risolvere con una tecnica che chiameremo trucco del navigatore casuale.” (pag. 37). La spiegazione è un po’ lunga e viene data nel libro attraverso la costruzione di diversi esempi concreti; non è però difficile da capire a livello intuitivo: basta far partire delle esplorazioni a caso nella rete di pagine collegate (tracciandone il percorso) per rompere il circolo vizioso e riportare le attribuzioni di autorevolezza al loro funzionamento ideale, eliminando gli anelli che si auto-alimentano. “Definiamo punteggio di autorevolezza del navigatore di una pagina web come la percentuale del tempo che un navigatore casuale dedicherebbe a visitare quella pagina. Cosa notevole, il punteggio di autorevolezza del navigatore incorpora entrambi i nostri trucchi precedenti per ordinare per importanza le pagine web. (…) In altre parole, tiene conto sia della qualità che della quantità dei collegamenti in ingresso.” (pag. 40).

PageRank in pratica. “Il trucco del navigatore casuale è stato descritto dai due fondatori di Google nel loro famoso saggio del 1998, ‘The Anatomy of a Large-Scale Hypertextual Web Search Engine’ e, insieme con molte altre tecniche, varianti di questo trucco vengono utilizzate tuttora dai grandi motori di ricerca.” (pag. 42). Diciamo chiaramente che la realtà è molto più complessa di come viene presentata qui: nel suo libro MacCormick vuole solo comunicare i principi di base, facendo emergere la bellezza delle idee che sottendono gli algoritmi messi a punto nel corso di questi due decenni. “Val la pena di notare che i motori di ricerca determinano i loro ordinamenti utilizzando molto di più di un semplice algoritmo di ordinamento basato sui collegamenti come PageRank. (…) nel momento in cui scrivo, il sito web di Google dichiara che, per valutare l’importanza di una pagina, vengono utilizzati oltre 200 segnali. (…) Nonostante le molte complessità dei motori di ricerca moderni, la bella idea al cuore di PageRank, cioè che le pagine autorevoli possano conferire autorevolezza ad altre pagine attraverso i collegamenti ipertestuali, rimane valida. (…) PageRank è in effetti una gemma algoritmica grazie alla quale un ago può salire senza fatica in cima al suo pagliaio.” (pag. 44).

 

L’autore

 

“John MacCormick è stato ricercatore al Linacre College dell’Università di Oxford. Per alcuni anni ha lavorato presso i laboratori di ricerca di Hewlett-Packard e di Microsoft. Attualmente insegna presso il Dipartimento di Matematica e Computer Science del Dickinson College, in Pennsylvania. È autore di saggi e pubblicazioni accademiche sui temi dell’informatica.”

 

 

La domanda (e il libro) del prossimo mese

 

Chiediamo ai lettori di scegliere quale domanda vogliamo porci il mese prossimo. Ecco la lista delle nostre proposte, che può subire su vostra richiesta cambiamenti, aggiunte, eliminazioni: 

·      qual è la differenza tra complicato e complesso? ci rispondono Gandolfi e Waldrop

·      come si gestisce la complessità nelle organizzazioni? ci rispondono Cravera, De Toni, Simoncini e De Simone

·      che dire di intelligenza artificiale e singularity? troviamo spunti in Morin, in una raccolta di saggi tratti dalla rivista Le Scienze e nell’ultimo libro di Luca De Biase  

·      la memetica: di che si tratta? risposte e suggestioni nel libro di Blackmore

·      perché chiamiamo “età ibrida” questo periodo? ci rispondono Ayesha e Parag Khanna

·      complesso e caotico: quali punti di contatto? ci rispondono Ekeland e Vulpiani

·      come affrontare l’imprevisto  in un mondo iper-connesso? dal ‘Cigno nero’ di Taleb a un curioso saggio di uno scrittore di gialli, Marco Malvaldi

·      che c’entra la biologia con l’organizzazione complessa? ci rispondono Luisi e Capra

·      autopoiesi: di che si tratta e perché ci dovrebbe interessare? le risposte in un grande classico di Varela e Maturana

·      che c’entra la teoria dei giochi con il mondo complesso e iper-connesso? ci risponde Massarenti con il divertente “Perché pagare le tangenti è razionale ma non conviene”

·      che cos’è la legge di potenza e perché è oggi così importante? risponde Barabasi  in “Lampi”

·      perché solo sei gradi di separazione tra me e Obama? ci risponde Barabasi in “Link”

·      quale rapporto c’è tra trasparenza e privacy? troviamo suggestioni in un romanzo di successo: “Il cerchio” di Eggers

 

  • Alessandro

    Ci sono stati dei precursori molto efficienti e ed evoluti proprio in Italia nella seconda metà degli anni 70. Il precursure era stato il prodotto STAIRS di IBM nato per l’emeroteca del NY Times. https://en.wikipedia.org/wiki/IBM_STAIRS Su quell’idea una ditta italiana aveva realizzato un prodotto che forniva le stesse prestazioni di nome IRIDS, lo stesso prodotto era stato arricchito di un motore semantico (nei 70′ !!) che consentiva di comprendere già molte frasi in linguaggio naturale e effettuare ricerche sofisticate. Realizzato da un team di italiani di cui alcuni ex ricercatori Xerox di Palo Alto, fu usato in molti ambienti host IBM poi la ditta comprata dall’Olivelli di de Benedetti chiuse il gruppo di lavoro che aveva iniziato a trasferire il sistema da Host IBM a i primi PC Windows e MAC. Il sistema si è perso nell’oblio cos’ come le prime applicazioni in linguaggio naturale nel campo letterario, museologico, l’emeroteca del Sole 24 Ore, banche dati della fiera di milano, e altre applicazioni come un call center di una società di servizi che rispondeva in linguaggio naturale. Questo quando internet era ancora agli inizi. Le tecniche descritte nel libro

Articoli correlati