Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

white box vs black box

La ricerca italiana sull’intelligenza artificiale, per renderla “trasparente”: il progetto

Il controllo sul modo in cui gli automi rappresentano se stessi può dissolvere l’incubo che tutta l’intelligenza del Pianeta collassi in poche piattaforme proprietarie. Ecco l’apporto delle eccellenze accademiche italiane a un riequilibrio delle infrastrutture tecnologiche

27 Feb 2019

Guido Vetere

Università degli Studi Guglielmo Marconi

teoria dell'argomentazione

La ricerca italiana si è messa in prima fila per imporre una trasparenza nell’intelligenza artificiale, in una fase in cui sembra dominare invece un paradigma opaco e che elude i controlli umani: il deep learning. Paradigma pericoloso, però, a cui non dobbiamo arrenderci.

Dall’Ottocento, siamo abituati a considerare le vicende umane in termini dialettici, cioè come un susseguirsi di tesi, antitesi e sintesi, sia ideali sia materiali. L’Intelligenza Artificiale è una vicenda umana che include discussioni tecnico-scientifiche, strategie industriali e politiche, aspettative sociali, e anch’essa esibisce, da quando è nata negli anni ‘50, la sua intensa dialettica.

Abbiamo assistito negli ultimi anni all’affermarsi di una tesi detta Deep Learning. Questa sostiene (grosso modo) che, in virtù di specifici algoritmi di apprendimento, le funzioni cognitive umane possono essere approssimate fornendo alle macchine numerosi esempi di comportamenti desiderati, e lasciando a queste il compito di evincere le correlazioni tra i dati esibiti dagli esempi e i risultati che si vogliono ottenere.

Nella sua formulazione più apodittica, la tesi del Deep Learning sostiene che, con dati e potenza di calcolo sufficienti, qualsiasi funzione cognitiva umana possa essere approssimata in modo soddisfacente.

In antitesi rispetto al Deep Learning si pone (ma non in senso cronologico) la tesi della Knowledge Representation, secondo cui le conoscenze umane devono essere esplicitate mediante intelligibili formalismi e fatte oggetto di ragionamenti logici, cioè basati su assiomi e regole di inferenza. Non è difficile vedere in questa contrapposizione una specifica istanza dell’eterna dialettica tra Empirismo e Razionalismo.

Oltre gli ideologismi e le beghe accademiche

Come ogni dialettica, anche la ricerca sull’Intelligenza Artificiale aspira, in fondo, ad una sintesi. Per questo, chi si impegna a superare gli ideologismi e le beghe accademiche e cerca di fornire risposte autentiche a domande pertinenti è giustamente premiato.

Questo oggi è il caso di Giuseppe De Giacomo, Università di Roma “Sapienza” (Dipartimento di Ingegneria Informatica, Automatica e Gestionale), invitato ad aprire la prossima International Joint Conference on Artificial Intelligence (IJCAI-19), cioè una delle più autorevoli conferenze scientifiche del settore.

La domanda sulla quale il ricercatore italiano è impegnato potrebbe riassumersi così: come può un sistema autonomo, in grado di imparare e adattarsi, essere anche “trasparente”, cioè rendere intelligibile agli umani il proprio stato interno? Questo è uno dei più grandi temi da affrontare quando un sistema di Intelligenza Artificiale esce dai laboratori di ricerca e viene mandato tra la gente.

La risposta di De Giacomo è sintetica: le capacità di apprendimento, tipicamente ottenute mediante complesse e oscure reti neurali (black-box) vanno integrate con adeguate rappresentazioni dei piani, delle azioni e degli stati del sistema, sulle quali sia possibile formulare interrogazioni (white-box). Fare una cosa del genere non è facile, ma l’idea di far sì che gli automi, oltre che apprendere e autoregolarsi, siano anche in grado di rappresentarsi con un linguaggio comprensibile alla società che li utilizza, sembra ormai saldamente riconosciuta dalla comunità scientifica.

Prospettive industriali e tecnologie intelligenti

Dopo una certa ubriacatura neuronale e statistica, stiamo dunque assistendo a un ritorno dei modelli in Intelligenza Artificiale. Alla testa di questo movimento troviamo la ricerca italiana in ottima posizione. In particolare, la “scuola romana” di Maurizio Lenzerini, a cui De Giacomo e molti altri brillanti scienziati si sono formati, è ormai da decenni un riferimento mondiale per la comunità della Knowledge Representation, ed è oggi chiamata a dire la sua su un tema cruciale per il futuro del nostro sviluppo tecnologico. Il fatto potrebbe solleticare un nazionalistico richiamo all’eccellenza italica, ma ben più che indulgere nei cascami retorici è interessante osservare come il ritorno dei modelli possa significare anche un riequilibrio delle prospettive industriali e più in genere sociali legate agli impieghi delle tecnologie intelligenti.

Il latifondismo dei dati e lo strapotere della potenza di calcolo, che rischiano di mettere all’angolo la ricerca, l’industria e la società europea, non tengono tutto il campo dell’Intelligenza Artificiale e devono venire a patti con la progettualità umana. L’incubo che tutta l’intelligenza del Pianeta possa collassare in poche piattaforme proprietarie può (e deve) dissolversi con il controllo sul modo in cui gli automi rappresentano sé stessi all’umanità.

Senza modelli una coscienza opaca

I modelli, in questo senso, svolgono una fondamentale funzione linguistica, che è condizione imprescindibile se vogliamo mantenere gli automi nel campo del pensiero critico. Chi vagheggia o propugna una Intelligenza Artificiale puramente comportamentista, dove l’associazione tra input e output è tutto quello che si può e si deve sapere, non coglie (o finge di non cogliere) l’esigenza di questa trasparenza.

Essi in genere obiettano che anche la coscienza umana è imperscrutabile, dunque poco male se non siamo in grado di leggere nel cuore delle macchine. Questa obiezione tuttavia ignora (o finge di ignorare) la profonda differenza che c’è tra essere opachi e tuttavia presentarsi come agenti linguistici, e essere incomprensibili by design. Il problema di una Intelligenza Artificiale senza modelli non è quello di non saper giustificare il proprio stato, ma quello di non comprendere neanche le domande che possiamo formulare su di esso.

La necessità di modellare stati, piani e azioni di business rende indispensabile la capacità di presidiare il territorio socio-tecnico, impone la distribuzione delle competenze, favorisce insomma uno sviluppo maggiormente equilibrato delle infrastrutture tecnologiche.

Allo stesso tempo, una IA distribuita e “territoriale” richiede la capacità di formare (e trattenere) la professionalità locale. Le nostre eccellenze accademiche possono essere il punto di forza di una accorta politica di sviluppo, sempre che non si coltivi la perversa idea di smantellarle. Ma la vera differenza può farla solo il tessuto produttivo, mettendo in campo la propria capacità di discernimento.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4