Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

intelligenza artificiale

AI, perché ci sarà sempre bisogno di umani per addestrare i robot

Ci sono sistemi, come AlphaGo Zero di Google, che in pochi giorni di “apprendistato” solitario riescono formarsi senza l’intervento umano. Non sempre è così però. La maggioranza delle applicazioni “di business” dell’IA richiede il tutoraggio umano. Questo ci rassicura, ma ci dà anche grosse responsabilità educative

30 Nov 2017

Guido Vetere

Università degli Studi Guglielmo Marconi


AlphaGo Zero, il sistema di Deep Learning che Google ha recentemente sviluppato per giocare a Go, riesce a imparare le mosse vincenti senza che alcuno gliele insegni, ma semplicemente (si fa per dire) esplorando l’immenso spazio combinatorio delle pedine sulla scacchiera e individuando, per prove ed errori, le disposizioni che conducono al successo. Si chiama “apprendimento non supervisionato”. Grazie alla potenza dei calcolatori e alla raffinatezza degli algoritmi, il solitario apprendistato di AlphaGo si compie in soli tre giorni. Immancabilmente, questo nuovo successo dell’Intelligenza Artificiale (IA) ha acceso la fantasia di quei neo-millenaristi che attendono la “singolarità”, cioè il momento in cui le macchine super-intelligenti ci faranno fuori. Per attuare questo losco proposito, infatti, esse hanno bisogno, come minimo, di non dipendere dalla nostra attiva collaborazione, che è appunto ciò che l’”apprendimento non supervisionato” promette. Oggi Go, domani il mondo?

Per nostra fortuna, il campo di applicazione di questo solipsistico tipo di IA sembra limitato a casi specifici. Imparare solo dall’esperienza diretta è possibile, ma a condizione che ciò che si vuole imparare sia già tutto nel dato e che possiamo fornire alla macchina uno stabile criterio di valutazione di ciò che va imparando (nel caso di Go: vincere o no la partita).

La grande maggioranza delle applicazioni “di business” dell’IA richiede invece un grande e paziente tutoraggio da parte di noi esseri umani. Insegnare ad una macchina il riconoscimento di immagini significative, espressioni linguistiche sensate, situazioni caratteristiche, richiede che ai dati usati per l’apprendimento venga associata la loro interpretazione. Si parla così di “human in the loop”, cioè, per noi umani, del “rimanere nel giro” della nascente società algoritmica. Questo ha in genere l’effetto di tranquillizzarci un po’ davanti all’avvento delle intelligenze automatiche. Né dobbiamo temere che un ulteriore potenziamento delle macchine di calcolo o l’invenzione di nuovi e più sofisticati algoritmi possano cambiare sostanzialmente le cose. Ci troviamo infatti davanti ad alcuni limiti inerenti dell’IA, dei quali non si intravvede, almeno per ora, il superamento.

Gran parte di ciò che sappiamo, se non proprio tutto, lo sappiamo attraverso il linguaggio. Sappiamo che la terra orbita attorno al sole, anche se i dati sensoriali ci dicono il contrario, perché lo abbiamo letto da qualche parte. A sua volta, l’apprendimento del linguaggio avviene per lo più attraverso il linguaggio stesso, come spiegava Sant’Agostino in tempi non sospetti. Insomma, dal linguaggio non si esce. Tuttavia, nessuno riesce oggi a immaginare come insegnare il linguaggio ad una macchina semplicemente bagnandola in un fiume non supervisionato di parole. D’altro canto, potremmo noi imparare il cinese solo ascoltando parlare i cinesi? Anche avendo solo una grammatica e un vocabolario incontreremmo insormontabili difficoltà. Dobbiamo passare attraverso un lungo e complesso apprendistato, fatto di riflessioni metalinguistiche, collocamento in situazioni, ostensione di cose, sempre sotto la guida di un parlante nativo.

L’apprendistato linguistico delle macchine appare dunque la più solida garanzia del nostro “rimanere nel giro” dello sviluppo tecnologico.

Quanto dobbiamo sentirci rassicurati da questa umanistica constatazione? Il giusto. Infatti, assieme agli esseri umani, nel “loop” dell’IA entrano anche gli eterni problemi delle loro società. Se è vero che la conoscenza che mettiamo nelle macchine origina, col linguaggio, nella cultura, si comprende bene come l’iniezione di questa conoscenza nel silicio sia irta di questioni non banali. Cosa scegliamo di rappresentare? Come? E soprattutto: chi sceglie? Con quali metodi? Come rendiamo conto sia delle rappresentazioni che forniamo alle macchine, sia dei ragionamenti automatici che si basano su di esse? Nella misura in cui l’intelligenza è linguaggio e il linguaggio è potere, l’IA accentua la necessità di un controllo democratico sull’uso sociale delle tecnologie. Questo è particolarmente vero per le applicazioni della Pubblica Amministrazione.

In conclusione, l’idea di un’IA capace di costruire conoscenza applicando la matematica ai puri dati è l’ultima, in ordine di tempo, delle ingenuità (o della malafede) di un certo scientismo. Le macchine impareranno quello che noi insegneremo loro, un po’ come fanno i bambini. Da una parte questo ci rassicura: nessun super-organismo verrà a soppiantarci. D’altra parte, però, dobbiamo renderci conto delle responsabilità educative che abbiamo nei confronti delle macchine intelligenti, e dell’importanza non solo per l’economia ma per la stessa democrazia di mantenere l’Intelligenza Artificiale sotto il controllo dell’intera società.

Articoli correlati