Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

la riflessione

L’intelligenza artificiale e il “muro” del significato: ecco il rebus da risolvere

Potrà l’Intelligenza artificiale venire a capo della “teoria del significato”, sulla quale l’uomo si interroga da oltre duemila anni? Non ci sono riusciti i filosofi e neanche i linguisti. Con l’avvento dell’IA, tocca agli informatici misurarsi con questo tema. E chissà, magari saranno le macchine a risolvere il puzzle

02 Gen 2019

Guido Vetere

Università degli Studi Guglielmo Marconi


Qual è il significato di significato? La domanda attanaglia i filosofi da oltre duemila anni e nessuno, neanche i linguisti, è riuscito a venirne a capo. Ecco perché, se due chatbot iniziassero a parlare tra loro in una lingua inventata e semanticamente pregnante, il timore di scenari distopici sarebbe almeno compensato dalla soddisfazione di aver compreso un po’ di più i meccanismi cognitivi che noi stessi utilizziamo per comprendere il mondo.

Sì, perché anche io stesso, nel momento in cui sto scrivendo queste parole, lo faccio perché sono sicuro che voi le comprenderete. Ma se dovessi giustificare questa mia certezza, mi troverei in serio imbarazzo. In realtà, nessuno può fornire una spiegazione scientifica del perché voi state capendo ciò che scrivo. E non è neanche chiaro cosa si debba esattamente intendere per comprensione, cioè quale sia il significato di “significato”, per dirla con un classico libro sull’argomento (Ogden e Richard, Il significato del significato, trad. it. 1966). Insomma, così come Sant’Agostino sapeva cos’era il tempo finché non glielo chiedevano, sappiamo cos’è il significato tranne quando dobbiamo spiegarlo. Eppure, certi venditori di Intelligenza Artificiale amano dire: “le nostre macchine capiscono il linguaggio come gli esseri umani”. Come possono esserne tanto sicuri?

Il significato in filosofia e linguistica

Il significato accade. Accade cioè che noi ci si comprenda, con buona pace dei sofisti. A questo innegabile fatto, Aristotele fornì una spiegazione molto semplice, ingenua forse, ma tutt’ora popolare: la realtà, che è la stessa per tutti, produce impressioni nella psiche, anch’esse simili per tutti, e il linguaggio altro non è che dar voce a queste impressioni. Molti filosofi, tuttavia, rimasero scettici, o almeno ci vollero guardar meglio. Da quei tempi in poi (e forse anche da prima), la filosofia, a riguardo del significato, è tutto un susseguirsi di ingenuità e scetticismo. I linguisti, dal canto loro, hanno per lo più evitato il faccia-a-faccia col problema (lo spiega bene De Mauro nella sua Introduzione alla semantica, 1989) restando nelle acque sicure della lessicografia e della grammatica. Il significato accade, dunque, ma, per dirla con Willard V.O. Quine, accade in modo imperscrutabile.

Gli informatici alle prese col significato

Oggi, a dover guardare negli occhi la Gorgone del significato si trovano gli informatici che sviluppano l’Intelligenza Artificiale. Lo fanno, in genere, con ignara spensieratezza, ma alcuni iniziano a rendersi conto che qualcosa non quadra. In un recente articolo del New York Times, Melanie Mitchell (Università di Portland), dopo aver passato in rassegna un certo numero di epic fail semantici dei sistemi di deep learning, conclude:

L’obiettivo di sviluppare una IA affidabile richiederà un’indagine più approfondita sulle nostre straordinarie abilità e nuove intuizioni sui meccanismi cognitivi che noi stessi usiamo per comprendere il mondo in modo affidabile.

La cattiva notizia, però, è che questa indagine approfondita è esattamente quella che la filosofia sta tentando di fare da più di duemila anni. Potrà l’Intelligenza Artificiale venire a capo di una questione del genere? Non si tratta di una domanda retoricamente beffarda: riprodurre in silicio alcune facoltà cognitive, simulare comunità di agenti semiotici, sperimentare modelli formali di semantica del linguaggio naturale con metodi computazionali potrà certamente contribuire a dar nuova linfa alla sempiterna ricerca di una teoria del significato.

L’intelligenza artificiale e il muro della semantica

Un paio di anni fa, per inciso, il Mondo sobbalzava alla notizia che il sistema di traduzione automatica di Google stava inventando un nuovo linguaggio. La notizia fu poi ridimensionata, ma di tanto in tanto la voce di automi che inventano linguaggi per comunicare tra loro (alle nostre spalle) torna a levarsi, con l’immancabile corredo di figurazioni ansiogene e distopiche. Ma se due chatbot iniziassero davvero a parlarsi in una lingua inventata e semanticamente pregnante, lo spavento e il sospetto per quello che potrebbero dirsi sarebbe abbondantemente compensato dalla soddisfazione di aver finalmente risolto uno dei più antichi puzzle filosofici.

Così come l’assenza di una teoria del significato non ci impedisce di comprendere ed essere compresi, anche le nostre macchine possono lavorare con opportune approssimazioni della semiosi linguistica. La semantica è un muro sul quale i sistemi di Intelligenza Artificiale possono andare a sbattere, come suggerisce l’articolo del New York Times. L’impatto tuttavia si può evitare, a condizione di venire umilmente a patti con l’imperscrutabile. Ma soprattutto, si scongiura vedendo bene il muro.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3