L’intelligenza artificiale è passata rapidamente dai laboratori di ricerca alla nostra vita quotidiana, dove può offrire raccomandazioni, migliorare i risultati di ricerca, assistere nella redazione di un testo, e persino creare immagini e video. È uno strumento potente in rapida evoluzione, che incuriosisce gli utenti ed è sempre più centrale nel mondo della tecnologia. In futuro, potrà diventare decisiva anche per il funzionamento della società.
Indice degli argomenti
I principi fondamentali dell’open source IA
Peraltro, man mano che l’IA diventa più potente e influente, emerge una domanda fondamentale: chi la controlla? Ed è qui che entrano in gioco i principi e i metodi dell’open source.
L’open source è sinonimo di trasparenza, collaborazione e progresso condiviso. Principi che dovrebbero essere applicati all’IA, perché il codice, i modelli, i set di dati e gli strumenti sarebbero disponibili con licenze d’uso che consentono a tutti di utilizzarli, studiarli, modificarli e distribuirli, con vantaggi che vanno oltre lo sviluppo del software e toccano etica, economia, sicurezza e innovazione.
Open source IA e trasparenza dei modelli linguistici
I modelli di IA, e in modo particolare i modelli linguistici di grandi dimensioni o LLM e i sistemi di deep learning (o apprendimento profondo), sono scatole nere che spesso usano le informazioni senza tenere in alcun conto la loro provenienza. Quando i sistemi vengono utilizzati in ambiti dove la privacy è di fondamentale importanza, come le assunzioni, la giustizia penale, la finanza e la sanità, questo si traduce in un problema significativo.
Con un approccio open source, il codice, i dati di addestramento e l’architettura verrebbero condivisi, e questo consentirebbe a sviluppatori, ricercatori e autorità di regolamentazione di esaminare il funzionamento di un modello. Questa trasparenza potrebbe aumentare la fiducia nelle funzioni di AI. Per esempio, se un sistema di riconoscimento facciale è open source, i ricercatori possono verificarne la parzialità, e se uno strumento di diagnostica medica è open source, i medici e gli scienziati possono verificarne l’attendibilità.
L’open source, quindi, non garantirebbe risultati migliori o una maggiore sicurezza, ma renderebbe possibile la supervisione e il controllo, e questo è un passo assolutamente necessario in direzione di un’IA responsabile e soprattutto rispettosa dei dati privati degli utenti.
Accelerazione dell’innovazione attraverso l’open source IA
Inoltre, un approccio open source consentirebbe un’accelerazione dello sviluppo delle soluzioni di IA, in quanto i ricercatori e gli sviluppatori potrebbero riusare i modelli e i framework esistenti come punti di partenza, per innovare attraverso il loro miglioramento.
Per esempio, la disponibilità del codice sorgente di TensorFlow e PyTorch, due framework per il machine learning open source, ha alimentato migliaia di articoli di ricerca, startup, app ed esperimenti. E ancora, modelli open source come BERT, Stable Diffusion e LLaMA hanno generato numerosi progetti innovativi, a partire da migliori motori di ricerca migliorati fino a strumenti creativi di IA per l’arte e la scrittura.
In questo caso, un approccio open source più diffuso potrebbe accelerare il ritmo dello sviluppo degli strumenti di IA, grazie all’abbattimento delle barriere tra tutti i progetti e al conseguente aumento della base dei contributori e quindi anche del numero degli stessi progetti, con una spirale positiva.
Sfide economiche per l’open source IA
Purtroppo, gli altissimi costi di addestramento da zero di un grande modello di IA fanno si che oggi il settore sia appannaggio dei ricchi giganti della tecnologia, e la maggior parte dei modelli sia proprietario. L’azienda alle spalle di ChatGPT si chiama OpenAI perché l’intenzione iniziale era quella di condividere la tecnologia utilizzando un modello open source, ma quando è stato chiaro che il settore aveva un enorme potenziale economico la tecnologia è diventata proprietaria. Oggi solo alcune tra le Big Tech continuano a utilizzare il modello open source, e solo per una porzione della loro tecnologia.
Fortunatamente, ci sono modelli open source preaddestrati che consentono alle aziende più piccole, ai ricercatori e persino a singoli individui di mettere a punto modelli per casi d’uso specifici, contribuire a miglioramenti o costruire strumenti completamente nuovi senza nessun investimento iniziale.
Open source IA e miglioramento della sicurezza
L’adozione di un modello open source potrebbe anche contribuire a una maggiore sicurezza, dato che la disponibilità del codice sorgente potrebbe consentire a team di esperti di controllarlo per individuare vulnerabilità, backdoor o comportamenti dannosi.
È lo stesso principio alla base della sicurezza di Linux o OpenSSL: migliaia di occhi sono meglio di pochi. I sistemi chiusi possono sembrare più controllati, ma possono nascondere difetti per anni. I sistemi aperti vengono sottoposti a stress test in pubblico, il che di solito porta a un software più robusto nel medio e lungo periodo.
Democratizzazione dell’accesso all’IA attraverso l’open source
In questo momento, un piccolo numero di aziende tecnologiche controlla i più potenti sistemi di IA e decide cosa viene sviluppato e rilasciato, in quale modo si evolve, e chi può utilizzarlo. Questo tipo di concentrazione crea delle asimmetrie, di tipo sia economico sia sociale, per la capacità di usare gli strumenti di IA per il controllo e la profilazione degli utenti, che a loro volta si traducono in ulteriori opportunità economiche.
Naturalmente, un’IA basata sul modello open source non risolverebbe questo squilibrio in tempi brevi, ma contribuirebbe a contrastarlo, offrendo a un maggior numero di persone gli strumenti per fare ricerca, sperimentare, sviluppare prodotti, e influenzare la direzione dell’IA.
Quando Meta ha rilasciato porzioni della famiglia di modelli linguistici LLaMA con licenza open source, ha consentito alla comunità di intraprendere dei progetti. Gli sviluppatori hanno iniziato a modificare e ottimizzare i modelli, rendendoli più efficienti e utilizzabili anche su dispositivi di bassa potenza e portatili. Questo tipo di attività, nel medio e lungo periodo, potrebbe evitare che solo gli strumenti più potenti abbiano accesso ai modelli di IA, e che questi vengano controllati da poche aziende.
Ovviamente, l’adozione di un modello open source per l’IA comporta anche dei rischi, perché la disponibilità trasversale di modelli molto potenti potrebbe avere delle conseguenze negative legate a un uso improprio della tecnologia: deepfake, spam, attacchi informatici e altro ancora.
Qualcuno sostiene che l’accesso aperto al codice sorgente dei modelli di IA più avanzati equivale alla pubblicazione dei progetti di macchinari pericolosi, per le potenzialità della tecnologia. È un’osservazione discutibile, ma il rischio – se la tecnologia finisce nelle mani sbagliate – è reale. La soluzione, però, non è quella di chiudere tutto, perché la segretezza totale crea un diverso tipo di pericolo: il potere senza controllo che è alla base del “capitalismo della sorveglianza” (libro scritto da Shoshanna Zuboff, di cui consiglio caldamente la lettura).
Verso un approccio open source IA responsabile
La soluzione migliore sarebbe quella di un approccio open source responsabile, con il rilascio di modelli con protezioni di sicurezza, verificate dalla comunità dei tecnici prima del lancio e della disponibilità sul mercato, e la definizione di nuovi modelli che rispettano i diritti e la privacy degli utenti a livello di impostazione.
I progetti OpenRAIL (Open Responsible AI Licenses) e AIID (Artificial Intelligence Incident Database) sono i primi tentativi di equilibrio tra l’accesso aperto al codice sorgente dei modelli e l’utilizzo responsabile dei modelli stessi. La strada, in ogni caso, è ancora lunga, anche perché l’IA viene spesso usata in modo “disinvolto” proprio da chi dovrebbe dare l’esempio, perché ha una grande visibilità mediatica.
La speranza è che l’evoluzione segua un percorso simile a quello del software open source, prima osteggiato e combattuto in qualsiasi modo dalle aziende del software proprietario, e poi largamente adottato quando sono diventati evidenti i limiti dello sviluppo in ambiente chiuso. L’obiettivo finale è quello di avere un ecosistema di IA che premia gli investimenti (in tempo, in denaro o in risorse) nel rispetto dei valori della collettività.