Ormai sappiamo come un pilastro essenziale di questa nuova era di tecnologie IT basate sull’intelligenza artificiale siano le collezioni di dati utilizzate per effettuare l’addestramento dei modelli.
La composizione della collezione ha implicazioni su elementi centrali all’impiego reale di queste tecnologie, temi critici su cui fioccano molte cause legali negli Usa:
- la privacy,
- il bias dovuto ai punti di vista espressi nei documenti selezionati,
- il copyright e il diritto d’uso per la generazione di nuovi contenuti.
A testimonianza del fatto che si tratti di un tema caldo, è notizia di questi giorni quella di un giudice americano che non ha riconosciuto il diritto al Copyright di un immagine generata da una AI, nonostante l’argomentazione che l’elaborazione del prompt che la genera abbia diritto ad essere tutelata.
La svolta dei dati per l’IA: l’esempio Adobe
Ma adesso stiamo entrando in una nuova fase. Verso un modo diverso di usare i dati, rispetto allo scraping massivo. Con un uso più settoriale, più accurato, che può dare anche risultati migliori, più utili, oltre che più corretti e leciti.
Improvvisamente un colosso come Adobe, il cui business sembrava in discussione a causa della capacità sia generativa di immagini e video che di modifica, ha visto un repentino cambiamento alla rivelazione degli strumenti denominati Firefly con un incremento del valore delle azioni della corporate del 36%.
La tecnologia Firefly è basata sull’enorme collezione di immagini acquisite da Adobe nel corso di decenni, consentendo l’apprendimento di modelli di AI generativa come quello che consente a Photoshop di aggiungere elementi generati a partire da un’area selezionata e un prompt testuale.
Gli investitori scommettono sul fatto che, detenendo i diritti d’uso delle immagini, Adobe potrà impiegare le tecnologie di generazione di immagini senza timori di azioni legali da parte degli autori, un rischio concreto che corrono OpenAI (per il modello DALL-E) e Midjourney (per l’omonimo modello) che hanno usato immagini raccolte on-line ponendo un problema sui diritti d’uso delle immagini elaborate.
Capitalizzare la conoscenza con l’intelligenza artificiale
Che un colosso IT come Adobe possa sfruttare i propri asset per addestrare dei modelli AI può non stupire più di tanto, ma è naturale chiedersi chi detenga collezioni dati, e soprattutto i diritti d’uso necessari a procedere all’addestramento di modelli.
Sicuramente Amazon AWS a fine 2019 annunciava tra i servizi del Sage maker la possibilità di raffinare un modello di fraud detection usando quello addestrato utilizzando i dati ottenuti dalle frodi sul sito di Amazon, sicuramente un modello tra i più raffinati al mondo nell’ambito del commercio on-line.
Ad agosto Google ha lanciato un servizio su Youtube per acquisire le licenze d’uso delle voci degli artisti per addestrare modelli di AI dedicati alla voce. Primo accordo: con Universal.
Sempre più spesso detentori di dati di interesse per l’addestramento di modelli AI vengono contattati da chi, come Google, ha le competenze per creare i modelli pagando gli opportuni diritti. Sembra emergere quindi un modello di business che invece di appellarsi alla nozione di fair use di dati pubblicati in rete si paga l’accesso ai dati per l’addestramento sfruttando i modelli di distribuzione dei diritti già in uso e accettati dalla nostra organizzazione sociale.
I vector database
Ma come può una realtà più piccola e con capitali sia finanziari che umani meno corposi capitalizzare sulla conoscenza di cui si dispone, magari senza disporre delle quantità di dati necessarie ad addestrare un modello di deep learning autonomamente? La risposta è “vector database”.
Ad aprile una startup chiamata Weaviate ha acquisito 50 milioni di dollari di valore grazie al diffondersi del database AI con lo stesso nome.
Poche settimane dopo un suo competitor, PineCone, ha visto la propria valutazione salire di 100 milioni di dollari.
Più recentemente un’altra compagnia, Neon, ha raccolto altri 46 milioni di dollari in un round di finanziamenti.
Per capire perché questi “vector database” stiano divenendo così popolari da attrarre finanziamenti così ingenti è necessario comprendere il concetto di embedding. Un embedding è un vettore, ovverosia una lista di numeri, prodotto da un modello di AI che rappresenta un particolare concetto, sia esso del testo o un’immagine.
In uno spazio vettoriale è sempre possibile “misurare” la distanza tra due vettori e, se si dispone di una collezione concetti ordinarli per “vicinanza” rispetto ad un dato input.
Ad esempio in un database di film il termine “robot” potrebbe considerare “WALL-E” il concetto più vicino nonostante nel database non appaia il termine robot esplicitamente.
Se si dispone quindi di un modello capace di produrre gli embedding di informazioni in possesso dell’organizzazione è possibile organizzare la conoscenza dell’organizzazione in frammenti ricercabili per il loro significato, consentendo di trovare concetti espressi in una lingua a partire da richieste in un’altra, o un’immagine a partire da frammenti affini di un’altra.

Questi sistemi consentono, in un’organizzazione più ordinaria dei dati con oggetti rappresentati da liste di proprietà con associati i valori, di beneficiare dei modelli di AI disponibili sia online, come quelli di Google o di OpenAI, oppure liberamente disponibili su Hugging Face o con modelli rilasciati come LLaMa2.
Opportuni moduli (vectorizer modules) sono responsabili di interrogare il modello per ottenere il vettore che ne rappresenti il concetto. Il database offre quindi operatori per operare sui vettori per trovare elementi affini al significato di una particolare interrogazione.
In effetti questi database sono sempre più spesso usati come una sorta di memoria a lungo termine in cui memorizzare i frammenti di conoscenza da ricercare al fine di generare un prompt, superando quindi il limite alla conoscenza che si può esprimere in un prompt di un modello LLM.
Valorizzare la conoscenza
La possibilità di cercare nelle informazioni in modo più “semantico” consente di valorizzare le conoscenze di un’organizzazione, anche piccola, senza dover costruire enormi collezioni di dati che consentano l’addestramento di un modello. In ogni caso l’idea di “pagare” per l’uso di dati in possesso di organizzazioni per l’addestramento sembra offrire una via alternativa al ricorso al “fair use” per l’uso di informazioni acquisite navigando Internet.
Non bisogna dimenticare il parziale fallimento dell’iniziativa big data dieci anni fa: molte organizzazioni, nonostante gli investimenti, non sono riusciti ad estrarre valore dai propri dati.
È difficile capire l’impatto che avrà sul business l’applicazione di questi nuovi modelli, e sicuramente la scarsità di competenze per far fruttare queste architetture potrebbe ridurre il valore potenzialmente generabile a partire dalla propria conoscenza.
Vedremo come la crescita di questi strumenti contribuiranno a sviluppare nuove organizzazioni, sicuramente è il momento di non limitarsi a fare domande ai modelli LLM ma capire come arricchirli di conoscenza esterna.