I modelli LLM open source stanno rapidamente conquistando quote di mercato, spinti dall’innovazione di aziende cinesi, europee e americane che rilasciano soluzioni con licenze permissive. Questa crescita rappresenta un’alternativa concreta ai modelli proprietari, offrendo controllo, trasparenza e costi ridotti, pur con alcune limitazioni tecniche da considerare.
Indice degli argomenti
Open source vs open weight: le differenze che contano
L’ecosistema dei modelli LLM definiti come open source – o quasi, visto che nella maggior parte dei casi l’apertura è parziale e riguarda solo i “pesi”, tanto che si parla di open weight, e solo in pochi casi è tale da poter parlare di open source (secondo la definizione OSI) – è in forte espansione.
Prima di procedere, cerchiamo di chiarire il concetto di open weight, che si riferisce ai “pesi” e ai bias di un LLM addestrato. Una volta fissati, questi valori determinano il modo in cui il modello interpreta i dati di input e genera gli output, e se rilasciati con licenza open source compatibile OSI consentono di adattare il modello stesso a un progetto.
La pressione cinese e la risposta occidentale
I modelli LLM sviluppati in Cina, come DeepSeek, Qwen, Moonshot, Z.ai e MiniMax, stanno guadagnando terreno, e il rilascio dei loro “pesi” sta mettendo pressione alle aziende statunitensi. Per esempio, OpenAI – che di open ha solo una parte del nome – ha presentato GPT-oss, il suo primo modello open weight in sei anni, che è aperto solo in parte. Un primo, piccolissimo, passo in avanti.
LLaMA di Meta e l’evoluzione dei modelli aperti
I modelli LLaMA di Meta sono spesso considerati il punto di riferimento per i LLM open source, ma anche loro sono aperti solo parzialmente, visto nel caso del primo modello rilasciato a febbraio 2023 con licenza GPLv3 i “pesi” erano limitati, e anche nel caso di LLaMA-2 l’accesso non era completamente aperto. Nonostante ciò, i due modelli hanno consentito una prima evoluzione dell’IA in direzione open source e sono probabilmente alla base dei nuovi annunci di modelli LLM aperti.
Mistral, Gemma e Falcon: i protagonisti del 2025
Nel 2025, Mistral AI ha rilasciato dei modelli aperti efficienti e ad alte prestazioni, come Mistral Small 3.1, Medium 3, Magistral e altri, con licenze permissive Apache 2.0. Sempre nel 2025, Google DeepMind ha rilasciato la serie Gemma (Gemma 1, 2, 3) che si è affermata come alternativa leggera. Altre novità degne di nota includono la serie Falcon (7B, 40B, 180B), sempre con licenza permissiva.
Perché l’apertura dei modelli è importante
La disponibilità di LLM open source o perlomeno open weight è importante, perché consente l’accesso a un maggior numero di studenti e ricercatori, per ispezionare il modello in ottica etica (utilizzo corretto dei dati per il training del modello), e per personalizzare il modello, perfezionandolo o aggiungendo funzionalità, senza dover passare dalle forche caudine di una licenza restrittiva.
Costi operativi ridotti e hosting autonomo
Inoltre, gli LLM open source od open weight hanno quasi sempre costi operativi inferiori, perché l’hosting autonomo di modelli aperti di grandi dimensioni – come nel caso di DeepSeek V3 su GPU spot H100 – può costare il 75% in meno per 1.000 token rispetto a GPT 4o tramite API, e molti modelli (come Mistral Small 3.1 e Mixtral) funzionano su una singola GPU di fascia alta o addirittura sui moderni Mac con processore Apple.
Privacy e flessibilità per settori critici
A questo si aggiungono i vantaggi tipici dei sistemi aperti, in quanto i dati risiedono sui server di proprietà degli utenti, un presupporto fondamentale per settori come la sanità e la finanza, e il loro uso non è vincolato a quote API o a restrizioni imposte da una licenza restrittiva (sempre che quest’ultima consenta l’uso dei dati).
Innovazione e concorrenza nell’ecosistema aperto
Tutto questo promuove l’innovazione e la concorrenza, come sta avvenendo grazie alla disponibilità di piattaforme come Hugging Face, vLLM e LMDeploy, e di modelli open source od open weight concorrenti come Llama, Mistral e DeepSeek. Questo, nonostante ci siano ancora limitazioni e problemi da risolvere, e una strada lunga e tortuosa da percorrere.
Le sfide infrastrutturali dei modelli aperti
E infatti, non è tutto oro quel che luccica. In parte, perché gli LLM open source od open weight sono affetti dagli stessi problemi infrastrutturali degli LLM proprietari, ovvero dalla necessità di GPU sempre più potenti per funzionare correttamente – le configurazioni ideali spesso prevedono server multi-GPU o cloud H100 – con tutto quello che ne deriva in termini di costi per l’elaborazione dei dati, l’alimentazione, il raffreddamento, la manutenzione e lo sviluppo.
Limitazioni prestazionali e di supporto
In parte, perché i modelli aperti sono talvolta inferiori alle controparti proprietarie (come GPT 4 o PaLM 2) in termini di ragionamento o fluidità dei processi, e non sono sostenuti da un livello di assistenza paragonabile a quello offerto dalle aziende, con Service Level Agreement (SLA), garanzie di uptime e documentazione delle API.
Licenze restrittive e problemi di sicurezza
Inoltre, come ho già spiegato in precedenza, non tutti i modelli open source od open weight sono completamente aperti secondo la definizione OSI. Per esempio, Llama 4 di Meta e Nemotron Ultra di NVIDIA hanno licenze restrittive.
A questo si aggiunge il fatto che molti modelli aperti non dispongono di protezioni adeguate, e in assenza di livelli di moderazione possono produrre risultati tossici o distorti, e che i “pesi” aperti semplificano l’utilizzo dei modelli in modo malevolo da parte dell’industria del malware.
I modelli principali: caratteristiche e prestazioni
Fatta questa lunghissima premessa, per definire in modo chiaro a tutti i contorni dell’argomento, passiamo a una velocissima analisi dei modelli open source od open weight più importanti, dei loro punti di forza e delle loro limitazioni:
- DeepSeek V3, con licenza Apache 2.0, prestazioni avanzate di ragionamento e calcolo matematico, e basso costo dei token, ma con elevati costi di infrastruttura ed ecosistema ancora in fase di maturazione.
- Mixtral 8×22B con architettura MoE (mixture of experts), scalabile ed efficiente, con eccellente rapporto qualità-prezzo per la generazione di token, ma complesso (a causa dell’architettura MoE) e con un numero inferiore di benchmark rispetto a GPT 4.
- Mistral Small 3.1 (e famiglia), con licenza Apache 2.0, è in grado di funzionare su una GPU per PC e ha un’enorme finestra di token (128K), ma è più piccolo dei grandi LLM e potrebbe avere prestazioni inferiori con i compiti più complessi.
- Gemma 3 (Google DeepMind), affidabile (ha Google alle spalle), aperto e leggero, ma con ridotto numero di parametri e benchmark pubblici limitati.
- Serie Falcon (7B, 40B, 180B), con licenza permissiva (da verificare), training su larga scala e prestazioni avanzate rispetto a PaLM 2, e forse anche conveniente, ma richiede un’infrastruttura molto pesante (e quindi costosa).
- LLaMA (Meta), affidabile (ha Meta alle spalle), ampiamente utilizzato, flessibile e personalizzabile (LLaMA 2 ha migliorato l’accessibilità), e con una solida base, ma con una licenza restrittiva per i “pesi” e con le limitazioni di LLaMA 4.
Quando scegliere open source o open weight
A questo punto, viste le premesse, i pro e i contro, e le caratteristiche dei singoli prodotti (o famiglie di prodotti), la domanda – da parte di chi deve implementare una soluzione di IA basata sugli LLM disponibili: open source, open weight o proprietari – sorge spontanea: quando e perché scegliere open source od open weight?
La risposta è semplice in alcuni casi – scegli open source se stai lavorando su dati sensibili, o se sei uno studente o un ricercatore e vuoi flessibilità – e più complessa in altri: scegli open source od open weight se devi controllare i costi di onboarding, se hai bisogno di personalizzazione, e se hai un’infrastruttura (o puoi prendere in prestito cicli GPU) e preferisci l’autonomia.
Strategie ibride e prospettive future
Come alternativa, esiste un approccio ibrido, dove si usano modelli open source od open weight per le attività di personalizzazione e si passa alle API closed source per le attività che richiedono prestazioni o sicurezza all’avanguardia.
In futuro, con l’evoluzione delle API e dei framework accessibili, e con strumenti di ottimizzazione più efficaci, i modelli open source riusciranno a bilanciare i costi e la privacy con l’innovazione, e probabilmente conquisteranno una quota sempre più ampia di mercato (un po’ come è successo nel campo dell’infrastruttura di rete).











