L’intelligenza artificiale sta trasformando il panorama tecnologico globale, e l’Italia ora prova a fare la sua parte.
iGenius, in collaborazione con Cineca, ha sviluppato il modello “Italia 9B”, un avanzato sistema di elaborazione del linguaggio naturale, per supportare le aziende italiane in attività come generazione di testi, traduzioni, miglioramento dei contenuti e sviluppo di codice.
L’abbiamo provato, dato che è open source, su Hugginface.
Modello Italia di iGenius: come adottarla nell operazioni aziendali
Italia 9B è un modello particolarmente avanzato per l’elaborazione del linguaggio naturale, ma come possono le aziende implementarlo nella propria attività quotidiana?
Generazione di testi
Tra le integrazioni più interessanti c’è sicuramente la generazione di testi; infatti, si possono creare contenuti come articoli, recensioni, descrizioni e altro fornendo al prompt le indicazioni corrette; sarà poi il software a produrre un testo coerente con la richiesta. Ma si può estendere l’applicazione anche alle traduzioni automatiche, dato che basta inserire la frase oppure il testo in lingua italiana e richiedere la traduzione in una o più lingue differenti.
Assistenza tecnica
iGenius ha sviluppato Italia anche per consentire alle aziende di migliorare tutti gli aspetti legati alle risposte di specifiche domande. Si possono effettuare domande generali su una vasta gamma di argomenti, oppure richiedere una vera e propria assistenza tecnica se bisogna rispondere a quesiti tematici e vi è la necessità di ottenere spiegazioni dettagliate.
Correzione e miglioramento dei testi
Tra le altre cose che può fare il modello Italia c’è anche la correzione e il miglioramento dei testi, infatti, le aziende possono sfruttare tale strumento per l’editing testuale, migliorando lo stile, la grammatica e tutti gli aspetti legati all’ottenere la massima qualità. Ma si può usufruire anche di un’ottima gestione di sintesi, infatti, se si ha a disposizione un testo molto lungo si può richiedere al software di sintetizzarlo in modo conciso.
Generare un codice informatico
Non vi è alcun dubbio però sul fatto che Italia possa diventare una risorsa concreta soprattutto per chi deve generare un codice informatico per lo sviluppo di applicazioni. Le aziende possono creare snippet di codice in vari linguaggi di programmazione, velocizzando notevolmente lo sviluppo di un’idea digitale. A ciò si aggiunge la possibilità di usufruire dello pseudocodice, infatti, se si avesse la necessità di scrivere un algoritmo, Italia potrebbe aiutare sensibilmente in tale processo.
Non è un caso che Italia risulti una valida soluzione anche per chi vuole assistenza tecnica; ponendo le giuste domande al programma si ottengono spiegazioni precise sulla risoluzione dei problemi. Così come anche gli artisti e grafici possono usufruirne al meglio, con tale tool vi è la possibilità di creare poemi, storie e parodie.
iGenius in sei passaggi
Nei prossimi passaggi vediamo come caricare e utilizzare un modello personalizzato su Huggingface, passo dopo passo. Questa guida è pensata per i principianti, quindi non preoccuparti se non hai esperienza precedente con la piattaforma.
Requisiti specifici per sistema operativo
- Windows
Python e pip: Assicurati di avere Python installato e di aver selezionato l’opzione per aggiungere Python al PATH durante l’installazione.
Visual C++ Build Tools: Potrebbe essere necessario installare i Visual C++ Build Tools per compilare alcune delle dipendenze della libreria.
- macOS
Xcode Command Line Tools: Assicurati di avere gli strumenti da riga di comando di Xcode installati. Puoi installarli con il comando:
xcode-select –install
Passaggio 1: installare le dipendenze
Prima di tutto, dobbiamo assicurarci di avere tutto il necessario installato sul nostro sistema.
1. Python: Huggingface richiede Python 3.6 o versioni successive. Puoi scaricare Python dal sito ufficiale python.org.
2. pip: pip è il gestore di pacchetti di Python e deve essere aggiornato all’ultima versione. Puoi aggiornarlo con il comando:
pip install –upgrade pip
Successivamente, installiamo la libreria transformers di Huggingface:
pip install transformers
Passaggio 2: preparare i file del modello
Avrai bisogno dei seguenti file:
• italia.bin: Il file del modello preaddestrato scaricato dal sito iGenius
• tokenizer.model: Il file del tokenizer associato
Assicurati che questi file siano in una directory accessibile sul tuo computer.
Passaggio 3: creare un repository su Huggingface
Per caricare il tuo modello su Huggingface, devi creare un repository sul loro sito.
1. Accedi a Huggingface: Vai sul sito di Huggingface e accedi al tuo account. Se non hai un account, creane uno.
2. Crea un nuovo repository: Clicca sull’icona del profilo in alto a destra, seleziona “New model” e compila i dettagli necessari per il tuo nuovo repository.
Passaggio 4: caricare i file nel repository
Ora dobbiamo caricare i file del modello nel repository creato.
- Clonare il repository: Clona il repository sul tuo computer locale usando Git.
git clone https://huggingface.co/tuo-username/tuo-repo-name
cd tuo-repo-name
- Aggiungere i file: Copia i file del modello (italia.bin) e del tokenizer (tokenizer.model) nella directory del repository.
- Eseguire commit e push dei file:
git add .
git commit -m “Aggiungi file del modello e del tokenizer”
git push
Passaggio 5: creare uno script per caricare e usare il modello
Ora che i file sono nel repository, possiamo creare uno script per caricare e utilizzare il modello.
Crea un file Python chiamato run_inference.py e inserisci il seguente codice:
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
# Carica il tokenizer
tokenizer = AutoTokenizer.from_pretrained(“tuo-username/tuo-repo-name”, use_fast=True)
# Carica il modello
model = AutoModelForCausalLM.from_pretrained(“tuo-username/tuo-repo-name”)
# Inferenza
def generate_text(prompt):
inputs = tokenizer(prompt, return_tensors=”pt”)
outputs = model.generate(**inputs)
return tokenizer.decode(outputs[0], skip_special_tokens=True)
if __name__ == “__main__”:
prompt = “Inserisci qui il tuo prompt”
print(generate_text(prompt))
Sostituisci “tuo-username/tuo-repo-name” con il tuo effettivo nome utente e nome del repository su Huggingface.
Passaggio 6: testare il tuo script
Eseguire lo script per assicurarsi che tutto funzioni correttamente:
python run_inference.py
Si dovrebbe vedere un testo generato dal modello in risposta al prompt inserito.
I nostri test del chatbot iGenius
Abbiamo testato il modello su un’ampia gamma di prompt, misurando la qualità delle risposte in termini di pertinenza, coerenza e creatività.
- Prompt: “Scrivi una poesia sulla natura”
Risposta del nostro modello:
La natura è un dipinto di colori vivi,
Con alberi e fiori, un mondo che ci invita.
Il vento canta dolci melodie,
E il sole splende con calde armonie.
Risposta di ChatGPT:
Nei boschi silenti e nei prati fioriti,
La natura sussurra con toni infiniti.
Il vento tra gli alberi danza leggero,
E il sole dipinge un quadro sincero.
Risposta di Gemini:
Nel cuore della natura, la pace risiede,
Con fiumi che scorrono e uccelli che siede.
Il sole che sorge e il vento che soffia,
In un’armonia che mai si spezza.
Prestazioni
Le prestazioni del nostro modello sono state valutate anche in termini di velocità di risposta e consumo di risorse. Abbiamo riscontrato che il nostro modello, grazie all’ottimizzazione specifica per il nostro uso, offre tempi di risposta competitivi rispetto a ChatGPT e Gemini.
Facilità d’uso e accessibilità
Un altro punto di forza della nostra implementazione su Huggingface è la facilità d’uso. Grazie alla documentazione completa e agli strumenti di sviluppo forniti dalla piattaforma, abbiamo potuto integrare rapidamente il nostro modello nei nostri sistemi esistenti.
Sfumature della lingua italiana
Un aspetto in cui il nostro modello eccelle è la comprensione e la generazione di testi con sfumature linguistiche particolari della lingua italiana. Grazie all’addestramento su un dataset specifico e diversificato, il nostro modello è in grado di comprendere meglio i contesti culturali e le sfumature linguistiche dell’italiano rispetto a modelli più generici come ChatGPT e Gemini. Questo si traduce in risposte più naturali e pertinenti quando si tratta di conversazioni complesse o contesti specifici della cultura italiana.
Conclusioni
In conclusione, il nostro modello personalizzato su Huggingface ha dimostrato di essere una valida alternativa a ChatGPT e Gemini in contesti specifici. La capacità di personalizzare e ottimizzare il modello per le nostre esigenze particolari ci ha permesso di ottenere risposte di alta qualità, mantenendo prestazioni competitive. Tuttavia, per applicazioni più generali, i modelli di OpenAI e Google possono ancora offrire un vantaggio grazie alla loro ampiezza di conoscenze e supporto continuo.