Sono l’ultima frontiera dell’IA generativa, la tecnologia non è ancora consolidata, ma già lasciano intravedere enormi potenzialità: sono i large multimodal model (LMM), in grado di combinare le capacità della comprensione del linguaggio, della computer vision e del riconoscimento dell’audio in un unico modello. La artificial general intelligence (AGI) sta facendo un altro, forse decisivo, passo in avanti.
nuove frontiere
Modelli multimodali: cosa fare con l’IA che fonde linguaggio e immagini
I modelli multimodali combinano linguaggio, visione e audio per offrire un’IA generativa avanzata. Possono fornire informazioni, assistenza e avere molteplici applicazioni, ma richiedono dati culturalmente diversificati e devono affrontare rischi di privacy e bias culturali. Lo stato dell’arte e i possibili sviluppi
Fondazione Bruno Kessler, Trento

Continua a leggere questo articolo
Argomenti
Canali
Con o Senza – Galaxy AI per il business

InnovAttori
-

Tracciabilità supply chain, come Erp e cloud spingono la competitività
14 Nov 2025 -

Manifattura elettronica, come salvare il settore con la gestione smart degli impianti
31 Ott 2025 -

Cybersecurity nel manifatturiero, perché puntare sulle persone: il ruolo di policy e formazione
01 Ott 2025 -

AI per il lavoro in condizioni estreme, quali tecnologie scegliere
27 Ago 2025 -

Verso una PA cognitiva: ecco le strategie di innovazione per gli enti
14 Ago 2025
















