Le piattaforme di AI conversazionale stanno diventando un’infrastruttura strategica per automatizzare processi, potenziare l’esperienza del cliente e introdurre agenti intelligenti capaci di operare in autonomia. L’evoluzione verso sistemi multimodali e la nascita dell’agentic AI stanno ampliando rapidamente i casi d’uso, rendendo possibile orchestrare attività complesse, integrare dati e sistemi, gestire grandi volumi di interazioni e supportare i team in tempo reale. L’obiettivo non è più solo rispondere alle richieste, ma trasformare la conversazione in un motore operativo che esegue, decide e anticipa.
Indice degli argomenti
L’evoluzione delle piattaforme di AI conversazionale
Secondo Gartner (Gartner, Innovation Insight: Augmenting Conversational AI Platforms With Agentic AI) l’evoluzione delle piattaforme conversazionali sta accelerando grazie alla convergenza tra AI generativa, multimodalità e soprattutto agentic AI, ovvero sistemi capaci di prendere decisioni e compiere azioni in modo semiautonomo. Questa transizione supera i limiti delle esperienze basate su chatbot deterministici, spesso vincolati a flussi statici e a logiche if/then, e apre alla possibilità di delegare alle piattaforme di AI conversazionale attività sempre più complesse e ad alto valore.
Le piattaforme moderne integrano orchestrazione multilivello, prompt engineering avanzato e capacità di percezione del contesto attraverso dati interni, esterni e di terze parti. I modelli generativi diventano il motore per la comprensione del linguaggio e la generazione dinamica di contenuti, mentre l’agentic AI introduce un livello ulteriore: la possibilità di ragionare, pianificare, interagire con sistemi esterni, eseguire workflow e ottimizzare automaticamente le azioni.
Secondo l’analisi di Gartner, la crescita dell’agentic AI avrà un impatto diretto sull’efficacia delle piattaforme di AI conversazionale: entro il 2028, infatti, il 50% delle organizzazioni di customer service adotterà agenti AI per incrementare il self-service e migliorare la produttività degli operatori. L’introduzione di agenti capaci di interagire tra loro, attraverso protocolli come Agent2Agent e Model Context Protocol, crea ambienti multi-agent in cui i diversi moduli collaborano, si delegano attività e gestiscono flussi complessi che prima richiedevano più sistemi e integrazioni manuali.
Le piattaforme conversazionali di nuova generazione sono quindi progettate come motori di orchestrazione intelligente, in grado di combinare componenti deterministici e generativi, integrare dati e sistemi enterprise e garantire livelli avanzati di governance, sicurezza e controllo. Questa trasformazione non riguarda più soltanto la customer experience, ma anche employee experience, automazione operativa, processi di vendita e attività trasversali.
Assistenti vs agenti: come cambiano le piattaforme di AI conversazionale
Come anticipato, la differenza tra assistenti conversazionali e agenti autonomi ridefinisce il modo in cui si progettano i flussi di interazione all’interno delle piattaforme di AI conversazionale. Gli assistenti rappresentano la generazione precedente: chatbot che rispondono in logica reattiva, seguono percorsi predefiniti, dipendono da trigger esterni e hanno una comprensione limitata del contesto. L’AI generativa può migliorarne la qualità conversazionale, ma non modifica la natura deterministica alla base del loro funzionamento.
Gli agenti AI, al contrario, introducono un cambio di paradigma: sono progettati per ragionare, pianificare, prendere decisioni, interagire con i sistemi IT e compiere azioni senza che l’utente debba guidare ogni passaggio. Non eseguono semplici dialoghi, ma lavorano per obiettivi. Ciò richiede un approccio completamente diverso alla progettazione:
- Una chiara definizione dei limiti di agency (cosa può fare l’agente da solo, cosa richiede supervisione)
- La capacità di scomporre obiettivi complessi in task e micro-task eseguibili
- Modelli di orchestrazione multi-agente che coordinano compiti complementari
- Workflow dinamici, capaci di aggiornarsi sulla base dell’esperienza
- Integrazioni profonde con sistemi aziendali per leggere, scrivere e aggiornare dati
In questo paradigma la conversazione non è più il fine, ma il mezzo. L’agente usa il dialogo per capire cosa deve fare, ma poi opera autonomamente, interagendo con CRM, ERP, piattaforme di ticketing, strumenti di analytics e repository documentali.
Cosa definisce una piattaforma di AI conversazionale enterprise
Una piattaforma di AI conversazionale deve integrare un insieme esteso di funzionalità progettate per supportare casi d’uso complessi, scalabili e multimodali. Non si tratta più di strumenti per costruire singoli chatbot, ma di ambienti di sviluppo e orchestrazione che garantiscono governance, sicurezza, qualità della conoscenza, integrazioni robuste e gestione avanzata del ciclo di vita.
Il primo elemento distintivo è la composizione multilivello delle pipeline NLP (Natural Language Processing), che combinano tecniche simboliche, machine learning, LLM e modelli specializzati per garantire comprensione accurata, adattabilità ai contesti di settore e supporto multilingua. A queste si affiancano strumenti per il prompt engineering, il retrieval e la gestione dinamica della conoscenza (RAG), fondamentali per ridurre errori, allucinazioni e incoerenze nelle risposte.
Un secondo pilastro è rappresentato dalle opzioni di sviluppo: low-code, no-code, GenAI-assisted e pro-code. Le piattaforme moderne devono consentire ai team business di costruire autonomamente flussi standardizzati, mantenendo al contempo la possibilità per i developer di personalizzare integrazioni, orchestrazioni e logiche applicative. Questa flessibilità è essenziale per scalare use case diversi all’interno dell’organizzazione.
Elemento cruciale è poi la capacità di orchestrazione, che riguarda non solo la gestione del dialogo, ma la collaborazione tra più applicazioni conversazionali e agenti. Le piattaforme di AI conversazionale enterprise includono moduli dedicati a:
- Coordinare agenti e assistenti in un unico flusso
- Gestire l’escalation verso agenti umani o altri sistemi AI
- Utilizzare workflow misti (deterministici e generativi)
- Ottimizzare modelli e contenuti in tempo reale
La forza di una piattaforma enterprise risiede anche nella profondità delle integrazioni con i sistemi aziendali: CRM, ERP, ticketing, data platform, contact center, martech e strumenti analitici. Senza integrazioni solide, gli agenti non possono compiere azioni o accedere a informazioni critiche.
Le capability che fanno davvero la differenza nei casi d’uso complessi
Nei progetti enterprise, dove i volumi sono elevati e i processi coinvolgono sistemi eterogenei, alcune capability diventano determinanti per garantire scalabilità, affidabilità e qualità delle interazioni.
La prima capability abilitante è la composizione intelligente dei workflow: non semplici flussi deterministici, ma combinazioni dinamiche di regole, modelli, prompt e funzioni che consentono all’agente di prendere decisioni e adattare il percorso sulla base del contesto. Questo livello di orchestrazione è ciò che permette all’agente di agire, non solo di rispondere.
Un secondo elemento differenziante è la profondità delle integrazioni. Nei casi d’uso complessi, gli agenti devono interrogare database, aggiornare record, avviare transazioni, recuperare documenti, applicare policy e chiamare servizi specializzati. Le piattaforme più mature offrono connettori predefiniti, API estese, modelli di autenticazione avanzati e possibilità di orchestrare chiamate multiple nello stesso flusso.
La gestione della conoscenza è un’altra capability chiave. L’uso della GenAI richiede repository curati, funzioni di indicizzazione, strumenti di cleanup, modelli di RAG e controlli sui contenuti generati. Senza una knowledge base solida e governata, l’agente non può operare in modo affidabile.
Nel contesto enterprise diventa cruciale anche la strumentazione analitica. Le piattaforme di AI conversazionale più evolute offrono dashboard per monitorare metriche quali qualità della risposta, frequenza degli intent, performance operative, outcome generati e percentuale di automazione. Questi indicatori permettono di misurare realmente l’impatto sull’organizzazione e guidare cicli di ottimizzazione continui.
Un ulteriore fattore differenziante riguarda la gestione multimodale, in particolare nei contesti voice-first: bassa latenza, qualità vocale, orchestrazione in tempo reale tra STT, TTS e modelli generativi, gestione della diarization e della puntuale esecuzione di task durante la conversazione.
Infine, nei progetti più avanzati emerge la necessità di strumenti di governance: controllo delle versioni, gestione dei ruoli, audit trail, simulazione dei comportamenti, strumenti di test scenario-based e framework per il monitoraggio dei rischi. Queste capability diventano essenziali quando si lavora con agenti autonomi in ambienti altamente regolamentati o mission-critical.
Scenari di adozione delle piattaforme di AI conversazionale
L’adozione di piattaforme di AI conversazionale sta andando ben oltre i confini del customer service, abbracciando modelli operativi complessi e coinvolgendo un numero crescente di processi interni.
Nell’ambito operations, ad esempio, le piattaforme conversazionali estendono il proprio perimetro: dall’automazione di task ripetitivi fino al supporto in tempo reale per attività complesse. Gli agenti possono avviare processi, aggiornare workflow, coordinare informazioni tra più sistemi e sfruttare funzioni multimodali per interpretare documenti, immagini o flussi strutturati. In molti casi, diventano il punto di accesso unico a procedure aziendali che prima richiedevano interfacce diverse.
Sul fronte employee experience, l’adozione cresce a ritmi rapidi. Le piattaforme di AI conversazionale supportano dipendenti e team interni con agenti che rispondono a richieste HR, IT, amministrative e operative. Gestiscono ticket, reperiscono informazioni, suggeriscono prossimi step e automatizzano attività quotidiane. Nei contesti più avanzati, gli agenti collaborano tra loro orchestrando richieste, dati e strumenti per garantire un supporto più efficiente e personalizzato.
In tutti questi scenari emerge un denominatore comune: il passaggio da applicazioni conversazionali isolate a sistemi integrati, capaci di comprendere, decidere e agire. La differenza non la fa più la singola interazione, ma il modo in cui la piattaforma si inserisce nel modello operativo dell’organizzazione.
Rischi, guardrail e governance per un’adozione responsabile
Secondo Gartner (Gartner, 7 Key Guardrails for Conversational AI Agents and Assistants), l’adozione di piattaforme di AI conversazionale avanzate introduce una serie di rischi che non riguardano più soltanto la qualità delle risposte, ma anche l’affidabilità operativa, la sicurezza dei dati e l’allineamento etico dei comportamenti degli agenti autonomi. Con l’aumento dell’autonomia decisionale e dell’accesso ai sistemi aziendali, diventa essenziale strutturare un modello di governance che definisca limiti, procedure e controlli standardizzati.
Il primo rischio da governare è legato all’errata esecuzione dei task. Gli agenti possono attivare processi, modificare dati o generare documenti in maniera automatica: senza adeguati guardrail, un singolo errore di interpretazione o una deviazione del comportamento può avere conseguenze rilevanti su sistemi critici. È fondamentale implementare controlli granulari di autorizzazione, limitare l’autonomia nei contesti regolamentati e definire procedure di approvazione nei casi più delicati.
Un secondo gruppo di rischi riguarda la qualità dei contenuti generati. Le piattaforme devono prevenire risposte scorrette, incomplete o incoerenti, soprattutto nei contesti in cui la GenAI opera con dati sensibili o con elevate implicazioni legali. I guardrail comprendono filtri sui contenuti, controlli sintattici e semantici, validazioni della conoscenza e monitoraggi continui delle deviazioni.
La privacy e la sicurezza dei dati rappresentano un ulteriore livello critico. Gli agenti accedono a informazioni aziendali e personali, le elaborano e possono condividerle tra sistemi diversi. Occorrono policy chiare su data minimization, access control, log delle attività, audit continuo e gestione dei rischi associati all’interazione con modelli LLM esterni.
Nelle organizzazioni più mature emerge anche il tema della tracciabilità delle decisioni. Gli agenti devono essere in grado di motivare le azioni eseguite, registrare gli step decisionali, fornire evidenze delle fonti utilizzate e permettere analisi retrospettive in caso di anomalie. La trasparenza diventa una caratteristica necessaria per garantire affidabilità, compliance e fiducia.
Infine, un’adozione responsabile richiede un modello operativo chiaro, che stabilisca ruoli, responsabilità, cicli di revisione, metriche di qualità, procedure di escalation e test continui. Non basta costruire un agente: serve governarne il comportamento nel tempo, tenendo conto dell’evoluzione delle sue capacità e dei suoi livelli di autonomia.
Piattaforme di AI conversazionale: le 5 soluzioni da considerare
Secondo l’ultimo Magic Quadrant di Gartner (Gartner, Magic Quadrant for Conversational AI Platforms), il mercato delle piattaforme conversazionali mostra una forte differenziazione tra vendor in termini di maturità tecnologica, capacità di orchestrazione, qualità delle integrazioni e solidità delle funzionalità GenAI-driven. Nella selezione delle piattaforme più rilevanti non conta solo la disponibilità di moduli conversazionali avanzati, ma soprattutto la capacità di operare in contesti enterprise complessi, scalare tra funzioni diverse e supportare l’evoluzione verso agenti autonomi e multimodali.
Le soluzioni considerate in questa analisi si distinguono per tre elementi fondamentali:
- Completezza del prodotto, ovvero ampiezza delle funzionalità enterprise, multimodalità, gestione del ciclo di vita e integrazioni.
- Adozione e feedback degli utenti.
- Capacità di supportare contesti mission-critical, combinando governance, sicurezza, orchestrazione multi-agente e strumenti di ottimizzazione continua.
Le cinque piattaforme selezionate rappresentano oggi alcuni dei riferimenti più solidi nel mercato enterprise. Si tratta di tecnologie in grado di supportare architetture orientate alla collaborazione tra agenti, all’automazione dei processi e alla gestione di conversazioni multimodali a elevata complessità.
| Vendor | Funzionalità distintive | Settori più forti |
| Kore.ai | Multiagent orchestration XO GPT Workflow avanzati AI safety e governance estese | Financial services, healthcare, retail, media |
| Google Conversational Agents | Analisi multimodale Vertex AI Agent Builder RAG con Vertex AI Search | Telco, retail, PA, financial services |
| Cognigy | Cognigy Voice Gateway xApps multimodali Scenario-based testing | Finance, insurance, retail, e-commerce |
| Boost.ai | Persona-Based Testing Collaborazione multi-agente Insight per Customer Experience | Banking, insurance, government |
| Yellow.ai | AI Agent Builder Intent discovery basato su GenAI Voice automation | BFSI, retail, hospitality, consumer goods |
Kore.ai
Kore.ai è una piattaforma pensata per costruire sistemi multi-agente a supporto di service, work e process automation in diverse funzioni aziendali. Kore.ai Agent Platform si affianca a soluzioni mirate come AI for Service (contact center e customer service), AI for Work (enterprise search e assistenti per i dipendenti) e AI for Process, con una presenza consolidata soprattutto in Nord America ed Europa, in settori come financial services, healthcare, retail e media.
La piattaforma offre un set completo di funzionalità per la gestione di agenti conversazionali enterprise, con strumenti dedicati a sicurezza, governance, analytics e un AI marketplace per estendere rapidamente i casi d’uso.
Kore.ai fornisce diverse opzioni no-code, low-code e pro-code per costruire agenti e applicazioni conversazionali, consentendo di indirizzare sia i team di business sia i developer più avanzati.
Gli utenti attribuiscono alla piattaforma una valutazione complessiva positiva, sottolineando alcuni pattern ricorrenti:
- La piattaforma è percepita come facile da apprendere e configurare, con training considerato molto efficace anche per profili non tecnici (ad esempio, HR lead che imparano a gestire intent complessi e NLP in autonomia).
- Viene apprezzata la flessibilità e la possibilità di personalizzare i bot in funzione dei propri processi, inclusa la creazione di intent e FAQ tramite approcci no/low-code.
- Diversi clienti evidenziano una buona integrazione con i sistemi telefonici e un’elevata qualità nella comprensione delle domande degli utenti, con feedback positivi da parte dei clienti finali.
- Più recensioni citano la collaborazione con il team Kore.ai durante implementazione e tuning del modello come un elemento differenziante.
- Negli ultimi mesi viene segnalato un miglioramento significativo sul fronte dei connettori per l’indicizzazione dei contenuti, con oltre 100 integrazioni disponibili per collegarsi a molteplici sorgenti dati.
Tra le aree di miglioramento, alcuni utenti segnalano:
- Reporting/analytics non sempre allineati.
- Interfaccia talvolta complessa per chi è alle prime armi.
- Frizione su upgrade e gestione on-prem, aspetti da considerare in progetti con forti vincoli infrastrutturali.
Google Conversational Agents
La proposta di Google si caratterizza per una profonda integrazione con i modelli Gemini, per la disponibilità di servizi avanzati di sviluppo AI e per un’architettura orientata alla creazione di esperienze multimodali, basate su testo, voce, immagini e video.
La piattaforma è adottata su scala globale, in settori come telecomunicazioni, retail, financial services, pubblica amministrazione ed e-commerce, ed è supportata da una rete di partner ampia, con una presenza geografica tra le più estese nel mercato delle piattaforme di AI conversazionale.
Uno degli elementi più distintivi della piattaforma è la gestione multimodale nativa, che permette agli agenti di analizzare immagini, contenuti visivi, documenti non strutturati e flussi di dati complessi, ampliando sensibilmente i casi d’uso nei contact center e nelle operations.
Dalle recensioni di Peer Insights emergono i seguenti aspetti::
- L’accuratezza nelle interazioni
- Buona capacità della piattaforma di gestire workload complessi e requisiti di scalabilità globali
- Semplicità nell’integrare funzionalità conversazionali all’interno di ecosistemi già basati su servizi Google Cloud
- La multimodalità e la possibilità di utilizzare modelli di visione, linguaggio e ragionamento in modo unificato
Le recensioni sottolineano anche la rapidità nel deployment e la disponibilità di strumenti per sviluppatori che semplificano creazione, test e iterazione degli agenti.
Tra gli aspetti da migliorare, alcuni utenti segnalano:
- Una curva di apprendimento più pronunciata per i team meno tecnici.
- Parziale complessità nell’orientarsi tra le diverse componenti dell’offerta (Vertex AI, Agent Builder, Search, ecc.).
- Opzioni di configurazione talvolta meno intuitive rispetto a piattaforme con forte vocazione no/low-code.
Cognigy
Cognigy è, tra le piattaforme di AI conversazionale, una soluzione progettata per abilitare casi d’uso avanzati di contact center automation e gestione multicanale. La piattaforma si distingue per la ricchezza delle funzionalità, la qualità delle integrazioni e un set di strumenti particolarmente adatto a contesti CX complessi.
L’ecosistema Cognigy include componenti come:
- Cognigy Voice Gateway, per integrare nativamente sistemi di telephony e voice interaction.
- Cognigy xApps, micro-app multimodali che arricchiscono l’esperienza dell’utente finale.
- Strumenti avanzati di orchestrazione, testing e gestione operativa.
La presenza geografica è solida in Europa e Nord America, con una forte penetrazione in settori come finance, insurance, retail, e-commerce e manufacturing.
Gli utenti riportano costantemente valutazioni elevate, con alcuni temi ricorrenti:
- Flessibilità e potenza della piattaforma, ritenuta adatta a scenari complessi, anche in ambienti altamente regolamentati.
- Qualità delle funzionalità voice e integrazione fluida con canali telefonici.
- Curve di apprendimento più rapide rispetto a piattaforme focalizzate solo su pro-code.
- Robustezza del framework di testing, utile a ridurre regressioni e anomalie.
Tra le aree migliorabili, alcuni utenti segnalano:
- Necessità di competenze più tecniche per sfruttare appieno la piattaforma.
- Documentazione estesa, che può risultare complessa per team alle prime armi.
Boost.ai
Boost.ai è una piattaforma progettata per supportare organizzazioni con elevati requisiti di sicurezza, scalabilità e affidabilità. Secondo il Magic Quadrant, Boost.ai è particolarmente forte nei settori regolamentati — banking, insurance, government, telecomunicazioni e technology — e si distingue per la capacità di gestire ambienti multi-agente con esperienza uniforme su chat e voice.
La piattaforma include componenti chiave come:
- AI-powered CX Insights, per l’analisi delle conversazioni e dei pattern comportamentali.
- Agent Assist, per potenziare il lavoro dei contact center con suggerimenti in tempo reale.
- Strumenti evoluti di collaborazione tra agenti attraverso moduli dedicati al testing e alla validazione dei flussi.
Inoltre, Boost.ai ha investito in modo significativo nella costruzione di un framework orientato alla gestione delle interazioni in ambienti complessi, con una forte attenzione alla security-by-design.
Le recensioni degli utenti mostrano alcuni temi ricorrenti:
- Attivazione rapida e implementazioni veloci.
- Piattaforma considerata stabile e affidabile, con performance costanti in scenari ad alto volume.
- Facilità di gestione quotidiana e ridotto intervento tecnico richiesto per manutenzione e aggiornamenti.
- Apprezzamento per strumenti di test, controllo qualità e governance, utili a evitare regressioni e comportamenti imprevisti.
Tra le aree di miglioramento, gli utenti segnalano:
- Una minore diversificazione del customer base, concentrato soprattutto su finance e pubblica amministrazione.
- Approccio alla gestione del talento meno strutturato.
Yellow.ai
Yellow.ai è una piattaforma di AI conversazionale progettata per supportare casi d’uso di omnichannel customer experience, combinando chat, voce, SMS, email e social in un’unica architettura integrata.
La piattaforma si articola attraverso componenti principali come:
- AI agent builder, per la costruzione di agenti conversazionali multicanale.
- Agentic Discovery, un modulo basato su GenAI capace di estrarre trend, analizzare ticket storici e generare insight automatizzati.
- Funzionalità native di voice automation, con roadmap focalizzata sul potenziamento dell’assistenza vocale e degli agenti ibridi.
Yellow.ai è particolarmente utilizzata in BFSI, retail, consumer services, hospitality e telecomunicazioni, con un forte orientamento alla velocità di deployment e a modelli operativi semplificati.
Sul piano tecnologico, la piattaforma punta molto su componenti di analisi conversazionale, generazione automatizzata di contenuti e strumenti per ridurre la dipendenza dai team tecnici nelle fasi di tuning e ottimizzazione..
Tra i temi ricorrenti nelle recensioni:
- Facilità d’uso, con strumenti intuitivi e onboarding rapido per team non tecnici.
- Qualità della customer experience finale, grazie alla capacità di gestire intent complessi con errori minimi.
- Flessibilità del modello di pricing, ritenuto chiaro e prevedibile.
- Efficacia nel generare rapidamente nuovi use case, grazie alle funzionalità di discovery e automazione basate su GenAI.
Alcune aree di miglioramento citate dagli utenti includono:
- Presenza limitata più in Europa e Nord America, con implicazioni sulla disponibilità di partner per l’integrazione.
- Minore profondità in contesti altamente regolamentati o con forte necessità di governance avanzata
Strategie di adozione: come selezionare la piattaforma più adatta
La scelta di piattaforme di AI conversazionale richiede un approccio strutturato, basato su criteri oggettivi e sulla capacità di valutare l’allineamento tra tecnologia, requisiti funzionali e maturità organizzativa. Le differenze tra i vendor non riguardano solo le funzionalità conversazionali, ma soprattutto la scalabilità, la gestione di processi complessi, la governance, la sicurezza e la possibilità di adottare modelli operativi multi-agente.
Il primo criterio di selezione è la natura dei casi d’uso. Organizzazioni orientate a customer service ad alto volume privilegeranno piattaforme con forti capability voice-first, integrazione con contact center e strumenti di orchestrazione avanzata. Al contrario, scenari centrati su employee experience, knowledge automation o process automation richiedono piattaforme con gestione ottimizzata dei dati, repository strutturati e un modello robusto di gestione dei workflow.
Un secondo criterio riguarda la complessità dell’ecosistema IT. Le piattaforme differiscono molto nella qualità e nella profondità delle integrazioni: progetti che richiedono interazioni con CRM, ERP, ticketing, strumenti analitici o sistemi di identity management devono favorire soluzioni con connettori predefiniti, API mature e gestione granulare della sicurezza.
Da evidenziare anche l’importanza della maturità operativa del vendor: capacità di supporto, rapidità di attivazione, qualità della documentazione, stabilità degli aggiornamenti, roadmap coerente e capacità di gestire deployment su diversi canali e regioni. Le recensioni Peer Insights mostrano che spesso la differenza non la fa solo la tecnologia, ma la qualità dell’esperienza complessiva, inclusi supporto, onboarding, strumenti di test e chiarezza del modello di pricing.
Un ulteriore elemento discriminante è la gestione della knowledge base. Progetti basati su agenti autonomi richiedono repository raffinati, funzioni avanzate di RAG, controlli sulla qualità dei contenuti e strumenti di data governance. Le aziende devono valutare non solo le capacità tecniche, ma anche la compatibilità con le proprie policy di sicurezza e con il modello di gestione dei dati già in uso.













