OpenAI ha recentemente dichiarato che presto aggiungerà ChatGPT alla sua interfaccia di programmazione delle applicazioni, o API, che consente agli sviluppatori di incorporare la tecnologia OpenAI nei propri prodotti.
Ma i responsabili della customer experience hanno affermato che l’eccessivo affidamento su tali modelli di intelligenza artificiale potrebbe portare le aziende a fornire informazioni errate ai clienti online senza sapere che lo stanno facendo.
ChatGPT, perché ora l’intelligenza artificiale ci stupisce e spaventa
Esempi pratici di un possibile colloquio fallace con un chatbot
Facciamo un esempio pratico di un possibile colloquio fallace con un chatbot alimentato da ChatGPT3
Il Problema (1/2): risposte precise a domande approssimative
Il Problema (2/2): incapacità di rispondere “non lo so” o a contraddirsi
Ora facciamo un esempio leggermente più critico:
La customer experience: la vera criticità
Mentre molti chatbot sono addestrati a fornire una versione di “Non lo so” alle richieste che non possono elaborare, è più probabile che ChatGPT, ad esempio, emetta una risposta giusta, ma aggiungendola ad una informazione approssimativa.
Si tratta in sostanza di evitare di entrare dalla porta principale nel magico mondo legale e penale del business giuridico delle cause che potrebbero scaturire da interazioni su riposte fornite da questi chatbot che siano mal formate o false o addirittura pericolose, laddove la tempesta perfetta sarebbe rappresentata da una risposta davvero negativa in una situazione molto critica che diventerebbe davvero un problema per la società che avesse adottato il sistema come contact center automatico.
Addirittura lo stesso Sam Altman, amministratore delegato di OpenAI, ha messo in guardia dall’affidarsi a ChatGPT “per qualunque cosa sia ora come ora troppo importante per poter essere demandata al chatbot”, e in un tweet ha affermato che “per una ispirazione creativa il sistema – oltre ad essere divertente – costituisce una grande risorsa, mentre affidarsi al chatbot per query fattuali è davvero – per ora – una pessima idea”
Tuttavia, per un’interazione più tipica tra i clienti e il servizio ordini, come l’interrogazione dello stato di un ordine online o la modifica dei dettagli dell’account, la tecnologia potrebbe rivelarsi utile.
Se è vero che molte aziende per decenni hanno cercato soluzioni automatizzate in grado di risolvere le richieste dei clienti così come quelle umane, o anche meglio, è pur vero che spesso o troppo spesso i chatbot sono spesso visti come goffi e dunque relativamente poco utili.
ChatGPT si distingue invece – e questa è la vera novità – per la sua capacità di fornire risposte dal suono ragionevole alla maggior parte dei prompt, indipendentemente dall’ortografia, dalla grammatica e dal fraseggio degli utenti, e per rispondere con frasi complete e dal suono naturale che non richiedono scripting, è inoltre addestrato ad ammettere errori, contestare premesse errate e rifiutare richieste inappropriate.
Come implementare ChatGPT (e i rischi) in pratica
È sempre possibile integrare GPT-3 e altri sistemi di intelligenza artificiale noti come modelli di linguaggio di grandi dimensioni all’interno di chatbot preesistenti, o come Co-Bot di contact center dedicati a servizi specifici. Ristrutturando cioè le società di delivery di servizi di assistenza telefonica anche arrivando ad incaricare alcuni lavoratori con esperienza specifica all’interno del contact center, di monitorare le conversazioni dei chatbot, esaminare dove la tecnologia sbaglia o non può rispondere, e fornire informazioni nuove o aggiornate, per raffinarne il comportamento.
La reputazione e i chatbot
Ricordo una vecchia massima: “Se un servizio ha successo, su 10 persone soltanto 3 ne parleranno ad altri, ma se non ne ha, 10 ne parleranno male e 7 di queste ne esagereranno i lati negativi”
Purtroppo, il vecchio annoso problema della reputazione, prima appannaggio del comportamento umano, ora è esteso alle intelligenze linguistiche conversazionali, laddove anche un comportamento verbale è pur sempre un comportamento, anche se automatizzato o artificialmente intelligente.
Comprensione del linguaggio
L’uso di una intelligenza conversazione come ChatGPT-3 ha il grande vantaggio della comprensione del linguaggio: il chatbot non ha praticamente alcuna difficoltà a comprendere il linguaggio naturale dei clienti, senza far confusione e dunque mantenendo una conversazione avvincente. Questo è il miglior pregio della grande eco reputazionale positiva che questo sistema ha generato nell’hype del momento.
Rimangono le implicazioni reputazionali sulle criticità finora viste quali:
Errore nella risposta
Se il chatbot non è stato addestrato correttamente o non ha accesso alle informazioni appropriate, può fornire risposte errate o fuorvianti ai clienti. Ciò può causare frustrazione e insoddisfazione per i clienti e danneggiare la reputazione dell’azienda.
Inadeguatezza nella risposta
Il chatbot potrebbe non essere in grado di fornire risposte personalizzate o adatte alle esigenze specifiche dei clienti. Abbiamo visto che in tal caso i chatbot con grande urgenza e commitment sulla risposta, tenderanno a generare risposte false, e ciò può causare un drastica decadimento della fiducia nell’azienda e danneggiarne direttamente la reputazione per alcuni prodotti/servizi in modo irrimediabile.
Problema di privacy e sicurezza
Rimangono i problemi relativi alla cronologia dell’utilizzo di un chatbot che può comportare la raccolta e l’utilizzo non solo di dati personali dei clienti, ma anche di opinioni, tendenze, preferenze, punti di vista, che emergerebbero dalle interrogazioni personali e continue e dalle interazioni private con il chatbot, che potrebbero essere utilizzati in modo improprio e causare problemi di privacy e sicurezza.
Conclusioni
In generale, è importante assicurarsi che l’IA sia non solo addestrata e implementata in modo da evitare le criticità fin qui presentate. Inoltre, è importante che ci sia sempre un’opzione per passare a un operatore umano per gestire le richieste più critiche o delicate