Da tre mesi lavoro con un team di consulenti che non dorme, non va in ferie e non ha bisogno di essere motivato. Si chiamano ChatGPT, Claude e Gemini. E no, non sto scherzando. Li uso ogni giorno come un piccolo panel strategico: uno pensa in modo più tecnico, l’altro più testuale, il terzo cerca sempre di mediare. Ma non mi aspetto che mi diano ragione. Al contrario: li ho addestrati a mettermi in discussione, a essere spietati, a segnalare errori e incongruenze.
Nessuno sconto, nessun applauso automatico. Perché se un’intelligenza artificiale ci asseconda sempre, allora non stiamo usando un consulente. Stiamo giocando con un generatore di complimenti.
Io invece ci lavoro. E per lavorarci sul serio, ho dovuto costruire un metodo. L’ho chiamato Protocollo delle 3C: Compare, Challenge, Curate. Tre azioni, sempre in quest’ordine. Prima confronto le loro risposte. Poi le metto in crisi. Infine, decido io cosa tenere e cosa no. È così che si dirige un’orchestra. Anche se fatta di modelli linguistici.
Indice degli argomenti
Orchestrare l’intelligenza artificiale nel lavoro quotidiano
Ma come si dirige, nel concreto, questa orchestra? Tutto parte da un lavoro quotidiano che va avanti da tre mesi. Non in senso astratto, ma ogni giorno: progetti reali, deadline concrete, revisioni complesse. Integro ChatGPT, Claude e (da meno tempo) anche Gemini. Non per fare domandine a caso, ma per costruire contenuti, strategie e processi editoriali.
Ma non li uso tutti allo stesso modo. ChatGPT e Claude lavorano con me all’interno di progetti separati e segmentati. Hanno file specifici, istruzioni dettagliate, regole editoriali distillate con pazienza, dopo ore di affinamento. Ogni progetto ha il suo contesto, la sua knowledge, la sua voce. Non è un’interazione generica: è un archivio operativo pensato per farli lavorare come membri veri del mio team.
Gemini, invece, no. Gemini non ha accesso a nessun file, a nessuna memoria personalizzata. Lo tengo fuori dal lavoro sporco, proprio perché mi serve come consulente super partes. È la voce esterna che legge tutto dall’alto, analizza senza interferenze, e segnala squilibri, incoerenze, sbilanciamenti. Il mio ultimo esperimento parte da qui: da un panel composto da due AI operative e una neutra. E da alcuni test, semplici ma rivelatori. In questa occasione ve ne racconto un paio.
Confrontare le AI per capire dove i dati sono deboli
Domanda diretta: “Quanti follower hanno oggi queste sei pubblicazioni Medium?”
Nessuna dichiarazione di incertezza. Nessun modello ha detto “non posso saperlo”. Tutti hanno provato a rispondere. Tutti con cifre diverse. E con quel tono da “te lo dico io” che suona autorevole finché non controlli. Io ho controllato manualmente tutte le sei pubblicazioni. Spoiler: erano tutti fuori strada per almeno due pubblicazioni a testa.
Il più vicino alla verità? Gemini, che ha il vantaggio di muoversi meglio nel web grazie all’ecosistema Google. Ma anche lui era impreciso. Gli ho dato parzialmente in pasto le risposte degli altri, per vedere se riusciva a orientarsi meglio. Ha affinato qualcosa, ma comunque i numeri non coincidevano. Alla fine sono andato avanti incrociando le fonti, confrontando i dati, verificando a mano, e ho distillato la versione corretta, insistendo con tutti e tre per stressarli a lavorare in team.
Ed è lì che ho capito la prima regola da implementare per lavorare davvero come in un team: le AI non sono affidabili sui fatti, ma sono perfette per rivelare dove il dato è debole.
Nasce così la prima C: Compare. Non per ottenere la verità, ma per mettere le AI una contro l’altra. Per osservare dove divergono, dove esagerano, dove inventano. Come si fa con le fonti: chi è più preciso, chi mente con sicurezza, chi si astiene. Il confronto non serve a credere. Serve a non farsi simpaticamente fregare dall’obbligo delle AI di dare sempre e comunque una risposta, a costo di inventarla.
Quando le ai convergono: analisi del consenso implicito
Seconda prova. Domanda concreta: come si firma una caption sotto un’immagine generata con intelligenza artificiale affinché sia corretta, trasparente ed etica per il mercato degli Stati Uniti? E che faccia capire che non si tratta di una semplice immagine decorativa, ma di un contenuto visivo intenzionale, progettato con uno stile specifico e poi editato manualmente dall’autore per ottenere un risultato finale coerente? Una domanda che può sembrare semplice, ma non lo è. Non stavo cercando una correzione grammaticale. Stavo chiedendo una risposta che tenesse conto di esigenze editoriali reali, sensibilità culturale e necessità umane. Doveva essere chiara, ma anche professionale. Etica, ma non burocratica. Esplicita, ma leggibile. Un piccolo esercizio di equilibrio tra forma e significato.
Risposte diverse? Macché. I tre modelli (incluso Gemini, stavolta interpellato per testare il comportamento strategico) iniziano a convergere in modo sorprendente. Le frasi erano diverse, certo. C’erano sfumature, termini alternativi, proposte con stili leggermente diversi. Ma nel complesso sembrava di sentire una sola voce, con lo stesso tono sobrio, la stessa struttura argomentativa, gli stessi criteri impliciti. Tutti parlano di trasparenza, di attribuzione esplicita all’autore, di terminologia professionale. Tra le proposte: “Image generated with AI support”, “AI-assisted illustration”, “Designed by the author using generative tools”, “Image created by the author using AI and manual editing”.
Tre strumenti, tre risposte, ma lo stesso messaggio di fondo. Non per plagio, non per coincidenza. Ma perché sono addestrati sulle stesse convenzioni editoriali, sugli stessi dataset, sugli stessi articoli. E quando una prassi comunicativa diventa stabile nel tempo, le AI la replicano sempre.
Risultato: standard implicito. Da qui nasce la seconda C: Challenge. Quando c’è convergenza, non basta dire “bene”. Serve capire: perché questa è la soluzione che tutti propongono? È davvero il meglio che si può fare o è soltanto l’opzione più neutra e meno contestabile? È uno standard o un automatismo?
Curare l’output per assumersi la responsabilità finale
Capire il motivo del consenso è l’unico modo per decidere se seguirlo o riscriverlo. Dopo aver confrontato e sfidato, resta il lavoro più umano di tutti: decidere cosa tenere, cosa cestinare, cosa riscrivere.
È qui che entra la terza C: Curate. Non significa “rifinire lo stile”. Significa assumersi la responsabilità dell’output finale. È una scelta di qualità, ma anche di identità. È la parte che nessuna AI può fare al posto nostro. E se ci affidiamo a lei anche lì, allora abbiamo smesso di firmare.
Il metodo delle 3C come modello di gestione strategica
Il mio Protocollo delle 3C per l’AI non è una lista di comandi da ripetere come un mantra per ottenere output perfetti. Non è un trucco di prompt da copiare e incollare. È un metodo operativo che mette al centro la figura del direttore umano, consapevole e critico, che agisce come filtro, supervisore e soprattutto come decision maker. Non perchè ormai va di moda il pensiero umanocentrico dopo anni di transumanesimo, ma perchè, come sostengo da sempre, l’essere umano deve comandare davvero per avere risultati di un certo livello.
Le tre fasi sono consequenziali e imprescindibili.
La fase Compare
Compare: è la fase in cui metto le AI una contro l’altra, chiedendo lo stesso compito a modelli diversi. Non per cercare la risposta “giusta” in senso assoluto, ma per capire le differenze, le contraddizioni, le lacune. Il confronto è il primo strumento per individuare i punti deboli degli output e per acquisire una panoramica più ampia e sfaccettata. Un confronto che faccio fare anche a loro dando le risposte di uno anche agli altri.
La fase Challenge
Challenge: non mi fermo di fronte alla convergenza. Quando più modelli propongono risposte simili, le metto in discussione. Perché dicono la stessa cosa? È un riflesso condizionato o una best practice consolidata? Si tratta di una sintesi ragionata o di un automatismo? Questa fase è fondamentale per evitare che il consenso diventi conformismo passivo. È esattamente quello che rischia di accadere anche a noi utenti: agire come sonnambuli digitali, accettando output senza metterli in discussione, fidandoci ciecamente dell’autorevolezza apparente degli algoritmi.
La fase Curate
Curate: l’ultima e più importante fase. Qui entrano in gioco le esperienze, le capacità, le conoscenze dell’individuo, così come il giudizio e la capacità critica. Non si tratta solo di correggere errori o migliorare lo stile, ma di assumersi la responsabilità piena del contenuto finale. Curare significa dare senso, personalità e coerenza al lavoro svolto a “8 mani”, rendendolo un prodotto unico e riconoscibile. Questo approccio supera il classico concetto di prompting, che si limita spesso a formulare bene la domanda. È una strategia di gestione del processo totale, un modo per mantenere il controllo e far sì che l’intelligenza artificiale sia un vero alleato, non un sostituto.
In un mondo in cui tutto corre a velocità folle e la quantità di dati cresce esponenzialmente, la capacità di orchestrare in modo efficace e consapevole il lavoro delle AI diventa la carta vincente, secondo me, al di là degli agenti ai che in questo momento vedo più come piloti automatici che team di lavoro. Non basta saper chiedere: serve saper ascoltare, interpretare e scegliere. E poi decidere quando dire no.
Perché il protocollo delle 3C non fa risparmiare tempo
Arrivati a questo punto, si potrebbe pensare che il Protocollo delle 3C sia l’ennesima tecnica per ottimizzare i tempi, per rendere il lavoro con l’intelligenza artificiale più rapido ed efficiente. Sgombriamo subito il campo da questo equivoco. Il metodo del direttore d’orchestra non ci farà risparmiare tempo. Al contrario: richiede più attenzione, più strategia e più fatica di una semplice delega o automazione. Richiede di fermarsi a confrontare, di prendersi il lusso di sfidare il consenso, di dedicare energia alla curatela finale. Non è un metodo per produrre di più, ma per pensare meglio.
Non è un trucco per accelerare. È una sfida per rallentare quando serve, per entrare nel dettaglio quando la superficialità sarebbe un danno. La tecnologia corre veloce, ma chi dirige l’orchestra deve saper mettere in pausa il ritmo per scegliere la nota giusta. È un investimento che paga solo se si ha il coraggio (e il tempo) di sostenerlo.
Dirigere consapevolmente la complessità delle risposte AI
La chiave di tutto sta in un aspetto spesso sottovalutato: non si tratta solo di avere risposte, ma di saperle leggere, interpretare e mettere in discussione. Nel mio esperimento, ho potuto osservare un fenomeno interessante: le risposte delle AI a domande di tipo strategico convergevano quasi parola per parola. Questa non è casualità, né semplice coincidenza. È piuttosto un “consenso di qualità”, una sorta di standard che emerge da un enorme insieme di dati e prassi consolidate. Ma qui sta il punto: questo consenso non è un punto d’arrivo, ma un punto di partenza. Chi guida il processo deve fare meta-analisi, vedere i pattern, decidere cosa accettare, cosa sfidare e cosa migliorare. È qui che la metodologia si inserisce in una visione più ampia della consapevolezza digitale, quella che ho chiamato Digitalogia: non subire passivamente la tecnologia, ma dirigerla con cognizione di causa.
Da utenti a direttori: il futuro del lavoro con l’AI
L’intelligenza artificiale non è più un superpotere, è la norma di ogni fase del lavoro digitale: dalla raccolta dati all’analisi, dalla creazione di contenuti alla gestione dei processi. Usare l’AI per scrivere un post è solo la punta dell’iceberg e nemmeno più tanto geniale o tanto furba come i primi mesi di vita ChatGPT. Chi oggi ignora rifiuta di integrare l’AI nel workflow, rischia di rimanere indietro. Che si tratti di un copywriter, un consulente, un analista o un manager, l’asticella si è alzata. Non basta più saper “scrivere con l’AI”: serve padroneggiare un metodo per orchestrare, valutare e curare tutti i flussi di lavoro che coinvolgono i tool generarivi.
Nel futuro del lavoro intellettuale con l’intelligenza artificiale non conta quanto velocemente si impara a scrivere un prompt, ma quanto si riesce a orchestrare un processo. Perché la differenza tra un testo qualsiasi e un testo con firma sta in chi ha saputo idearlo, curarlo, interpretarlo e difenderlo. L’AI non è buona o cattiva: è quello che ne facciamo noi.
Io ho lentamente costruito il Protocollo delle 3C per il mio lavoro, per non farmi schiacciare dagli algoritmi e restare padrone del processo, in un momento in cui l’AI sembra un oracolo. E mi fa piacere condividerlo liberamente con tutti. Perché alla fine, non si tratta solo di una tecnica operativa, ma di un approccio che riflette una filosofia più ampia: quella di una cultura digitale matura, consapevole e sempre centrata sull’essere umano.
Dal rumore alla musica: il ruolo umano nella creazione
Essere un direttore d’orchestra significa proprio questo: non limitarsi a battere il tempo, ma interpretare la partitura, guidare le sezioni, dare un’anima all’esecuzione. Richiede più lavoro che lasciare gli strumenti a suonare da soli, certo, ma forse è un modo per passare dal rumore alla musica. È un modo per creare qualcosa che sia, indiscutibilmente, soltanto nostro.











