Il concetto di Human-in-the-loop rappresenta una delle questioni più controverse nell’evoluzione dell’intelligenza artificiale. Nato come principio militare per mantenere il controllo umano sulle armi autonome, questo concetto si è progressivamente trasformato con l’avvento dei sistemi di apprendimento automatico e dei modelli linguistici di ultima generazione. Ma cosa significa davvero avere l’uomo “nel ciclo” quando parliamo di algoritmi che elaborano miliardi di dati e producono risposte apparentemente autonome?
Indice degli argomenti
Le origini militari del controllo umano
Human-in-the-Loop (HITL) è, dunque, un concetto militare. Non è strano. La maggior parte delle tecnologie informatiche nascono grazie a investimenti militari. HITL rappresenta la forte preferenza delle strutture militari di mantenere sotto controllo umano la parte rilevante delle azioni che vengono eseguite da sistemi meccanici.
Non è una scelta ideologica, c’è un motivo pratico. L’azione militare si sviluppa in aree di incertezza: la scelta di iniziare un’azione è importante, ma anche quella di terminarla o abortirla all’ultimo momento. Sono scelte che hanno costi alti, anche in termini di vite umane. Mantenere alto il controllo sull’esecuzione delle azioni, significa non affidarsi ad automatismi con un’inerzia difficile da gestire: sarebbe una scelta sbagliata sia dal punto di vista pratico che etico.
Il concetto HITL nasce quando tra la decisione di un’azione e la sua effettiva realizzazione si può interporre un sistema esecutivo non banale. Oltre un certo livello di complessità del meccanismo di esecuzione ci deve chiedere se la responsabilità dell’azione sia attribuibile a qualcuno o se è meramente automatica.
La cibernetica di Wiener e la teleologia meccanica
A partire dalle ultime fasi della Seconda Guerra Mondiale, quando l’ingegneria militare raggiunse risultati rilevanti nell’automazione delle armi autonome, come per esempio i siluri ad inseguimento dell’obiettivo, i militari espressero con chiarezza l’esigenza di mantenere questo controllo in mani umane.
A quel tempo, uno dei protagonisti della creazione di queste armi, nonché principale promotore della teoria matematica sul controllo automatico fu Norbert Wiener, che pochi anni dopo fondò una nuova branca scientifica, chiamata cibernetica.
Oggi Wiener è considerato il riferimento principale per il concetto di Human-in-the-loop. Ma le cose sono un po’ più complesse. La sua opera voleva dotare le macchine di obiettivi autonomi. Wiener parlava di teleologia della meccanica. Dava l’impressione quindi di voler eliminare completamente lo Human-in-the-loop e affidare alla macchina la capacità di agire indisturbata fino al risultato finale una volta che fossero stati definiti gli obiettivi, che la macchina potesse anche scoprire da sé.
In Cybernetics; or, Control and Communication in the Animal and the Machine (MIT Press, 1948), Wiener propose l’idea che anche ogni sistema vivente per mantenere una condizione di equilibrio (omeostasi) realizzi sempre una autoregolazione tramite quello che può essere considerato come un circuito di retroazione (feedback); l’allontanamento da questa condizione di equilibrio, considerata come “errore” tra stato osservato e stato desiderato, porta l’organismo a correggersi in autonomia. Quindi, a livello basilare, la finalità, il telos, degli esseri viventi è quella di rimanere in vita e assecondare i meccanismi omeostatici.
Adottando questa logica, si potevano dotare anche i sistemi meccanici di una forma autonoma di finalismo (teleologia), in modo da indurli a perseguire obiettivi propri e agire con uno scopo insito. Per ricreare un meccanismo come quello dell’omeostasi si dovevano dotare i sistemi di circuiti ad anello chiuso con retroazione negativa, confrontando lo stato del sistema con quello previsto, estraendo un segnale d’errore da minimizzare. Si pensi al siluro che, dopo esser stato lanciato verso il bersaglio, lo insegua attraverso un meccanismo di valutazione della posizione dell’obiettivo usando un sistema sonar. Il telos del siluro è quello di colpire il bersaglio.
L’adozione di questo linguaggio teleologico era certamente improprio (come peraltro fecero notare filosofi del calibro di Jonas o Heidegger), ma l’adozione di metafore sovraestese era solo all’inizio.
Dall’esclusione dell’umano alla sua reintroduzione
La scienza dei sistemi autoregolati fu all’inizio una scienza che voleva escludere lo Human-in-the-loop, e in generale la decisionalità biologica, tentando di ricondurre tutti i comportamenti ad azioni meccaniche anche nei viventi. I primi studi cibernetici vertevano sui riflessi o sui meccanismi automatici non coscienti, come ad esempio il respiro; questi meccanismi sono correlati con l’omeostasi in cui l’essere biologico non interviene volontariamente o in modo cosciente. Prendevano inoltre in considerazione quelle situazioni patologiche che potevano evidenziare il meccanismo di feedback anche nei viventi.
Queste ricerche approfondirono lo studio delle condizioni in cui la presenza del fattore umano o biologico era importante, oltre il momento di selezione iniziale degli obiettivi. Comprendere dove l’umano era ancora importante poteva dare un significativo aiuto per costruire meccanismi che lo sostituissero.
Quindi, con una sorta di inversione dell’obiettivo scientifico iniziale, si esplorò anche il verso opposto dell’equazione posta da Wiener, chiedendosi quando era possibile o desiderabile surrogare meccanicamente i processi biologici.
Infatti, se la decisionalità meccanica poteva escludere l’azione biologica, sembrò naturale spingere il modello meccanico dentro la biologia delle decisioni con un’equivalenza azzardata: poiché la macchina può eseguire decisioni senza l’intervento biologico, allora anche la parte decisionale biologica deve poter essere sostituita con quella meccanica. Azzardato, ma scientificamente affascinante.
D’altro canto quello era il periodo in cui si immaginava di poter modellare l’intera intelligenza umana semplicemente dal suo comportamento percepibile dall’esterno, come proponeva Turing nel suo celebre esperimento dell’imitazione (Turing, Mind, 1950).
I percettroni e la metafora dell’apprendimento
Negli anni ’50, l’influenza del modello cibernetico si estese quindi agli esperimenti di mimesi dei sistemi percettivi biologici, per dimostrare come si potessero astrarre in forma matematica.
Il fisiologo Frank Rosenblatt, coautore di Wiener della prima presentazione della cibernetica, con The Perceptron – A Probabilistic Model for Information Storage and Organization in the Brain (Cornell Aeronautical Laboratory, 1958), propose un’architettura tecnica che generava una valutazione della probabilità di connessione tra i nodi di una rete matematica in base a esempi etichettati da un operatore umano. Fornendo molteplici esempi di uno stesso tipo, la rete tendeva a stabilizzare queste probabilità in modo che avrebbero riconosciuto come appartenenti al tipo anche elementi non passati come esempio.
Oltre a Rosenblatt, anche Arthur Samuel, in Some Studies in Machine Learning Using the Game of Checkers (IBM Journal of Research and Development, 1959), per fare un altro esempio noto, si impegnò nello sviluppo di un programma che si auto-migliorava giocando a dama, dove le possibili mosse venivano etichettate da un operatore umano.
Quindi sia la proposta di percettrone di Rosenblatt, che il sistema della dama di Samuel, reintroducevano la figura dell’umano nel processo.
Anche in questo campo di studio proliferarono le metafore.
I nodi della rete matematica diventarono neuroni, la rete stessa fu quindi identificata come rete neurale, il semplice numero che indicava una probabilità di connessione, veniva piuttosto chiamata peso; l’operazione matematica, che attraverso opportune retroazioni definiva i pesi di connessione, diventò apprendimento, semplicemente perché avveniva in stadi successivi di propagazione all’indietro che stabilizzavano i pesi progressivamente.
Sappiamo benissimo, come sapeva Rosenblatt, che le reti neurali così costruite non modellano che minima parte di un reale sistema neurale biologico; che l’astrazione matematica del neurone non cattura che minima parte del suo vero comportamento; che i pesi non rappresentano un grave fisico; e che l’apprendimento di questi sistemi è solo una forma di ottimizzazione matematica e nulla ha a che fare con l’apprendimento della biologia. La metafora è povera, e vale solo per spiegare superficialmente il comportamento del modello matematico con un esempio del mondo reale. Ma queste metafore restano nel linguaggio comune e molti finiscono per vedere questa semplificazione, che dovrebbe servire solo a spiegare l’aspetto tecnico di un’invenzione, come la reale essenza dell’elemento fisico reale che si prende come paragone.
La distorsione del linguaggio e l’illusione dell’intelligenza
Quindi, se basta un po’ di matematica e ottimizzazione per fare una rete neurale, e una rete neurale è tutto ciò su cui si basa il cervello, diviene lecito pensare che con un po’ di matematica e ottimizzazione si può tranquillamente produrre una intelligenza. Una intelligenza artificiale appunto.
Non è una deduzione molto scientifica questa: è una metafisica basata sulla distorsione del linguaggio non giustificata dai dati di fatto.
Le esperienze pionieristiche degli anni ’50 segnarono anche la nascita dell’idea della macchina che non apprende in modo del autonomo, ma con un feedback da parte dell’umano per modulare i propri parametri e correggere gli errori di generalizzazione.
In realtà, è sbagliato pensare che la macchina apprenda: si limita ad adattare la propria configurazione interna ai segnali che provengono dall’esterno. Non apprende quindi, ma si adatta. Adattamento è un vocabolo che rende più chiaro l’aspetto meramente mimetico di questi sistemi.
Oltre HITL: l’anello umano nell’adattamento dei sistemi
L’introduzione del feedback nei primi sistemi cibernetici generò, benché ancora in termini embrionali, una nozione parallela e opposta a quella militare di Human-in-the-Loop. Questo secondo, e molto diverso, concetto di Human-in-the-loop prevede un’architettura in cui il ciclo di adattamento comprende non solo l’elaborazione dei dati, ma anche l’intervento attivo dell’operatore, che trasforma i dati in modo da renderli adatti al sistema. L’intervento umano guida, valida e raffina i modelli di adattamento. Senza questo anello umano, le reti neurali e gli algoritmi statistici resterebbero privi dei riferimenti necessari a distinguere i risultati, che sono numeri di cui solo un piccolo sottoinsieme rappresenta cose effettivamente utili o veritiere.
Lo Human-in-the-loop, in questi casi, quindi ha una natura molto differente, opposta a quello militare. L’uomo qui scompare dall’azione e si perde la diretta responsabilità dei risultati. Il sistema qui ha l’obiettivo di emanciparsi e fare a meno dell’uomo, come peraltro la metafora dell’apprendimento lascia intendere: dopo aver appreso, si diventa adulti e quindi autonomi. L’uomo, che per i militari è fondamentale, qui è un collaterale alla crescita del sistema, così questo modello forse, e neppure troppo per gioco, lo potremmo chiamare HITL-ER, Human In The Loop – Eclipsing Responsibility.
L’evoluzione del modello militare: dalla guerra fredda a DARPA
Già nella Guerra Fredda l’aviazione statunitense adottò sistemi di guida radar in cui il pilota interveniva per correggere o autorizzare automaticamente manovre di tiro; quest’approccio ibrido fra automazione e supervisione rese possibile lo sviluppo di armi guidate di precisione, conservando però la “scelta ultima” in capo all’operatore umano (Singer, 2009).
Con l’avanzamento della tecnologia, la bussola dell’esercito USA restò chiara. Ad esempio nel 2012 il Dipartimento della Difesa USA formalizzò questa preferenza con la Directive 3000.09, intitolata “Autonomy in Weapon Systems”: ogni sistema letale autonomo deve essere progettato in modo da garantire che un essere umano rimanga sempre in grado di intervenire, interrompere o autorizzare le sue azioni durante l’intero ciclo di impiego (Department of Defense, 2012).
Processi decisionali completamente automatici sarebbero consentiti solo in scenari dove la supervisione diretta non sia tecnicamente realizzabile o comporti rischi maggiori, ma anche in questi casi si richiede un “human over-watch” capace di assumersi la responsabilità legale e morale delle decisioni di ingaggio.
Negli anni più recenti questo modello è evoluto ancora con programmi di “human–machine teaming” di DARPA, come CODE (Collaborative Operations in Denied Environment), in cui squadre di veicoli aerei e terrestri autonomi (droni) operano in sinergia con operatori umani, ricevendo comandi di missione ad alto livello mentre mantengono la capacità di eseguire azioni tattiche in autonomia solo entro parametri strettamente definiti (DARPA, 2016). Qui la logica è evitare il sovraccarico cognitivo dell’operatore e contemporaneamente non affidarsi ciecamente alla macchina, realizzando un equilibrio fra velocità di reazione e controllo umano sulle decisioni critiche.
Responsabilità politica e ricadute civili
Questo modello HITL militare riflette soprattutto l’esigenza di responsabilità politica: un conflitto armato richiede che le decisioni di vita o di morte possano essere ricondotte a un atto di volontà umano. In mancanza si prevedono sanzioni penali, internazionali e crisi di legittimità. In tal senso, ancor oggi i grandi budget destinati a sistemi autonomi – dai droni Predator fino alle sperimentazioni di carri armati senza equipaggio – continuano a prevedere la supervisione umana, non solo per ragioni tecniche, ma per preservare un nesso giuridico e morale fra scelta e responsabilità.
I finanziamenti del modello HITL militare nella computer science hanno avuto ricadute civili importanti in quello specifico ambito tecnologico comunemente noto come Human-Computer Interfaces, o in quello più vasto denominato Intelligence Augmentation (IA, da non confondere con AI, Artificial Intelligence, derivata da quella che abbiamo chiamato HITL-ER).
Intelligence augmentation: potenziare l’umano, non sostituirlo
Esempi di queste tecnologie di Intelligence Augmentation, in campo militare, furono gli HUD (Head-Up Display), come il celebre VTAS (Visual Target Acquisition System), che integravano il puntamento missilistico con il movimento della testa del pilota, in dotazione già dall’inizio degli anni ’70 sugli F-4 Phantom e F-14 Tomcat della U.S. Navy, e in realtà sviluppati nel decennio precedente in Francia e disponibili sui caccia Mirage.
Sul versante civile, già negli anni Sessanta Douglas Engelbart concepì l’idea dell’Intelligence Augmentation nel suo oN-Line System (NLS). Alla celebre «Mother of All Demos» del 1968 presentò un software grafico interattivo con finestre sovrapponibili, un editor testuale con iper‐testo e anche quello che oggi è forse il più efficace esempio di quest’approccio: il mouse. Tutti questi strumenti introducono nuovi modi di manipolare, semplificare o conoscere la realtà per potenziare le capacità cognitive degli utenti, trasformando l’interfaccia computer-umano in un vero partner di pensiero. Engelbart non mirava a sostituire l’umano, bensì a elevare il quoziente intellettivo collettivo attraverso un ambiente interattivo in cui il feedback immediato costituiva il motore dell’apprendimento congiunto tra uomo e macchina.
I modelli GPT e l’illusione dell’allineamento umano
L’avvento dei General Pre-Trained Transformer ha fornito il terreno ideale per codificare in modo strutturato all’interno di modelli di linguaggio su larga scala l’accezione cibernetica degli HITL (HITL-ER).
Va detto che anche in precedenza questo campo è stato molto battuto in tutta quell’area denominata Reinforcement Learning, in cui i sistemi stocastici venivano adattati attraverso l’input umano (il caso classico è quello dello spam in cui le capacità di riconoscimento, tra le altre cose, venivano migliorate analizzando opportunamente i messaggi che l’utente finale indicava come spam nel suo client di posta).
I tre livelli dell’intervento umano nei modelli linguistici
I sistemi GPT impongono la presenza dell’uomo, se non interagissero con l’uomo non saprebbero in effetti cosa trasformare.
Sono tre i livelli principali in cui l’intervento umano aiuta un modello di linguaggio.
Innanzitutto, sono operatori umani che curano i corpora su cui il modello verrà addestrato. La selezione dei testi, la loro rappresentatività e la qualità delle annotazioni di base determinano l’orizzonte cognitivo entro cui il sistema si potrà muovere. Ogni scelta di inclusione o esclusione riflette criteri di rilevanza e di bilanciamento che, se anche intesi per migliorare accuratezza e completezza, rischiano sempre di imprimere un’impronta culturale o ideologica che il modello coglierà come “norma” del suo universo testuale (Settles, 2012).
Durante il funzionamento, il modello stesso individua produzioni che gli suscitano maggiore incertezza e sottopone agli operatori umani i casi ambigui su cui ha bisogno di un approfondimento d’indagine. Questa fase introduce dinamiche di annotazione e di adattamento attivo ai contenuti. Il feedback continuo consente un raffinamento delle capacità di generalizzazione, ma le decisioni di chi revisiona o crea nuove etichette sulla base di linee guida, esperienze pregresse o pregiudizi impliciti, definiscono i confini del sapere che il sistema apprende (Settles, 2012).
Infine, a valle del generatore di testi si colloca la moderazione dei contenuti dove filtri automatici o revisioni umane autorizzano, correggono o scartano le risposte prodotte. In questo stadio si traduce in operazioni concrete l’atto finale di responsabilità: decidere che cosa “può” o “non può” essere presentato all’utente. La visione soggettiva di chi modera, con i propri giudizi su cosa significherebbe il rispetto della verità, l’opportunità o la correttezza politica, condiziona il risultato finale. La moderazione diventa quindi una forma di autorità terminale, che assume valore epistemico.
RLHF: la svolta dei GPT moderni
Nel 2022, Ouyang et al. hanno dimostrato come un semplice raffinamento supervisionato sui dati etichettati dagli esseri umani non fosse sufficiente a garantire risposte realmente utili e allineate alle intenzioni dell’utente. Per migliorare il processo era necessario introdurre un ciclo formale in tre fasi: prima si addestra un modello base con dati umani (“supervised fine-tuning”), quindi si costruisce un modello premiale (“reward model”) che si adatta nello stimare la preferenza umana tra due risposte alternative, infine si applica un algoritmo di reinforcement learning per ottimizzare direttamente la generazione di testo secondo il segnale di ricompensa adattato.
Questa architettura, tecnicamente chiamata RLHF (Reinforcement Learning from Human Feedback), ha segnato la svolta per i GPT moderni: da modelli “statistici” limitati a massimizzare la verosimiglianza delle sequenze di token, si passa a sistemi capaci di incorporare direttamente nel processo di addestramento valutazioni qualitative e sfumature pragmatiche del giudizio umano come la coerenza ad tema, la percezione della correttezza fattuale di una risposta e il tono desiderato nell’interazione.
RLHF ha un gran valore per i GPT moderni, perché l’utente che dialoga in linguaggio naturale, è egli stesso in-the-loop, e può evitare di dover ingegnerizzare manualmente prompt sempre più sofisticati perché il modello interpreterà correttamente le esigenze dell’utente.
Il problema della trasparenza e dei bias
Mentre l’interazione dell’utente comune rimane nella memoria locale del proprio profilo e viene presto azzerata, esistono operatori privilegiati (e anche pagati) la cui interazione passa, in qualche forma, nella base di conoscenza dei modelli.
Gli interventi umani hanno un peso rilevante nella valutazione dei sistemi GPT: fino a che punto l’autorità conferita all’operatore garantisce la veridicità delle risposte? Chi sono gli operatori a cui è permesso adattare i modelli, chi corregge le produzioni del modello, chi censura le risposte? Anche su questo la trasparenza dei produttori, per ora, latita.
Emily Bender e Alexander Koller hanno mostrato come i bias culturali e linguistici presenti in questi sistemi linguistici emergano non solo dal materiale di addestramento, ma anche dalle pratiche di annotazione e moderazione, traducendosi in distorsioni strutturali molto difficili da smascherare (Bender & Koller, 2020). Quindi, pur inserendo l’uomo « a salvaguardia del processo », non si elimina mai la possibilità che il modello riproduca pregiudizi radicati.
Secondo i produttori dei sistemi di linguaggio, la presenza dell’anello umano introdurrebbe una forma implicita di garanzia etica poiché i feedback umani potrebbero scoraggiare contenuti inappropriati o fuorvianti ancor prima che vengano rilasciati in produzione, disegnando un nuovo equilibrio tra automazione e responsabilità condivisa.
Il modello HITL-ER prevede un collante tra tecnologia e supervisione critico-riflessiva, ma la sua efficacia epistemica dipende dalla consapevolezza e dalla trasparenza con cui vengono gestiti i bias umani lungo l’intero workflow, una trasparenza che ad oggi semplicemente non esiste.
Rischi epistemici e campi critici di applicazione
Quali sono le sfide operative di HITL-ER nei contesti ad alto rischio, dove l’errore ha conseguenze concrete e talvolta irreversibili?
In molti campi in cui la vita umana è a rischio, il mero adattamento dei sistemi grazie alla supervisione umana dei modelli non è sufficiente a garantire interpretazioni sicure.
In campo medico, ad esempio, dove già oggi l’intelligenza artificiale supporta in modo sostanziale l’interpretazione di esami strumentali, come quelli radiologici o istologici, è noto che lo scostamento da situazioni di normalità, una normalità spesso calcolata su rilevazioni limitate a ben specifiche popolazioni di riferimento, non rappresenta compiutamente un vero stato patologico, e neppure un indizio di malattia. I medici consapevoli non sempre agiscono per riportare un conclamato stato patologico ad una ipotetica normalità costruita su valutazioni generiche con cure che hanno anche effetti collaterali se il paziente può convivere, con un’adeguata qualità di vita, la sua situazione di nuova normalità. La medicina diviene sempre più personalizzata, ritagliata addosso al singolo paziente, e solo una efficace integrazione tra le capacità degli strumenti tecnici e la decisionalità umana, che è in grado di evitare le trappole degli errori di valutazione automatici, può dare al paziente la migliore possibilità di cura.
La situazione ideale di discorso e i veicoli autonomi
Ma questa integrazione è possibile solo quando c’è la possibilità di agire quella che il filosofo Habermas chiama “situazione ideale di discorso” ovvero se ogni affermazione diagnostica può essere sottoposta a critica e giustificazione reciproca in un contesto libero da coercizioni, in modo che le asserzioni di verità siano validate attraverso un processo argomentativo che coinvolge non soltanto la macchina, ma anche il professionista e il paziente (Habermas, Teoria dell’agire comunicativo, Il Mulino, 2022). Ma se la macchina non può tracciare le fonti delle proprie asserzioni, o se viene posta su un piano di privilegio rispetto all’operatore umano (« perché la tecnica non può sbagliare ») il rischio di ottenere decisioni inadeguate è molto alto.
Donald Norman, a cui si fanno risalire i primi e più importanti studi sullo ‘User Centered Design’, ha chiarito che l’interfaccia tra medico e algoritmo dovrebbe rendere immediatamente visibile lo stato del sistema, i livelli di confidenza delle segnalazioni e le fonti dati su cui si fonda ogni segnale di allarme, evitando che l’operatore medico si debba fidare ciecamente di una “black box” (Norman, La caffettiera del masochista, Mondadori, 2015).
In un altro campo ad alto rischio, quello dei veicoli autonomi, l’intervento dell’uomo è cruciale per gestire situazioni impreviste o ambigue tramite “take-over” da parte dell’operatore umano sul sistema automatico. La sicurezza della guida autonoma non dovrebbe pretendere ogni garanzia dalla correttezza degli algoritmi, senza la necessità che l’utente conduca un dialogo informato con il sistema, comprendendo limiti e presupposti delle decisioni prese dal software.
La sfida politica e giuridica dell’HITL
La sfida epistemica dell’HITL non è solo tecnica, ma politica e giuridica: garantire che le strutture di feedback umano non riproducano i limiti e i pregiudizi che dovrebbero piuttosto correggere richiede un design dell’interazione fondato sulla trasparenza, sulla possibilità di critica e sul rispetto del principio di una comunicazione libera e paritetica.
Oggi però, tra i limiti della tecnologia e veri e propri pregiudizi epistemici sul valore (e più spesso il disvalore) dell’HITL, tali obiettivi sembrano essere molto distanti.
Verso un human-in-the-loop 2.0
È possibile immaginare un paradigma Human-in-the-Loop 2.0 in cui la funzione umana non si limiti né alla posizione ancillare predicata dal modello HITL-ER, né solo a quella di mera assunzione di responsabilità finale come nel modello militare. Lo Human-in-the-loop dovrebbe essere un elemento costitutivo del processo di co-costruzione della conoscenza come esperto non solo “revisore” ma “co-designer” degli obiettivi e dei vincoli, modellando insieme alla macchina il contesto di applicazione e le metriche di successo.
Come Herbert A. Simon ricordava ne Le scienze dell’artificiale, progettare sistemi intelligenti significa soprattutto definire razionalmente vincoli e preferenze entro cui l’azione può dispiegarsi, riconoscendo la razionalità limitata dell’agente umano e l’importanza di un ambiente strutturato che sostenga il processo decisionale (Simon, 1973).
Dal lato pratico, questo comporta non solo l’introduzione di interfacce evolutive in grado di tradurre in tempo reale i feedback qualitativi dell’operatore in adattamenti del proprio modello personalizzato, ma anche la possibilità di rimodulare dinamicamente gli obiettivi della macchina alla luce di nuove conoscenze emergenti durante l’interazione, riconoscendo progressivamente l’accordo intersoggettivo che un dialogo con gli altri potrebbe comportare.
Non basta, insomma, che il sistema si limiti ad apprendere dai dati storici o a scandagliare la realtà conoscitiva circostante ma affronti anche un arricchimento di intuizioni e domande formulate dall’umano, dando vita a un dialogo epistemico in cui, con il supporto di un artefatto personalizzato, l’uomo costruisce un dialogo efficace con i propri simili.
Bibliografia
• Bender, E. M. e Koller, A. “Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data.” Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020.
• DARPA. Collaborative Operations in Denied Environment (CODE) Program Announcement, 2016.
• Department of Defense. Directive 3000.09: Autonomy in Weapon Systems. Washington, D.C., 21 novembre 2012.
• Habermas, J. Teoria dell’agire comunicativo, Il Mulino (2022)
• Norman, D.A. The Design of Everyday Things, Basic Books (1988) (ed. it. La caffettiera del masochista, Giunti, 2019)
• Ouyang, L., Wu, J., Jiang, X. et al. Training language models to follow instructions with human feedback, arXiv:2203.02155 (2022)
• Rosenblatt, Frank. The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain. Cornell Aeronautical Laboratory, 1958.
• Samuel, Arthur L. Some Studies in Machine Learning Using the Game of Checkers. IBM Journal of Research and Development, vol. 3, no. 3, 1959.
• Settles, B. Active Learning in Synthesis Lectures on Artificial Intelligence and Machine Learning, Morgan & Claypool (2012)
• Simon, H.A. Le scienze dell’artificiale, Giuffrè (1973)
• Singer, P. W. Wired for War: The Robotics Revolution and Conflict in the 21st Century. Penguin, 2009.
• Wiener, Norbert. Cybernetics; or, Control and Communication in the Animal and the Machine. MIT Press, 1948.
L’OltreGPT: Human-in-the-loop, con responsabilità — 20250922 — 462efa7b-9575-11f0-877b-7404f196c125
Licenza: CC BY, questo contenuto è concesso ad Alessandro Longo e non può essere destinato ad altri.










