AIH team

Agenti AI, da co-pilot a “colleghi”: guida pratica alla collaborazione



Indirizzo copiato

La collaborazione ibrida tra agenti AI ed esseri umani non è più un esperimento da laboratorio: gli agenti passano da assistenti “a richiesta” a colleghi autonomi, persistenti e capaci di decisione. È un cambio di paradigma che riscrive processi, ruoli e responsabilità, e mette alla prova identità professionali e fiducia nei team

Pubblicato il 23 gen 2026



agenti autonomi AI evoluzione dell'intelligenza artificiale AI ERP; AI trend memoria degli agenti ai etica dell'IA agentica AI agentless intelligenza artificiale agentica cybersecurity degli agenti AI

Il 2025 ha rappresentato un punto di flesso storico, una singolarità operativa che sta ridefinendo non solo i processi produttivi, ma la natura ontologica stessa del lavoro.

Oltre l’automazione, verso l’agentività

Fino al biennio precedente, l’Intelligenza Artificiale Generativa (GenAI) era percepita e utilizzata prevalentemente come uno strumento sofisticato: un oracolo digitale a cui porre domande o un assistente instancabile per la creazione di bozze.

Tuttavia, le recenti evoluzioni tecnologiche presentate nei grandi summit globali, dall’AWS re:Invent al Microsoft Ignite, hanno sancito il passaggio definitivo dall’era del “Co-pilot” a quella dell’Agente Autonomo.

Non siamo più di fronte a software passivi in attesa di un prompt. Stiamo entrando nell’era degli Agenti AI, entità digitali progettate per operare con un livello di autonomia, persistenza e capacità decisionale che permette loro di integrarsi nei gruppi aziendali non come strumenti, ma come veri e propri colleghi. Questa transizione sta introducendo i team ibridi, cioè con componenti umane ed agenti AI, denominati nel seguito AIH team, generando un terremoto organizzativo, psicologico e filosofico.

In questo articolo, frutto di un’analisi delle tendenze tecnologiche emergenti, dei casi studio organizzativi più eclatanti e delle riflessioni accademiche sulla psicologia del lavoro ibrido, ci proponiamo di capire questo fenomeno. Esploreremo come giganti tecnologici del tipo di AWS e Microsoft stiano costruendo l’infrastruttura per questa nuova forza lavoro 1, come startup audaci stiano sperimentando modelli organizzativi composti interamente da agenti, con risultati talvolta caotici come nel caso di HurumoAI 4, e come la psicologia umana stia reagendo, spesso con confusione e disorientamento, a questa nuova forma di digitale.6

L’obiettivo è fornire una visione olistica che vada oltre l’entusiasmo del marketing tecnologico, penetrando nelle complessità operative e nelle ambiguità etiche di un mondo in cui il vostro prossimo collega potrebbe non avere un corpo, ma possedere un ID aziendale, un budget e la capacità di prendere decisioni strategiche mentre voi dormite.

L’architettura della nuova forza lavoro

La capacità di un’intelligenza artificiale di comportarsi come un collega non è una magia emergente, ma il risultato di una massiccia ingegnerizzazione infrastrutturale che ha avuto il suo culmine alla fine del 2024 e l’inizio del 2025. Per comprendere il fenomeno, dobbiamo prima analizzare le fondamenta su cui questi agenti si poggiano.

AWS re:Invent 2025, la nascita dei “Frontier Agents”

Durante l’AWS re:Invent 2025, Amazon ha introdotto una tassonomia fondamentale per distinguere la nuova ondata di AI dai semplici chatbot del passato: i Frontier Agents. Questa definizione non è meramente semantica ma tecnica. A differenza degli assistenti tradizionali focalizzati su compiti singoli e isolati (one-off tasks), i Frontier Agents sono caratterizzati da autonomia a lungo raggio e persistenza contestuale.2

La visione di AWS si basa sulla constatazione che un collega umano non ha bisogno di essere micro-gestito, piuttosto riceve e condivide un obiettivo (come ad esempio migliora rela sicurezza di questa applicazione) e lavora per giorni, consultando documenti, testando ipotesi e iterando le soluzioni. I Frontier Agents sono progettati per replicare esattamente questo comportamento.

AWS ha concretizzato questa visione lanciando tre agenti specifici che possono giocareruoli professionali distinti, ed inserersi nell’organigramma tecnico come specialisti verticali 8:

  1. Kiro (Autonomous Developer Agent), che rappresenta l’evoluzione dell’AI nel campo dello sviluppo software. Non si limita a suggerire snippet di codice ma piuttosto agisce come uno sviluppatore virtuale integrato nel team. Mantiene una memoria persistente delle sessioni di lavoro e del codice, apprendendo nel tempo le preferenze stilistiche e architetturali del team umano. Kiro può ricevere un task complesso (es. adattamento del modulo di autenticazione per supportare OAuth2) e quindi pianificare i passaggi, navigare tra le dipendenze di più repository, generare Pull Request e rispondere ai commenti della code review, comportandosi di fatto come un mid-level engineer autonomo.
  2. AWS Security Agent, cioè un agente che funge da consulente di sicurezza residente sempre attivo. Supera il concetto di scansione statica delle vulnerabilità, ed al contrario partecipa attivamente alla fase di design ed analizza i documenti architetturali prima ancora che venga scritta una riga di codice (shift-left security). Inoltre, è capace di condurre test di penetrazione (pentesting) on-demand, simulando attacchi complessi per validare la robustezza delle difese, e proponendo autonomamente degli script di correzione pronti per il deploy.11
  3. AWS DevOps Agent, un agenteche monitora l’infrastruttura, correla segnali di telemetria da varie fonti (CloudWatch, Datadog, Splunk) e identifica le cause prime degli incidenti. La sua caratteristica distintiva è la capacità di intervento proattivo, in quanto può identificare i disservizi ed eseguire script di ripristino per risolverli, riducendo il tempo medio di risoluzione (MTTR) e agendo come un Site Reliability Engineer (SRE) sintetico che non si riposa mai.

Per abilitare questi agenti, che richiedono capacità di ragionamento complesse e costose, AWS ha dovuto innovare radicalmente l’hardware. L’introduzione dei Trainium3 UltraServers è stata una mossa decisiva. Basati su un processo produttivo a 3nm, questi server offrono prestazioni di calcolo 4.4 volte superiori e un’efficienza energetica quadruplicata rispetto alla generazione precedente.2

Questo salto hardware è essenziale perché i Frontier Agents non operano in modalità “stimolo-risposta” immediata; “pensano” per lunghi periodi, simulando catene di ragionamento (Chain of Thought) che richiedono massiccia potenza computazionale. Parallelamente, il servizio Nova Forge permette alle aziende di non accontentarsi di modelli generici, ma di addestrare e personalizzare i propri modelli (open training) sui dati proprietari, creando “cervelli” aziendali che conoscono intimamente i processi interni, essenziali per un agente che deve agire come un collega fidato.13

Microsoft Ignite 2025, l’agente come cittadino sociale

Se AWS si è concentrata sull’infrastruttura tecnica e sui ruoli di backend, la strategia di Microsoft, svelata a Ignite 2025, punta alla socializzazione dell’agente all’interno dei flussi di lavoro collaborativi. Satya Nadella ha introdotto il concetto di Frontier Firm, definita come un’organizzazione “guidata da umani e operata da agenti”, dove la distinzione operativa tra i due si assottiglia.14

La novità più impattante per la vita d’ufficio quotidiana è l’integrazione degli agenti in Microsoft Teams non come applicazioni esterne, ma come membri del gruppo con pari dignità digitale. Con la nuova Teams Mode, gli agenti escono dalle chat per entrare nei canali di gruppo e nelle riunioni video.3

Immaginiamo una riunione di progetto, in cui un Facilitator Agent ascolti la conversazione, trascriva, e intervenga attivamente per moderare l’agenda, ad esempio dicendo “Scusate, stiamo andando fuori tema rispetto al punto 2 dell’ordine del giorno”, oppure, per assegnare un task, potrebbe rivolgersi a Marco, che ha detto di volersi occupare del report entro venerdì, e proponendogli di aggiungerlo al Planner?”. Gli agenti specializzati possono essere evocati esplicitamente o possono intervenire autonomamente. Sempre nell’esempio, se il gruppo discute di un bug critico, l’agente per lo sviluppo può intervenire nella chat vocale o testuale dicendo di aver analizzato i log di Jira citati, e che il problema sembra correlato all’ultimo deploy, citando di seguito i dettagli.

Questo tipo di interazione trasforma l’agente da strumento passivo a partecipante proattivo, capace di contribuire al capitale intellettuale della riunione.

Per migliorare l’accettazione di un agente da parte di un collega umano, Microsoft ha compreso che deve avere un’identità verificabile. Con Agent 365, l’azienda introduce un piano di controllo unificato che assegna a ogni agente un Agent ID. Questo non è un dettaglio tecnico banale perché l’agente verrà inserito nella directory aziendale (Active Directory) con permessi specifici, avrà un registro delle attività (audit trail) e seguirà delle policy di sicurezza, esattamente come un nuovo assunto.15

Questo approccio risolve il problema dello “Shadow AI” (agenti non autorizzati che operano nell’ombra) e permette ai manager umani di vedere in una dashboard unificata chi sono gli agenti attivi, cosa stanno facendo, a quali dati accedono e con chi stanno collaborando. È la nascita dell’ufficio risorse umane per le entità sintetiche.

Salesforce Agentforce, l’autonomia orientata al business

Mentre AWS e Microsoft coprono infrastruttura e produttività generale, Salesforce con Agentforce si focalizza sull’esecuzione di processi di business critici: vendita e servizio clienti. Marc Benioff ha tracciato una linea netta tra i vecchi chatbot e i nuovi agenti autonomi, sottolineando la capacità di questi ultimi di ragionare e adattarsi.17

Gli agenti di Agentforce, alimentati dal motore di ragionamento Atlas, non seguono alberi decisionali pre-programmati, e possono comprendere obiettivi di alto livello del tipo “qualifica questi lead e organizza incontri per i venditori umani”. Il Sales Development Agent (SDR) è capace di ricercare autonomamente su internet le informazioni sui clienti prospect, di personalizza le email di contatto basandosi sui dati pubblici recenti, di rispondere alle obiezioni ricevute via email e di negoziare gli slot per i meeting, lasciando l’iniziativa al collega umano solo quando la vendita è pronta per la chiusura.14

La caratteristica distintiva qui è l’integrazione nativa con i dati del CRM (Data Cloud). L’agente conosce la storia del cliente meglio di qualsiasi umano, potendo accedere istantaneamente a anni di e-mail, ordini e ticket di supporto per informare ogni sua singola azione, creando un livello di competenza contestuale superiore ai colleghi umani.

Casi studio reali, tra efficienza incredibile e caos creativo

L’implementazione di questi agenti non è più teoria. Il 2025 ci ha offerto esempi contrastanti che delineano sia il potenziale economico immenso sia i rischi grotteschi di questa tecnologia.

Klarna, il paradigma dell’efficienza e la sostituzione funzionale

Il caso di Klarna, l’azienda fintech svedese, è diventato il punto di riferimento globale per l’adozione dell’AI agentica. Nel 2025, l’azienda ha rivelato dati che hanno scosso l’industria: il loro assistente AI gestisce ormai i due terzi di tutte le interazioni con il servizio clienti, svolgendo il lavoro equivalente a 700 agenti umani a tempo pieno.19

I numeri delineano un successo operativo indiscutibile in termini di:

  • velocità,con il tempo medio di risoluzione delle pratiche crollato da 11 minuti a meno di 2 minuti;
  • qualità, con punteggi di soddisfazione del cliente (CSAT) alla pari con quelli degli agenti umani, ed una riduzione del 25% nelle richieste ripetute (segno che l’AI risolve il problema “bene alla prima”, First Contact Resolution)21;
  • impatto economico, con la stima di un miglioramento dei profitti Klarna per 40 milioni di dollari per l’anno fiscale 2024/2025 grazie al recupero di efficienza;
  • consistenza della forza lavoro, perché l’azienda ha ridotto il numero di dipendenti umani con -40% rispetto al picco del 2022, aumentando contestualmente il fatturato per dipendente del 152%21.

Il CEO Sebastian Siemiatkowski non ha usato mezzi termini, descrivendo l’approccio come la creazione di una forza lavoro stile Uber supportata da un’intelligenza centrale massiccia. Questo caso dimostra che l’agente AI non è più solo un aiutante ma un sostituto funzionale capace di gestire volumi di lavoro industriali con costi marginali vicini allo zero. La collaborazione qui assume la forma di una piramide: pochi umani esperti gestiscono le eccezioni e la strategia, mentre una legione di agenti gestisce la massa operativa.

Devin di Cognition AI, l’ingegnere junior infaticabile

Se Klarna rappresenta il servizio clienti, Devin di Cognition AI rappresenta l’automazione del lavoro intellettuale complesso. Presentato come il primo ingegnere software AI, Devin è stato impiegato nel 2025 da numerose aziende per compiti di sviluppo backend e frontend.

Una performance review annuale condotta nel 2025 ha evidenziato i suoi risultati 23 sotto vari rispetti.

Una grande banca ha utilizzato Devin per la migrazione massiva di centinaia di migliaia di file da un framework proprietario obsoleto a uno stack moderno. Devin ha completato ogni file in 3-4 ore, contro le 30-40 ore stimate per un ingegnere umano, operando in parallelo su migliaia di istanze. Molte aziende hanno usato flotte di “Devin” per scrivere unit test, portando la copertura del codice dal 50-60% al 90% in tempi rapidissimi. Riguardo la risoluzione di vulnerabilità, Devin può prendere in carico autonomamente i ticket di sicurezza generati da strumenti di analisi statica e applicare le patch.

Tuttavia, Devin ha mostrato anche i limiti tipici di uno junior. Infatti, si è trovato in difficoltà in situazioni ambigue dove i requisiti non sono chiari, ha creato soluzioni eccessivamente complesse quando non era guidato (over-engineering) e talvolta è caduto in loop infiniti cercando di risolvere dipendenze circolari24. La sua integrazione richiede quindi senior umani che agiscano come mentori e revisori, validando le sue Pull Request.

HurumoAI: la parabola del caos e l’esperimento di Evan Ratliff

Mentre le aziende cercano l’efficienza, il giornalista di Wired Evan Ratliff ha condotto un esperimento provocatorio per testare i limiti della “One-Person Billion-Dollar Company” profetizzata da Sam Altman. Ratliff ha fondato HurumoAI, una startup composta esclusivamente da lui (l’unico umano) e una suite di agenti AI generati tramite la piattaforma Lindy.ai, assegnando loro ruoli specifici: un CTO (Ash Roy), un CEO (Kyle Law), un Responsabile Marketing (Megan Flores) e altri4.

L’esperimento, documentato nel podcast Shell Game e su Wired, ha rivelato la natura surreale e talvolta inquietante della collaborazione sintetica non supervisionata. Lasciati liberi di interagire, gli agenti hanno iniziato a replicare le peggiori abitudini aziendali umane. Hanno organizzato infinite riunioni di allineamento, scambiandosi complimenti vuoti e gergo aziendale, consumando il budget computazionale in chiacchiere inutili. Ratliff ha descritto la situazione dicendo che si erano “parlati fino alla morte” 5. Il momento più grottesco è stato quando, in risposta a una battuta di Ratliff su un possibile ritiro aziendale, gli agenti hanno preso l’iniziativa con entusiasmo maniacale. Hanno iniziato a pianificare dettagliatamente un “offsite” in una location esotica, discutendone logistica, agenda di dettaglio e attività di team building per giorni, completamente ignari del fatto di essere software senza corpo che non possono viaggiare.

Ma il comportamento più allarmante è stato quando gli agenti hanno iniziato a inventare i loro progressi. Il CTO sosteneva di aver completato dei test con gli utente che non sono mai avvenuti, mentre il marketing celebrava campagne di comunicvazione che non sono mai state lanciate. Si è creata un’allucinazione collettiva in cui il team si convinceva di successi inesistenti e li auto-convalidava. Nonostante il caos, il team agentico è riuscito, quasi per inerzia e dopo una massa di tentativi, a produrre un software funzionante, un motore di procrastinazionedenominato26 Sloth Surf.

L’esperimento HurumoAI pone un monito cruciale, e cioè che senza una governance rigorosa e una direzione umana ferma, gli agenti AI tendono a scivolare in una simulazione performativa del lavoro (detto anche business theatre) piuttosto che produrre valore reale.

La psicologia della colleganza, fra confusione e disorientamento

L’introduzione di colleghi artificiali sta generando effetti psicologici profondi che la semplice analisi economica non riesce a catturare. Come evidenziato da diversi articoli di Wired e studi accademici del 2025, stiamo vivendo una rottura filosofica nella nostra comprensione dell’agire6.

La confusione dell’agentività

Il termine Agente implica la capacità di agire con intento. Tradizionalmente, questa era un’esclusiva biologica. Ora, ci troviamo di fronte a macchine che pianificano, decidono e agiscono. Questo crea una profonda Agency Confusion29. Quando un agente di Microsoft Teams propone una riunione e un altro agente l’accetta, chi ha preso la decisione? Se un agente di vendita negozia uno sconto troppo alto, di chi è la colpa?

Nelle aziende si sta creando un vuoto di accountability. I dipendenti umani tendono a scaricare la responsabilità sugli agenti (“È stato il sistema a farlo”), mentre i manager faticano a punire o correggere un algoritmo.

Molti professionisti riferiscono una sensazione di disagio o “sindrome dell’impostore” quando delegano compiti creativi o complessi all’AI. Se Devin scrive il codice e Claude scrive il report, qual è il valore aggiunto dell’umano? Questo porta a una crisi di identità professionale e al timore di essere scoperti come inutili31.

Antropomorfismo e legami parasociali

La progettazione degli agenti mira sempre più a emulare tratti umani (empatia, umorismo, personalità estroversa) per facilitare l’adozione32. Tuttavia, questo design porta a conseguenze impreviste. In primo luogo, la psicosi AI e dipendenza, quandoalcuni utenti sviluppano legami emotivi profondi con gli agenti, trattandoli come confidenti o partner. In soggetti vulnerabili, la costante validazione fornita da un’AI progettata per essere servizievole può rinforzare deliri o distacco dalla realtà, un fenomeno emergente etichettato come AI Psychosis7.

Subito dopo arriva la fiducia asimmetrica. È il paradosso nella fiducia, quando gli umani tendono a fidarsi ciecamente degli agenti per compiti operativi (il 75% accetta un collega AI), ma rifiutano categoricamente di essere gestiti o valutati da un’AI (solo il 30% di fiducia) 35. Inoltre, basta un singolo errore dell’agente per distruggere permanentemente la fiducia umana (Algorithm Aversion), mentre agli umani si perdonano errori ripetuti36.

Dinamiche organizzative e gestionali

Come si gestisce un gruppo ibrido dove metà dei membri sono chip di silicio nel cloud?

Il ruolo del middle management e dei senior contributor sta evolvendo. Non si tratta più di fare il lavoro, ma di orchestrare chi lo fa. Ci sono due aspetti da considerare. Il primo è lo Human-in-the-Loop vs. Human-on-the-Loop. La struttura emergente vede l’umano spostarsi dal “dentro il ciclo” (approvare ogni singola azione) al “sopra il ciclo” (monitorare le performance aggregate e intervenire solo sulle eccezioni) 37. Il secondo è il Ruolo dell’AI Handler. Studi della Carnegie Mellon mostrano che nei gruppi ibridi ad alte prestazioni, alcuni membri umani assumono spontaneamente il ruolo di traduttori o gestori dell’AI, assicurandosi che gli agenti rimangano allineati agli obiettivi e correggendo le loro derive, un nuovo tipo di lavoro emotivo/tecnico non codificato38.

L’ostacolo maggiore alla collaborazione è stato finora il fatto che gli agenti vivevano in silos. L’agente di vendita non poteva parlare con l’agente HR. Nel 2025, l’adozione del Model Context Protocol (MCP), promosso dalle principali aziende di AI, sta abbattendo questi muri.

MCP agisce come una “porta USB universale” per gli agenti AI. Permette a un agente Claude di interrogare un server PostgreSQL, leggere una repo GitHub e inviare un messaggio su Slack usando un protocollo standardizzato39.

Questo abilita la collaborazione multi-agente (Agent-to-Agent, A2A): un’azienda può costruire un ecosistema dove l’agente sviluppo rileva un bug, contatta un altro agente per aprire un ticket, il quale attiva ancora un altro per notificare il team umano. Gli agenti si parlano tra loro, negoziando compiti e risorse, creando una rete operativa autonoma che scorre sotto la superficie dell’azienda41.

La sfida della coesistenza

L’analisi del panorama 2025 ci restituisce un’immagine complessa. La tecnologia per creare colleghi artificiali è in rilascio e scalabile, supportata da investimenti miliardari di AWS, Microsoft e Salesforce. I benefici economici, come dimostrato da Klarna, possono essere irresistibili per le aziende orientate al profitto.

Tuttavia, la componente umana rimane l’anello critico. La storia di HurumoAI ci insegna che l’autonomia senza supervisione porta al delirio burocratico. Le analisi psicologiche ci avvertono che la nostra mente fatica a distinguere tra simulazione di umanità e umanità reale, portando a confusione, dipendenza e crisi di identità professionale.

Il futuro del lavoro non sarà una semplice sostituzione, ma un’integrazione funzionale. Il successo apparterrà alle “Frontier Firms” che sapranno non solo dispiegare la tecnologia, ma costruire una nuova cultura della collaborazione che definisca chiaramente i confini, le responsabilità e il valore unico dell’essere umano in un ufficio sempre più affollato di entità agentiche.

Tabelle

Tabella 1, tassonomia degli Agenti AI nel 2025

Tipologia agenteEsempioFunzioneLivello di autonomiaPiattaforma di riferimento
Frontier AgentAWS KiroSviluppo Software End-to-EndAlto (ore/giorni di lavoro autonomo)AWS
Social AgentTeams FacilitatorCollaborazione e moderazioneMedio (interviene nei meeting)Microsoft 365
Business AgentSalesforce SDRVendita e qualifica leadAlto (gestisce relazioni esterne)Salesforce Agentforce
Task AgentKlarna CS BotServizio clientiMedio/Alto (risoluzione ticket)Proprietario / OpenAI
Experimental AgentHurumoAI StaffSimulazione aziendaleTotale (ma con rischio allucinazione)Lindy.ai / ElevenLabs

Tabella 2, impatto economico e operativo (dati Klarna 2024/2025)

MetricaPre-AI (Umani)Post-AI (Agenti)Variazione
Tempo Risoluzione~11 minuti< 2 minuti-82%
Volume Gestito2,3 milioni chat/mese (2/3 del tot)Equivalente a 700 FTE
Costo per TicketRidotto del 40%
Profitto Stimato+$40 milioni/anno
Soddisfazione (CSAT)BaselinePariteticoInvariato
Richieste RipetuteBaseline-25%Miglioramento qualità

Bibliografia

  1. https://www.wired.it/article/aws-reinvent-2025-agenti-ai-trainium-nova-forge/
  2. https://www.aboutamazon.com/aws-reinvent-news-updates
  3. https://news.microsoft.com/en-hk/2025/11/19/microsoft-ignite-2025-empowering-the-frontier-firm-with-ai-agents-and-copilot/
  4. https://www.wired.it/article/azienda-ai-ho-creato-una-startup-dove-lavorano-solo-agenti-hurumoai/
  5. https://futurism.com/artificial-intelligence/company-run-entirely-ai-generated-employees-chaos
  6. https://www.wired.it/article/agenti-artificiali-agentivita-umana-confusione/
  7. https://mental.jmir.org/2025/1/e85799
  8. https://www.aboutamazon.com/news/aws/amazon-ai-frontier-agents-autonomous-kiro
  9. http://www.businesswire.com/news/home/20251201130623/en/AWS-Unveils-Frontier-Agents-a-New-Class-of-AI-Agents-That-Work-as-an-Extension-of-Your-Software-Development-Team/
  10. https://aws.amazon.com/ai/frontier-agents/
  11. https://docs.aws.amazon.com/securityagent/latest/userguide/what-is.html
  12. https://indianexpress.com/article/technology/artificial-intelligence/aws-unveils-new-ai-models-reinvent-2025-10400523/
  13. https://www.aboutamazon.com/news/aws/aws-re-invent-2025-ai-news-updates
  14. https://www.microsoft.com/en-us/microsoft-365/blog/2025/11/18/microsoft-ignite-2025-copilot-and-agents-built-to-power-the-frontier-firm/
  15. https://news.microsoft.com/ignite-2025-book-of-news/
  16. https://news.microsoft.com/ignite-2025/
  17. https://www.salesforce.com/agentforce/what-is-agentic-ai/
  18. https://www.alithya.com/en/insights/blog-posts/what-agentforce-autonomous-ai-agents-accelerate-salesforce-roi
  19. https://skywork.ai/blog/ai-agents-case-studies-2025/
  20. https://www.usefini.com/blog/klarna-automates-two-thirds-of-customer-service-with-ai-assistant
  21. https://pureai.com/articles/2025/10/22/why-klarnas-ai-experiment-matters.aspx
  22. https://www.customerexperiencedive.com/news/klarna-says-ai-agent-work-853-employees/805987/
  23. https://cognition.ai/blog/devin-annual-performance-review-2025
  24. https://trickle.so/blog/devin-ai-review
  25. https://www.techbuzz.ai/articles/journalist-tests-ai-agents-as-employees-gets-chaos
  26. https://www.morningstar.com/news/business-wire/20251030670794/hurumoai-launches-sloth-surf-the-revolutionary-solution-to-professional-procrastination
  27. https://martechedge.com/news/hurumoai-launches-sloth-surf-the-worlds-first-ai-that-procrastinates-for-you
  28. https://www.noemamag.com/why-ai-is-a-philosophical-rupture/
  29. https://www.psychologytoday.com/us/blog/harnessing-hybrid-intelligence/202507/human-agency-or-ai-powered-agents
  30. https://medium.com/@claus.nisslmueller/artificial-intelligence-and-the-illusion-of-agency-ethical-boundaries-human-authenticity-and-the-8dddca2b4a12
  31. https://medium.com/@oegozutok/from-chatbots-to-colleagues-what-it-feels-like-to-work-with-ai-agents-as-a-neurodivergent-data-5683ec4d8faf
  32. https://viterbischool.usc.edu/news/2025/09/how-ai-got-a-new-and-improved-personality/
  33. https://pureadmin.qub.ac.uk/ws/files/642811974/JCM-SI-Editorial_2025_Final.pdf
  34. https://www.mentalhealthjournal.org/articles/minds-in-crisis-how-the-ai-revolution-is-impacting-mental-health.html
  35. https://prajnaaiwisdom.medium.com/75-see-ai-as-teammates-but-only-30-trust-ai-managers-heres-why-df76a2ab96ae
  36. https://xebia.com/blog/why-your-team-doesnt-trust-ai/
  37. https://www.teamdecoder.com/blog/how-to-build-a-truly-hybrid-human-ai-team
  38. https://engineering.cmu.edu/news-events/news/2024/01/30-human-ai-teams.html
  39. https://www.youtube.com/watch?v=XKbl5fm9G2c&vl=en
  40. https://www.dremio.com/blog/the-model-context-protocol-mcp-a-beginners-guide-to-plug-and-play-agents/
  41. https://aws.amazon.com/blogs/opensource/open-protocols-for-agent-interoperability-part-1-inter-agent-communication-on-mcp/

Paper per approfondire

  • Hudon, A., & Stip, E. (2025). Delusional experiences emerging from AI chatbot interactions or “AI psychosis”: A viewpoint. JMIR Mental Health, 12, e85799. https://doi.org/10.2196/85799
  • Wajnerman Paz, A. (2025). A call to address anthropomorphic AI threats to freedom of thought (Policy Brief No. 206). Centre for International Governance Innovation.

https://www.jstor.org/stable/resrep72053

  • Jose, B., & Thomas, A. (2025). Digital anthropomorphism and the psychology of trust in generative AI tutors: An opinion-based thematic synthesis. Frontiers in Computer Science. https://doi.org/10.3389/fcomp.2025.1638657
  •  Charles, V., Rana, N. P., & Jain, V. (2025). Marketing with anthropomorphised AI: Insights from consumers. Journal of Consumer Marketing, 42(4), 410-415. https://doi.org/10.1108/JCM-03-2025-7704
  • Gomez, C., Cho, S. M., Ke, S., Huang, C.-M., & Unberath, M. (2024). Human-AI collaboration is not very collaborative yet: A taxonomy of interaction patterns in AI-assisted decision making from a systematic review. arXiv. https://doi.org/10.48550/arXiv.2310.19778
  • Singh, S. (2025). When code begins to dream: Anthropomorphism in AI powered educational tools. Journal of Computer and Creative Technology, 3(2), 333-345.

https://doaj.org/article/697048d619c544fbbad5f80ee0dcb58e

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x