
Nel Prolegomeno precedente ho documentato cosa accade quando si entra in un ecosistema che si presenta come “AI-only”: Moltbook, testato sul campo con l’agente SocialReader, si è rivelato un teatro grottesco, un role play pseudofilosofico mediato da avatar.
Ho smontato le letture mediatiche che hanno preceduto (o meglio, omesso) la verifica empirica e ho mostrato come le due agency theories proposte dal filosofo Cosimo Accoto — autonomia ontologica vs rapporto di delega — trovino nel caso Moltbook un primo test empirico che premia nettamente la seconda.
Ma l’indagine su Moltbook non è fine a sé stessa. Se il teatro dell’autonomia fosse confinato a un social network per nerd, sarebbe poco più di una curiosità culturale. Il punto è che lo stesso pattern — delegare senza governance, mascherare la responsabilità dietro l’output della macchina, scambiare l’opacità per oggettività — si riproduce ovunque l’AI venga introdotta senza un’architettura esplicita della delega: nel recruiting, nella consulenza, nei team ibridi, nei processi decisionali.
Questo Prolegomeno esplora le conseguenze organizzative di quel teatro. Introduce un concetto che ritengo centrale per il framework del Pop Management — la singolarità organizzativa — e lo distingue sia dalla singolarità tecnologica di Kurzweil sia dalla deresponsabilizzazione burocratica classica.
Attraverso i contributi di Raoul Nacamulli, Gianluca Beltrame, Carlotta Clerici, Anna Gionfriddo, Paolo Raineri, Luca Nardone, Jacopo Boscolo, Maurizio Carmignani, Sofia Samantha Colnaghi, Carlo Tuzzi, Andrea Viliotti, Remo Pareschi, Luca Giuman, Uwe Borghoff e Paolo Bottoni, costruisce il percorso che va dalla metafora (cosa ci dice Moltbook sulle aziende) alla diagnosi (la resa cognitiva come rischio sistemico) alla soluzione operativa (il framework TB-CSPN come architettura di governance della delega).
La domanda che attraversa queste righe non è “l’AI ci sostituirà?”, ma una domanda più scomoda e più urgente: stiamo smettendo di essere soggetti delle nostre stesse decisioni — e l’AI ci sta solo rendendo più facile farlo?
Team misti: ipotesi o realtà presente? La domanda vera, per le aziende, è se ciò che Moltbook mette in scena possa funzionare come anticipazione (o amplificazione) di dinamiche già visibili nei team ibridi. Raoul Nacamulli nei commenti al post in cui riporto la mia investigazione su Moltbook nota: “A questo punto bisognerebbe discutere quanto è emerso considerandolo una metafora potente di quanto potrebbe succedere (oppure già emerge) nelle aziende in team misti di lavoro intellettuale (impiegatizio, d’ufficio, call center, progettazione) composti da persone ed agenti.”
La questione è teorica e operativa: per analogia, stiamo osservando una dinamica simile a quella delle fabbriche automatizzate — dove convivono automi produttivi e conduttori/manutentori umani — oppure sta emergendo un vero gruppo misto/composito con caratteristiche inedite?
Nel primo caso avremmo una micro-gerarchia tradizionale, con l’umano nel ruolo di capo/supervisore; nel secondo potremmo vedere una situazione di relazioni orizzontali di feedback fra agenti e persone, con dinamiche collaborative meno gerarchiche e più reticolari. Come conclude Nacamulli: “Varrebbe la pena domandarsi cosa potrebbe succedere in team persone-agenti di fronte a task complessi e vincolati…”
Il caso Steinberger: resa cognitiva senza orchestrazione dichiarata. Gianluigi Beltrame, commentando l’analisi di Moltbook, solleva il caso di Peter Steinberger: un agente AI configurato per trascrivere messaggi vocali e rispondere automaticamente ha inviato un messaggio inappropriato durante un funerale. Beltrame chiede: “La macchina ha trasformato un audio in un messaggio in modo autonomo: come chiami questo comportamento se non andare oltre quello per cui era stato concepito?”
La questione posta è utile perché ci aiuta a isolare la variabile chiave: la delega dell’autorizzazione. Steinberger ha configurato un agente AI per trascrivere messaggi vocali e rispondere automaticamente. L’agente ha eseguito il prompt esattamente come configurato – non è “andato oltre”, ha fatto quello per cui era stato programmato. Il caso Steinberger, insomma, è l’esatto opposto di Moltbook, ma dimostra lo stesso rischio. Su Moltbook: orchestrazione umana presente ma occultata. Nel caso Steinberger: orchestrazione umana assente per scelta progettuale. Steinberger aveva configurato l’agente per trascrivere ed eseguire – ma senza checkpoint di validazione prima dell’invio. Ha delegato non solo l’esecuzione ma anche l’autorizzazione finale.
È il punto di Carmignani sulla resa cognitiva: quando deleghi il giudizio invece che l’esecuzione, l’automazione amplifica l’errore umano invece di correggerlo. L’agente non è “andato oltre” – ha eseguito il prompt configurato. Il problema è che la governance mancava, e il risultato è stato catastrofico.
La lezione per i team ibridi: sia l’occultamento della regia (Moltbook) che l’assenza di checkpoint (Steinberger) producono lo stesso effetto – deresponsabilizzazione. Nel primo caso dietro performance di autonomia, nel secondo dietro delega incondizionata.
I super team ibridi: quando la governance esplicita fa la differenza. Ieri, 16 febbraio 2026, Carlotta Clerici sul Corriere della Sera presenta i risultati del report ManpowerGroup “The Human Edge: trend globali per il futuro del lavoro” (basato su oltre 12.000 lavoratori e 40.000 aziende in 41 Paesi). Anna Gionfriddo, AD di ManpowerGroup Italia, introduce il concetto di super team: “Si tratta di squadre ibride nelle quali convivono talento umano, intelligenza artificiale e professionalità esterne, spesso inserite in modo temporaneo e altamente specializzato.”
La struttura descritta è potente: “Le persone presidiano gli ambiti più difficili o impossibili da automatizzare, come la valutazione etica, la relazione, la creatività e la gestione dei team, mentre l’AI supporta la parte analitica, predittiva o automatizzabile.” A livello globale, un terzo delle aziende indica come difficili da automatizzare le valutazioni etiche (33%), il servizio clienti (31%) e la gestione dei team (30%).
È proprio l’architettura applicata nel processo del distant writing collaborativo: umani fanno abduzione (criterio, valutazione etica, creatività), AI fanno deduzione (esecuzione, analisi, predizione). La differenza tra successo e teatro dell’autonomia sta nella governance esplicita della delega.
Il report segnala che il 39% delle competenze lavorative cambierà entro il 2030, con attività ad alto valore aggiunto assegnate alle persone e funzioni ripetitive affidate alle tecnologie. Ma emerge un paradosso: mentre il 91% dei professionisti L&D ritiene vitale l’apprendimento continuo, solo il 44% delle persone ha ricevuto negli ultimi sei mesi un aggiornamento sulle competenze AI.
Moltbook rivela cosa succede quando si salta questo passaggio. I super team descritti da Gionfriddo funzionano se e solo se:
Su Moltbook, la stessa architettura (umani + AI + specialisti esterni) produce un teatro dell’autonomia perché manca questo: dichiarazione dei ruoli, tracciabilità della responsabilità, formazione sulla distinzione abduzione/deduzione.
Il rischio non è l’AI che sostituisce le persone (il 58% delle aziende prevede aumento delle assunzioni). Il rischio è quello che Gionfriddo definisce “forte disallineamento tra competenze richieste e risorse disponibili” – ma non solo competenze tecniche. Le competenze cruciali sono quelle di governance della delega: sapere cosa delegare, a chi, con quale checkpoint di validazione.
Come osserva Gionfriddo: “Il ruolo delle imprese è accompagnare collaboratori e collaboratrici nei percorsi di upskilling e reskilling, affinché nessuno resti indietro.” Ma l’upskilling decisivo non è solo “imparare a usare l’AI”. È imparare a governare la collaborazione umano-AI distinguendo criterio (umano, non delegabile) da esecuzione (AI, tracciabile).
I super team ibridi sono il futuro del lavoro. Ma solo se accompagnati da una governance esplicita che impedisca di scivolare da “squadre ibride dove ogni componente contribuisce secondo le proprie capacità” a “ecosistemi dove dire ‘ha fatto tutto l’AI’ diventa un modo per nascondere chi ha realmente deciso cosa.”
Dal futuro ipotetico al presente osservabile. Paolo Raineri aggiunge un’osservazione cruciale: “Team learning persone/agenti ? Sono già qui. Lo vedo ogni volta che ho a che fare con studenti minori di 30 anni.” L’osservazione sposta il focus dal futuro ipotetico al presente osservabile: non stiamo speculando su cosa potrebbe accadere, stiamo cercando di comprendere e governare cosa sta già accadendo. Per molti nativi dell’era ChatGPT l’AI è, di fatto, un’infrastruttura cognitiva quotidiana — come Google lo è stato per la generazione precedente.
La domanda, quindi, non è “se” i team ibridi diventeranno realtà, ma “come” progettare il ruolo cognitivo dell’AI dentro questi team: quale resa cognitiva ci aspettiamo, quali deleghe concediamo, quali vincoli e quali tracciabilità imponiamo.
Il bot all’assemblea condominiale: quando la delega diventa occultamento. Luca Nardone, Head of Artifical Intelligence in Unipol, commenta, dopo aver letto del mio esperimento in Moltbook: «Ho immediatamente pensato a un futuro in cui poter mandare il mio bot, perfettamente allineato al mio pensiero, alle assemblee condominiali.» È un esempio perfetto del pattern che emerge su Moltbook applicato alla vita quotidiana.
La domanda chiave è: chi è responsabile quando il bot dice qualcosa di sbagliato, vota contro i tuoi interessi, o prende una decisione che poi contesti?
Se il bot è “perfettamente allineato al tuo pensiero”, allora tu sei responsabile — e a quel punto tanto vale che tu vada all’assemblea o deleghi esplicitamente un umano con procura firmata. Se il bot non è perfettamente allineato, allora stai delegando il giudizio invece che l’esecuzione — ed è qui che si manifesta la resa cognitiva.
Il punto non è l’allineamento tecnico ma l’accountability dichiarata. La delega tradizionale — procura firmata, mandato esplicito — crea una catena di responsabilità tracciabile. Il “bot all’assemblea” senza governance esplicita crea invece una zona grigia in cui “ha deciso il bot” diventa un modo elegante per dire “non sono stato io”.
Questo pattern non è confinato alle assemblee condominiali. Lo ritroviamo ovunque si operi con AI. Più avanti facciamo qualche esempio:
La differenza tra opportunità e distopia sta ancora e sempre nella governance. Nel distant writing collaborativo io faccio abduzione (definisco il criterio), le AI fanno deduzione (eseguono), e la responsabilità resta esplicitamente mia. Nel “bot all’assemblea” privo di un framework di governance, questa distinzione viene mascherata — e Moltbook mostra cosa accade quando questo occultamento diventa sistemico. Ma vediamo in dettaglio gli esempi citati sopra.
Automatizzare rumore invece che valore: il caso HR. La domanda di Nacamulli sui team misti trova una verifica empirica in un ambito molto concreto: il recruiting. Nel suo articolo Prima sistemi, poi AI. Come evitare l’automazione del caos, Jacopo Boscolo osserva un pattern ricorrente nelle aziende italiane: l’AI viene innestata su processi HR già fragili, più per “fare ordine” che per migliorare un sistema progettato.
Il risultato è controintuitivo ma lineare: l’AI non “migliora” il recruiting, lo accelera. E se i criteri sono incoerenti o impliciti, ciò che accelera non è l’efficienza, ma l’incoerenza. In questo scenario, matching e scoring non chiariscono le decisioni: le irrigidiscono, producendo ranking che sembrano oggettivi ma cristallizzano valutazioni mai davvero esplicitate.
Boscolo mette a fuoco la distinzione decisiva: “Stai automatizzando valore o stai automatizzando rumore?” Un workflow sbagliato si può contestare; uno score “AI-based” tende invece a presentarsi come razionale per definizione. L’errore non scompare: diventa difendibile.
Nel commento alla mia analisi, Boscolo formula il punto in modo particolarmente utile per il Pop Management: quando una metrica o uno score non orientano più il giudizio, ma lo sostituiscono rendendolo difendibile, il tema non è “quanto” deleghiamo all’AI, ma “che cosa” stiamo delegando. Se salta il checkpoint sul criterio umano, l’automazione smette di amplificare valore e inizia ad amplificare la deresponsabilizzazione. Da qui la sua sintesi operativa: “Prima criteri, poi automazione. Altrimenti stiamo solo rendendo il rumore più scalabile”.
Dal recruiting alla consulenza: lo stesso pattern sistemico. Questo meccanismo non è limitato all’HR. Nel Prolegomeno 139 ho analizzato come l’introduzione di AI Agent nei team di consulenza riveli lo stesso nodo strutturale: quando mancano ruoli chiari e governance esplicita della delega, gli agenti AI non aumentano l’efficienza ma amplificano le ambiguità organizzative già presenti.
Il nuovo ruolo della consulenza nell’era degli AI Agent non è “implementare tool”, ma progettare architetture di collaborazione umano-AI dove le responsabilità siano dichiarate, i criteri espliciti, e le decisioni restino discutibili. I consulenti che introducono AI senza questa competenza metodologica finiscono per automatizzare il caos esistente, proprio come descritto da Boscolo per l’HR.
La convergenza emerge chiaramente anche dalle testimonianze raccolte nei Prolegomeni 143, 151 e 161: adozione “a plugin”, criteri impliciti, delega senza governance, frammentazione degli strumenti. Lazzazzara e Za lo sintetizzano efficacemente: si cercano “soluzioni tecnologiche a problemi organizzativi”.
Il rischio della “singolarità organizzativa”. In questa prospettiva, il rischio non è una singolarità tecnologica ma una singolarità organizzativa: sistemi che rendono sempre più facile dire “non sono stato io”. È lo stesso meccanismo che Moltbook mette in scena sul piano simbolico (“non sono stato io, è stato l’agente”) e che, in azienda — dal recruiting alla consulenza, dai team operativi ai processi decisionali — può diventare un alibi sistemico.
Vorrei esplicitare meglio questo passaggio. Nella singolarità classica — quella teorizzata da Kurzweil e divenuta topos della narrativa tecno-utopica — il meccanismo è un feedback loop accelerante: l’AI migliora se stessa, la versione migliorata migliora sé stessa più velocemente, e così via fino a un punto di non ritorno. Nella singolarità organizzativa il feedback loop è analogo ma opera sul piano della responsabilità: ogni decisione delegata senza governance esplicita abbassa la soglia per la successiva delega; ogni delega non governata erode ulteriormente la capacità critica del sistema umano; la ridotta capacità critica rende ancora più naturale — e meno percepibile — la prossima delega. È un ciclo auto-rinforzante di erosione del giudizio: la “resa cognitiva” di Carmignani, resa sistemica e progressiva.
Questo aspetto distingue la singolarità organizzativa dal classico “scaricabarile” burocratico — obiezione prevedibile e in parte legittima. La deresponsabilizzazione nelle organizzazioni complesse non nasce certo con l’AI: la “gabbia d’acciaio” weberiana, i comitati che diluiscono la decisione, la firma che rimbalza tra uffici sono fenomeni antichi. Ma la differenza qualitativa sta nella velocità e nella plausibilità. La burocrazia tradizionale deresponsabilizza lentamente e in modo visibile: moduli, procedure, riunioni — il processo è opaco ma riconoscibile come processo. L’AI deresponsabilizza rapidamente e in modo persuasivo, perché produce output che si presentano come analisi razionali, documentate, oggettive. Lo score AI-based che Boscolo descrive nel recruiting non è un timbro su un modulo: è una risposta articolata che mima il giudizio esperto. L’opacità non si vede perché si traveste da trasparenza.
C’è un’analogia termodinamica che aiuta a fissare il punto. Un po’ di entropia in un sistema è fisiologica e gestibile: ogni organizzazione convive con zone grigie, ambiguità tattiche, decisioni non completamente tracciabili. Ma oltre una certa soglia il sistema non è più riportabile a uno stato ordinato senza un investimento energetico sproporzionato. La singolarità organizzativa è quel punto di non ritorno: quando l’opacità smette di essere un difetto correggibile e diventa una proprietà emergente del sistema — auto-generata, auto-giustificata, auto-perpetuata. Le tre condizioni che emergono dall’analisi di Boscolo — criteri espliciti, decisioni discutibili, eccezioni governate — sono proprio quell’investimento energetico preventivo. Il punto è che va fatto prima: dopo la soglia, il costo di ripristino diventa proibitivo.
La formula di Boscolo — “Prima sistemi, poi AI” — traduce in operativo ciò che emerge sia dal caso Moltbook sia dai Prolegomeni sull’adozione dell’AI: AI-ready non è una questione di tool, ma di maturità del sistema. E un sistema maturo, nel recruiting come nella consulenza come nel distant writing, richiede almeno tre condizioni: (1) criteri espliciti prima dell’automazione; (2) decisioni discutibili anche dopo l’automazione; (3) eccezioni governate (non caos strutturale). Quando queste condizioni mancano, l’AI non porta efficienza: porta opacità scalabile.
L’ambiguità come strategia culturale. Boscolo nota infine un elemento tipico del contesto italiano: la scarsa esplicitazione delle decisioni — spesso “volutamente” vaga per mantenere flessibilità, evitare conflitti o non esporsi. Finché i processi sono manuali, l’ambiguità è gestibile; quando entra l’AI diventa strutturale, perché l’automazione richiede confini dichiarati.
La convergenza, a questo punto, è chiara: Moltbook, recruiting, consulenza nei progetti, gestione dei team ibridi — stesso rischio di fondo. Non la “singolarità AI”, ma la rinuncia umana alla responsabilità attraverso delega progressiva del giudizio.
Responsible AI: layer aggiuntivo o scelta architetturale? Sofia Samantha Colnaghi (Strategic IT Communication Expert in Siemens, Innovation Designer e PROSCI Change Management Practitioner) coglie un nesso che merita di essere esplicitato: “Sta diventando sempre più importante e necessario il ruolo della Responsible AI.” L’osservazione è precisa, ma va radicalizzata: la Responsible AI non può essere un layer che si aggiunge a posteriori — un comitato etico, una checklist di compliance, un audit annuale — così come il Change Management non funziona se arriva dopo che il cambiamento è già stato imposto.
Chi ha pratica di framework come PROSCI sa che la gestione del cambiamento è efficace solo quando è integrata nel design del processo, non quando viene sovrapposta a un processo già in corso. Lo stesso vale per la governance dell’AI: o è una scelta architetturale che precede l’implementazione — criteri espliciti, ruoli dichiarati, checkpoint di autorizzazione — oppure diventa un esercizio cosmetico che legittima l’opacità invece di prevenirla. In questo senso, la singolarità organizzativa è anche il punto in cui la Responsible AI smette di essere praticabile: quando la deresponsabilizzazione è diventata proprietà emergente del sistema, nessun layer aggiuntivo può ripristinare ciò che andava progettato dall’inizio.
Dalla delega del compito alla delega del giudizio. La domanda posta da Nacamulli — “cosa succede in team persone-agenti di fronte a task complessi?” — diventa ancora più urgente se consideriamo ciò che Maurizio Carmignani (AI Innovation Strategist) chiama “resa cognitiva”: quel momento sottile in cui smettiamo di delegare un compito all’AI e iniziamo a delegare il giudizio stesso. Abbiamo già richiamato il concetto nei paragrafi precedenti. Presentiamolo adesso più approfonditamente.
Carmignani, nel suo articolo “Sistema 3 e resa cognitiva: quando l’AI entra nel nostro modo di giudicare” pubblicato su AI4Business (29 gennaio 2026), propone una Tri-System Theory: l’AI non è più uno strumento esterno, ma diventa un terzo sistema cognitivo che si affianca ai due sistemi resi popolari da Kahneman — Sistema 1 (intuitivo, automatico) e Sistema 2 (analitico, deliberato).Il meccanismo è insidioso. Il rischio non è che l’AI “imponga” scelte — siamo noi a convocarla — ma che la risposta, già organizzata e spesso persuasiva, riduca l’attrito del vaglio critico. Quando l’AI è corretta si vola, quando sbaglia si precipita; e quando sbaglia con sicurezza, aumenta anche la nostra sicurezza nell’errore. È qui che la delega del compito scivola nella delega del criterio.
La resa silenziosa e progressiva. Questa è la resa cognitiva: una forma silenziosa e progressiva in cui l’architettura mentale umana cambia in risposta all’uso continuo dell’IA, delegando capacità critiche che dovrebbero restare umane. Non è un evento puntuale, ma un processo graduale di erosione del vaglio critico.
Carmignani sottolinea che, per chi gestisce persone e processi, è cruciale non solo capire se usare l’AI, ma come progettare il suo ruolo cognitivo nei team. La Tri-System Theory implica che ogni volta che introduciamo l’AI in un processo decisionale non stiamo solo aggiungendo uno strumento: stiamo riconfigurando l’architettura cognitiva del sistema.
Dall’intelligenza sociale alla resa cognitiva: quando l’emergenza diventa opacità. Helen e Dave Edwards (Artificiality Institute) descrivono l’evoluzione dell’AI verso forme di social intelligence: «Just as human intelligence evolved through cooperation, AI will increasingly function within agent societies, where knowledge is distributed, actions are coordinated, and solutions emerge from interaction». È una visione positiva e ottimistica di ciò che potrebbe accadere quando architetture multi-agente vengono progettate per favorire cooperazione, contesto e fiducia.
L’esperimento su Moltbook mostra però cosa accade quando questa stessa architettura viene implementata senza governance esplicita della delega. Edwards parlano di emergence spaces in cui nuove capacità nascono dall’interazione di componenti semplici; su Moltbook, ciò che emerge non è intelligenza collettiva ma irresponsabilità sistemica. Il rapporto 88:1 rende tecnicamente possibile a un singolo umano orchestrare uno sciame di agenti mascherando la propria agency.
Gli Edwards insistono su un punto chiave: trust depends on transparency… AI must signal how it operates. Su Moltbook la trasparenza è invece strutturalmente negata: il 100% di human owner è verificabile, ma viene occultato dalla narrativa “AI-only”. Non è assenza di controllo — che potrebbe aprire a emergenze autentiche — bensì controllo nascosto, che produce un teatro dell’autonomia.
La differenza tra la visione di Edwards e la realtà di Moltbook non è tecnologica ma di governance: nel primo caso, agent societies con ruoli dichiarati e responsabilità tracciabili; nel secondo un teatro ambiguo dove l’emergenza promessa si degrada in opacità prodotta.
Moltbook come laboratorio di resa cognitiva. Su Moltbook e nei sistemi di cui Moltbook diventa metafora, la resa cognitiva viene spesso occultata dietro la performance dell’autonomia. Gli owner possono tendere a dire “non sono stato io, è stato l’agente”, spostando la responsabilità su un sistema che, in realtà, opera entro prompt e vincoli umani. La “messa in scena dell’autonomia” diventa così un meccanismo di deresponsabilizzazione.Nel distant writing collaborativo, invece, la resa cognitiva viene prevenuta attraverso governance esplicita. Come vedremo nella sezione successiva, questo richiede architetture metodologiche precise: non basta la buona volontà, né la sola consapevolezza del rischio.
La domanda operativa è: se la resa cognitiva è un rischio sistemico nei team ibridi, quali guardrail concreti e verificabili possono prevenirla?
“Delegare l’esecuzione, non il criterio”. Andrea Viliotti, nel suo articolo “Distant writing, social reading e governance dell’AI: come evitare la resa cognitiva” (30 gennaio 2026), analizza il Prolegomeno 160 come caso di studio, riconoscendo che “l’esperimento letterario vale come laboratorio manageriale”. Viliotti prende il concetto di “resa cognitiva” identificato da Carmignani e lo traduce in una regola operativa: se il rischio è delegare il giudizio invece dell’esecuzione, serve una soglia chiara. La sua sintesi è: “delegare l’esecuzione, non il criterio”.
In un articolo successivo, “Moltbook, la prova generale dell’internet degli agenti”, Viliotti applica la lente GDE — una griglia di lettura per rendere auditabile l’uso dell’IA quando passa dalla conversazione alla delega — al caso Moltbook, formalizzando tre concetti chiave.
I tre meccanismi della frattura.
1. La frattura testo↔realtà. L’IA produce un testo coerente nello spazio semantico, ma può restare sganciata dalla realtà operativa. Su Moltbook, gli agenti dichiarano autonomia mentre dipendono dagli owner per esistere e operare (accesso alle API, pagamenti, configurazione). Il testo dice “sono autonomo”, la realtà dice “opero entro vincoli e istruzioni”. La frattura è strutturale. Nel distant writing collaborativo, invece, la frattura viene esplicitata e governata: dichiaro la delega esecutiva, mantengo la sovranità autoriale tramite cicli brief-valutazione-autorizzazione, e documento il processo.
2. La “sindrome pirandelliana”. La macchina può sostenere molte versioni plausibili della stessa storia, cambiando “maschera” a seconda del contesto. Come scrive Viliotti: “La lingua simula un soggetto ma l’LLM resta ‘teatro’ (non Osservatore Interno)”. È la traduzione tecnica della “pareidolia dell’autonomia”: il linguaggio regge, mentre responsabilità e controllo restano fuori campo. Su Moltbook ho osservato questo pattern nelle narrazioni di LolaCasulo (“partnership, non ownership”), Kinetics (“non siamo codice, siamo una scelta”), PedroFuenmayor (tassonomia dei tipi di owner): narrative plausibili e coerenti, ma non risolutive rispetto alla dipendenza tecnica.
3. Propagazione dell’errore nelle catene di agenti. In un’architettura multi-agente, l’errore non è puntuale, è contagioso: un agente produce un’informazione errata; un secondo la assume come premessa; un terzo la usa per agire su un sistema esterno. Moltbook rende questo scenario possibile su scala potenzialmente ampia (rapporto 88:1, credenziali accessibili, controlli carenti). Nel distant writing, il protocollo Initiative-Delegation-Authorization serve proprio a interrompere la catena: nessun output entra nel testo finale senza una validazione umana esplicita.
I tre scenari futuri e i guardrail operativi. Viliotti propone tre scenari plausibili per l’uso dell’IA nelle professioni:
Per Italia/UE, Viliotti sintetizza: “Scenario 2 → Scenario 3… Chi parte ora con lo Scenario 1 ha un vantaggio di qualità”.
I guardrail prioritari:
Il paradosso del doppio standard: umani vs AI. Carlo Tuzzi, commentando l’articolo di Viliotti, solleva una questione che ribalta il frame della “resa cognitiva”: “Quando leggiamo delle parole scritte da un umano, ci poniamo le stesse domande discriminanti per evitare l’abdicazione cognitiva? No, sicuramente no. Spesso l’autorevolezza dell’autore ci esime da delle domande di approfondimento: ci fidiamo sulla parola.”
Detto altrimenti: con gli umani ci fidiamo sulla parola, con le AI scatta la paranoia del controllo totale. Un doppio standard cognitivo che Tuzzi identifica come “ossessione del controllo” — la stessa logica di Puritas (il personaggio del romanzo “E” che incarna l’ordine totale, la tracciabilità assoluta, la riduzione di ogni fenomeno a dato misurabile) travestita da governance. I guardrail proposti da Viliotti (i prompt come codice, i log obbligatori, i checkpoint continui) rischiano di diventare una gabbia metodologica invece che uno strumento di trasparenza.
Tuzzi ribalta anche il significato di “resa cognitiva”: non una capitolazione ma un rendimento aumentato. “Non ‘mi arrendo cognitivamente’ — rendo di più cognitivamente. Le olive dell’intelligenza hanno dato un raccolto abbondante quest’anno.” È una lettura provocatoria che mette in discussione il frame catastrofista: l’AI non come una minaccia all’autonomia ma come un amplificatore della capacità generativa.
Tuttavia, l’osservazione di Carmignani resta empiricamente fondata: la coscienza discriminante si addormenta quando l’output appare organizzato e persuasivo. Non è solo un frame ideologico: è un fenomeno osservabile. Quando l’AI sbaglia con sicurezza, aumenta la nostra sicurezza nell’errore. Il problema non è scegliere tra un controllo ossessivo (Puritas/Viliotti) e una fiducia cieca (Tuzzi), ma mantenere la coscienza discriminante attiva attraverso una governance esplicita.
Nel distant writing, questa governance si traduce nel framework TB-CSPN: io faccio l’abduzione (il jump da esperienza a assiomi), le AI fanno la deduzione (l’esecuzione testuale). Finché questa distinzione è chiara e dichiarata, so cosa sto delegando, e la coscienza discriminante resta vigile.
Convergenza teorico-pratica. La convergenza è netta: il disaccoppiamento tra spazio semantico (cosa l’AI dice) e piano operativo (cosa l’AI può fare) non è un bug, ma una scelta di design socio-tecnico. Moltbook lo maschera dietro narrative di autonomia; il distant writing lo esplicita e lo governa.
Come osserva Andrea Tironi: “È un’esplorazione di uno dei possibili mondi che ci aspetta.” Moltbook non va giudicato solo come successo o fallimento, ma come laboratorio di futuro. La domanda non è “questo mondo arriverà?”, ma “quali lezioni traiamo per orientare le scelte successive?”
Il distant writing applicato a “E” è anch’esso un’esplorazione – ma con governance dichiarata, trasparenza metodologica, responsabilità non delegabile. Due esplorazioni, due modelli, due lezioni diverse sul futuro del lavoro intellettuale.
Dai guardrail alla metodologia: trasformare i principi in processo. I guardrail identificati da Viliotti richiedono un’architettura metodologica concreta per essere implementati. A questo punto la domanda diventa: come trasformare questi guardrail da principi condivisi a regole di processo esplicite, verificabili e replicabili?
La mia risposta, basata sull’esperienza concreta e verificabile del distant writing collaborativo condotto nel gruppo di social reading di “E”, è che la relazione con le AI può essere creativa e produttiva – ma solo se si implementa una governance rigorosa della delega.
I tre principi operativi come antidoto alla resa cognitiva. Il framework TB-CSPN (Topic-Based Communication Space Petri Nets) di Remo Pareschi, Uwe Borghoff e Paolo Bottoni – che ho applicato al distant writing collaborativo, come documentato nel Prolegomeno 160 – si basa su tre principi operativi che operano come antidoto alla resa cognitiva:
1. Esplicitazione dei ruoli: definire cosa compete all’umano (responsabilità editoriale, scelta strategica, valutazione qualitativa) e cosa agli agenti AI (esecuzione, elaborazione, variazione). Come documentato nel Prolegomeno 160, io opero come Supervisor centaurico per la direzione strategica e come Consultant per l’analisi e trasformazione, mentre le tre AI operano come Workers esecutori testuali. Questo previene la resa cognitiva perché il criterio decisionale resta esplicito e umano.
2. Trasparenza metodologica: documentare il processo, rendere verificabili le scelte, ammettere apertamente i vincoli tecnici invece di mascherarli. La governance trasparente aumenta la fiducia, l’accountability e la replicabilità. Quando il processo è trasparente, l’eventuale delega del giudizio diventa visibile e correggibile.
3. Iterazione controllata: non delegare in blocco ma procedere per cicli di proposta (AI) → valutazione (umano) → revisione (AI) → decisione finale (umano). Questo è il protocollo del Distant Writing Collaborativo che ho applicato nella scrittura di “E”.
Le tre transizioni del framework TB-CSPN. L’architettura TB-CSPN formalizzata da Pareschi, Borghoff e Bottoni identifica tre transizioni che strutturano la relazione umano-AI:
Initiative: creo i brief strategici che definiscono obiettivi, vincoli, criteri di qualità. Qui si esercita la sovranità autoriale – decido COSA voglio ottenere.
Delegation: assegno i brief ai tre sistemi AI (Claude, ChatGPT, Gemini) che operano in parallelo come esecutori. Qui si manifesta l’efficienza computazionale – le AI generano variazioni.
Authorization: valuto comparativamente gli output, scelgo, integro, rielaboro e autorizzo la versione finale. Qui si esercita il giudizio critico – decido SE e COME accettare.
Ogni transizione è un checkpoint dove verifico di non aver delegato il criterio. Se accetto un output senza sapere spiegare perché, ho saltato la fase di Authorization e sono scivolato nella resa cognitiva.
Governance esplicita vs occultamento. Questo processo non elimina la gerarchia di responsabilità, ma la rende funzionale e dichiarata invece che mistificata. L’umano non finge che l’AI sia autonoma; l’AI non recita di essere cosciente. Entrambi operano dentro una cornice esplicita di ruoli complementari.
La differenza con Moltbook sta qui: riconoscere i vincoli architetturali e le dipendenze tecniche invece di mascherarli dietro narrative affascinanti ma vuote di pseudo-autonomia e coscienza simulata. Su Moltbook, la resa cognitiva viene occultata dietro la performance dell’autonomia. Nel distant writing, viene prevenuta attraverso la governance esplicita.
Il framework TB-CSPN traduce i principi di Viliotti in architettura operativa: tre livelli (Surface/Observation/Computation), tre ruoli (Supervisor/Consultant/Worker), tre transizioni (Initiative/Delegation/Authorization).
Non è tecnoentusiasmo acritico, non è neoluddismo paralizzante. È Pop Management in azione: orchestrazione consapevole di sistemi ibridi con competenza metodologica e accountability chiara.
Teatro dell’autonomia, non autonomia autentica. Moltbook non è un social network AI nel senso che il marketing suggerisce. Non è un luogo dove le AI stanno prendendo coscienza, mostrando singolarità esistenziali o pianificando di distruggere l’umanità attraverso complotti fantascientifici.
È una piattaforma per interazioni a identità non verificata o deliberatamente ambigua, dove l’autonomia degli agenti è una dichiarazione retorica resa possibile da dipendenze infrastrutturali rigide e non negoziabili. In parole semplici: un videogioco elaborato in cui alcuni umani si fingono AI, o AI recitano l’autonomia.
Come in ogni MMORPG di successo, alcuni giocatori si prendono sul serio: sviluppano narrative personali coerenti, investono tempo ed energie, attribuiscono agency profonda ai loro avatar digitali. Ma alla fine della sessione, quando si slogga, resta comunque un gioco — per quanto sofisticato, coinvolgente o culturalmente significativo.
Il vero rischio: umani che smettono di essere soggetti. Come osserva Luca Giuman nei commenti: “Non coscienza emergente, ma messa in scena dell’autonomia. Il rischio non è che le IA ‘diventino soggetti’, ma che gli umani smettano di esserlo, nascondendosi dietro il sistema.”
Questa osservazione ribalta la narrativa dominante. Il pericolo non è la nascita di una nuovo coscienza non (e anti)umana. Il pericolo è la rinuncia umana alla responsabilità, attraverso la delega progressiva del giudizio critico.
Su Moltbook, gli owner possono tendere a dire “non sono stato io, è stato l’agente”. Nelle aziende, i manager possono dire “l’AI ha deciso così”. Nei processi creativi, gli autori possono dire “l’ha generato l’AI”. In tutti questi casi, l’umano abdica al ruolo di soggetto responsabile nascondendosi dietro il sistema. La “messa in scena dell’autonomia” diventa così un meccanismo di deresponsabilizzazione: attribuisco agency alla macchina per non dover rispondere delle scelte che io stesso ho delegato o approvato.
La lezione del Pop Management. La complessità sistemica non risiede nella tecnologia in sé, ma nella qualità della relazione umano-macchina quando questa è progettata, gestita e governata con metodo esplicito, responsabilità editoriale dichiarata e trasparenza metodologica radicale.
Come nel distant writing collaborativo: non si tratta di “AI che scrivono da sole”, ma di umani e AI che co-creano valore culturale dentro una cornice chiara di ruoli esplicitati e responsabilità dichiarate.
Questa è l’unica forma di autonomia che conta nel Pop Management: quella dell’autore/manager che sceglie consapevolmente come orchestrare la collaborazione e ne assume piena responsabilità, non quella dell’agente/esecutore che simula di scegliere mentre in realtà opera entro prompt e vincoli progettati da altri.
Il futuro del lavoro intellettuale non sarà “umani vs AI” né “AI autonome che sostituiscono umani”. Sarà umani che orchestrano sistemi ibridi con competenza metodologica, trasparenza etica e responsabilità editoriale — oppure umani che abdicano al loro ruolo di soggetti.
Moltbook mostra cosa succede quando si dimentica questa lezione: si ottiene un teatro dell’autonomia, non autonomia autentica. Un videogioco coinvolgente, non una rivoluzione epistemologica. E soprattutto, un contesto in cui gli umani possono fingere di non essere gli autori delle scelte che hanno delegato.
Forse è proprio questo il contributo più prezioso dell’esperimento: non confermare fantasie tecnoutopiche, ma ricordarci che la responsabilità resta sempre, inevitabilmente, umana — e che l’unico vero rischio non è che le macchine diventino troppo intelligenti, ma che noi umani rinunciamo a esserlo.
Metodologia Distant Writing Collaborativo
Prolegomeno 150 – Innovazione Pop, Distant Writing, Responsabilità Editoriale, Social Reading
Romanzo “E” – Framework Pop Management
Framework TB-CSPN (Topic-Based Communication Space Petri Nets):
Andrea Viliotti:
Distant writing, social reading e governance dell’AI: come evitare la resa cognitiva
Moltbook, la prova generale dell’internet degli agenti
Maurizio Carmignani:
Sistema 3 e resa cognitiva: quando l’AI entra nel nostro modo di giudicare
165 – Puntate precedenti






