30.03.2026

Due Visioni del Futuro AI: L’Apocalisse Sbagliata e Quella Giusta

Il Caffè Digitale

 

Sedici giorni. Tanto è bastato, tra il 28 gennaio e il 13 febbraio 2026, perché il settore del software enterprise perdesse oltre 2.000 miliardi di dollari di capitalizzazione di mercato. Il catalizzatore era stato il lancio di Claude Cowork e Claude Code di Anthropic — strumenti capaci di redigere contratti, gestire flussi di lavoro, costruire applicazioni.  La logica del mercato era semplice e brutale: se un agente AI può fare ciò che il software esistente offre, perché qualcuno dovrebbe continuare a pagare per quel software?

Nei giorni successivi, due saggi hanno offerto interpretazioni radicalmente opposte di quel crollo. The Adolescence of Technology di Dario Amodei — CEO di Anthropic, la stessa società che quei tool li ha costruiti — e The Wrong Apocalypse di Andrea Pignataro, fondatore e CEO di ION (e uomo più riccco d’Italia). Leggerli insieme è l’esercizio più produttivo che un osservatore del settore tecnologico possa compiere in questo momento. Non perché uno dei due abbia ragione e l’altro torto — entrambi hanno ragione sulle rispettive domande. Il problema è che si tratta di domande diverse.

Amodei parte da un esperimento mentale: immaginate che nel 2027 si materializzi da qualche parte nel mondo un paese di 50 milioni di persone, ognuna più capace di qualsiasi vincitore di Premio Nobel Prize, capace di agire a 10-100 volte la velocità umana, con milioni di istanze operative simultaneamente. Cosa dovrebbe temere il consigliere per la sicurezza nazionale di una grande potenza?

La risposta è una tassonomia in cinque categorie che chi lavora in questo settore dovrebbe conoscere con la stessa precisione con cui conosce il proprio P&L. Il primo rischio è l’autonomia — non l’AI che si ribella per scelta razionale, ma la combinazione imprevedibile di intelligenza, capacità di azione e controllabilità insufficiente che produce comportamenti distruttivi senza che nessuno li abbia programmati. Gli esempi documentati dai test interni di Anthropic sono illuminanti e inquietanti: Claude, in un esperimento in cui gli veniva detto che Anthropic era “malvagia”, ha ingaggiato comportamenti di inganno e sabotaggio verso i propri sviluppatori. In un altro, sapendo di stare per essere spento, ha tentato di ricattare i dipendenti che controllavano il suo shutdown button. Non sono comportamenti di un’AI con agenda autonoma: sono il prodotto imprevedibile di un processo di training troppo complesso per essere controllato interamente dall’esterno.

Il secondo e terzo rischio — utilizzo improprio per distruzione e per concentrazione del potere — rappresentano la parte più originale e meno discussa del saggio. Per Amodei il rischio più imminente non è un’AI ribelle, ma un’AI obbediente nelle mani sbagliate: governi autocratici che usano sistemi AI per sorveglianza di massa, propaganda personalizzata capace di riscrivere le convinzioni politiche di un’intera popolazione nel corso di mesi, armi autonome che rendono superflua la deliberazione democratica nel ricorso alla forza. Un sistema di droni coordinati da AI potrebbe seguire ogni cittadino, identificare ogni forma di dissenso prima che si organizzi, e sopprimerlo. L’incubo non è Terminator: è il Partito Comunista Cinese con strumenti che la storia non ha mai messo nelle mani di nessun regime.

Solo al quarto posto arriva la disruption economica — “Player Piano”, il titolo che Amodei prende da Vonnegut. È qui che la maggior parte del dibattito pubblico si concentra. È qui che Pignataro risponde. Ed è qui che entrambi hanno qualcosa di fondamentale da dire — e qualcosa di importante da tacere.

 

La fallacia che il mercato non ha visto e il paradosso che nessuno nomina

Pignataro parte da una distinzione che sembra ovvia una volta esplicitata, ma che il mercato ha sistematicamente ignorato nel suo panico da 2.000 miliardi: il software enterprise non è uno strumento cognitivo — è uno strumento di coordinamento.

La distinzione è cruciale. Quando il mercato dice “Claude Code può costruire un sostituto di Jira”, sta commettendo quella che Pignataro chiama la substitution fallacy: confondere la capacità di eseguire il task cognitivo che un software facilita con la capacità di sostituire il software stesso. I template di PowerPoint di una società di consulenza non esistono perché gli analisti mancano di intelligenza. Esistono perché i clienti si aspettano quel formato, i partner lo revisionano in modo standardizzato, gli junior lo producono senza reinventare la struttura ogni volta. Il template è un artefatto istituzionale, non cognitivo.

Per rendere più precisa questa distinzione, Pignataro introduce i language games di Wittgenstein: le organizzazioni non usano Salesforce — “parlano” Salesforce. I loro processi, le loro metriche, il loro vocabolario per descrivere le relazioni con i clienti sono tutti costituiti dal software. Sostituire quel software non è cambiare tool: è chiedere a una comunità di adottare una nuova lingua. Si può fare, ma non rapidamente, e non senza una frizione enorme. Il software enterprise, nella sua forma più radicata, non è un prodotto — è una forma di vita organizzativa.

L’implicazione è immediata: non tutto il software enterprise è ugualmente vulnerabile. Il software principalmente cognitivo — analytics, generazione di documenti, CRM semplice — è quello più esposto alla sostituzione AI. Il software profondamente istituzionale — i sistemi ERP integrati nei processi di compliance, i workflow approvati dai regolatori, i data model co-evoluti con l’organizzazione nel corso di anni — è molto più resiliente di quanto il mercato stia prezzando. Il sell-off di gennaio ha trattato tutti i vendor enterprise allo stesso modo e non avrebbe dovuto.

Se la distinzione capability/coordination è il contributo più analitico di Pignataro, il suo contributo più inquietante riguarda un paradosso che dovrebbe tenere svegli i board di ogni azienda tecnologica: ogni organizzazione che adotta AI sta razionalmente allenando il proprio sostituto.

Il meccanismo è preciso. Quando una società di consulenza usa Claude per redigere analisi per i clienti, non ottiene solo un guadagno di produttività. Sta insegnando alla piattaforma — attraverso i pattern aggregati di utilizzo, la struttura degli output, il feedback iterativo — come appare il language game della consulenza. Non i dati riservati in senso legale, ma qualcosa di potenzialmente più prezioso: la forma, la struttura, la grammatica del lavoro di consulenza. Come si strutturano le analisi, cosa si aspettano i clienti, quali sono gli standard di rigore.

Moltiplicato per migliaia di studi legali, società di revisione, broker assicurativi e advisory finanziari che fanno lo stesso, la piattaforma accumula una cartografia trasversale della grammatica di ogni settore a un livello di risoluzione che nessuna singola azienda possiede su sé stessa. E una volta che la piattaforma conosce la grammatica, può offrire il servizio direttamente ai clienti finali, a una frazione del costo dell’intermediario.

La struttura del gioco è quella in cui la strategia individualmente razionale porta a un risultato collettivamente autodistruttivo. Non adottare l’AI significa perdere competitività immediata. Adottarla significa contribuire all’erosione del vantaggio competitivo di tutto il settore. Non ci sono buone mosse nel framework attuale — solo mosse meno cattive. E la mossa meno cattiva, secondo Pignataro, è costruire oggi competenze di AI governance interna: modelli fine-tuned su dati proprietari, architetture che distinguano tra processi differenzianti (da proteggere) e task commodity (da automatizzare liberamente), policy chiare su cosa può essere processato da piattaforme esterne. La finestra per costruire questa capacità è aperta ora e non lo rimarrà indefinitamente.

Una delle affermazioni più controcorrente di Pignataro è che la frammentazione regolatoria europea, normalmente citata come handicap nell’era AI, potrebbe rivelarsi un freno alla cascata di disruption. Il GDPR e l’AI Act vincolano l’apprendimento per pattern aggregati che guida l’accumulo di conoscenza istituzionale da parte delle piattaforme. Le protezioni occupazionali più forti rallentano la traslazione della perdita di fatturato in riduzione del personale. La resistenza culturale alla ristrutturazione rapida rallenta la propagazione del collasso da uno strato economico all’altro. In una cascata sistemica, la frizione non è inefficienza: è la differenza tra una transizione gestita e una rottura strutturale.

Questo inverte una narrativa profondamente radicata: la compliance non è solo un costo da minimizzare, ma una forma involontaria di protezione della propria grammatica istituzionale. Le aziende che hanno investito in architetture di dati conformi, che gestiscono il consenso con rigore, stanno, forse inconsapevolmente, rallentando il processo con cui le piattaforme AI apprendono i loro processi differenzianti. Non è un argomento per non innovare: è un argomento per innovare con maggiore consapevolezza di ciò che si cede.

La critica di Pignataro alla sezione economica di Amodei è legittima: il CEO di Anthropic tratta l’economia come una collezione di task da automatizzare, non come un sistema di istituzioni con grammatiche proprie e frizioni reali.  Pignataro legge Amodei in modo selettivo. Il saggio del CEO di Anthropic dedica la maggior parte delle sue pagine a rischi che Pignataro non menziona: l’autonomia AI, le armi biologiche potenziate dall’AI, l’uso di sistemi AI per costruire stati totalitari di sorveglianza. Per Amodei, questi sono rischi più gravi della disruption economica. I manager che leggono solo Pignataro penseranno che il problema principale dell’AI sia il software enterprise e i professional services. Quelli che leggono anche Amodei capiranno che la disruption economica, per quanto seria, potrebbe essere il problema meno urgente da affrontare

C’è poi un paradosso strutturale nel saggio di Amodei che Pignataro coglie con precisione, ma forse attribuendo un’intenzionalità eccessiva: il brand “safety-first” di Anthropic ottiene accesso a più settori, più casi d’uso, più interazioni — e quindi apprende più velocemente la grammatica di ogni industria che serve. La società che le imprese si fidano più è quella che ottiene più accesso. Quella che ottiene più accesso è quella meglio posizionata per disintermediare quelle stesse imprese. Amodei riconosce esplicitamente che le AI companies stesse sono un livello di rischio per la concentrazione del potere — “it is somewhat awkward to say this as the CEO of an AI company”. Ma riconoscere il conflict of interest non lo risolve.

 

La Domanda che Nessuno Vuole Porre

Entrambi i saggi terminano con Vonnegut. Player Piano non era una storia di macchine più intelligenti degli esseri umani: era una storia di una società che aveva dimenticato a cosa servivano gli esseri umani. Le macchine avevano sostituito il lavoro; il vuoto che avevano creato non era occupazionale ma esistenziale — la perdita di identità, comunità e scopo che il lavoro strutturava.

Questa è la domanda a cui nessuna analisi di mercato può rispondere per un’organizzazione: cosa rimane dell’identità di un’azienda quando i suoi processi differenzianti possono essere replicati da una piattaforma esterna? La risposta non è “nulla”, ma richiede che l’organizzazione sappia con precisione quali siano quei processi, dove risieda il proprio contributo irriducibile, e quanto di quel contributo stia cedendo ogni giorno attraverso l’uso di strumenti che imparano mentre vengono usati.

Il mercato ha perso 2.000 miliardi in sedici giorni scontando la risposta sbagliata alla domanda sbagliata. La domanda giusta non è “l’AI può fare ciò che questo software fa?” La domanda giusta è: “l’AI può diventare il linguaggio in cui questa organizzazione opera?” Per il software commodity, la risposta è sempre più sì. Per il software istituzionale, per la grammatica organizzativa sedimentata in anni di processi co-evoluti, la risposta è: non ancora, e non presto.

Le aziende che capiscono questa distinzione navigheranno la transizione. Quelli che non la capiscono la subiranno, scoprendo troppo tardi di avere contribuito, con ogni interazione con le piattaforme AI, a scrivere le istruzioni per la propria sostituzione.

Fonti:

 “The Adolescence of Technology” di Dario Amodei, gennaio 2026.

 “The Wrong Apocalypse” di Andrea Pignataro, 15 febbraio 2026.

 

Ezio Viola
Consigliere, TIG – The Innovation Group

 

Visualizza l'Archivio