In un mondo frammentato, dove le grandi narrazioni hanno lasciato il posto a molteplici prospettive e contesti in continua trasformazione, le aspettative non sono più previsioni ma proprietà emergenti. Sono elementi di realtà che nascono dall’osservazione di pattern, dall’incrocio di segnali, dalla convergenza di pratiche apparentemente distanti. Le abbiamo chiamate aspettative extralarge perché trascendono i confini tradizionali – geografici, generazionali, disciplinari – e diventano strumenti per navigare la complessità.
Per il territorio delle intelligenze, questa aspettativa emergente sta assumendo una forma inedita. Non si tratta di affrontare l’intelligenza artificiale come una mente aliena che compete con l’umano, ma una rete di agency – umane e non – che interagiscono tra loro. Questo libro è un invito ad abbandonare la corsa ai benchmark che si inseguono per conquistare il primato della migliore intelligenza artificiale, e radicarsi sui problemi reali che noi – come persone e organizzazioni – possiamo affrontare in maniera ibrida, collaborativa, situata.
Quando nel 1998 Andy Clark e David Chalmers proposero la teoria della mente estesa, stavano in realtà descrivendo qualcosa che gli esseri umani hanno sempre fatto: distribuire la propria intelligenza oltre i confini della scatola cranica. Dal bastone che esplora le profondità di un fiume al post-it sulla scrivania, fino all’utilizzo di Internet. Perché siamo sempre stati cyborg naturali, creature che si estendono nel mondo per aumentare le proprie possibilità.
Ed è qui che l’aspettativa extralarge prende forma: le intelligenze artificiali non replicano l’umano, ma generano qualcosa di inedito. Un esempio è la celebre “mossa 37” con la quale l’AI AlphaGo ha battuto il campione mondiale di Go nel 2016. Un evento interpretato come il definitivo superamento delle capacità umane nel più complesso gioco strategico mai creato. In realtà, se abbandoniamo il terreno della competizione, la “mossa 37” è stata nuova conquista. È una nuova soluzione, parte di una strategia che un essere umano – da solo – non avrebbe mai potuto concepire. Che anzi, secondo i canoni tradizionali, sarebbe stata ritenuta perfino sciocca. E che – grazie al contributo di una AI – ha aumentato il canone delle possibilità nel gioco del Go.
Allontaniamoci dai finti problemi
C’è qualcosa di paradossale nell’epoca delle AI generative. Abbiamo a disposizione strumenti di una potenza illimitata, eppure li usiamo prevalentemente per ottimizzare l’esistente: scrivere email, creare loghi, riassumere documenti. Nulla di sbagliato, ma rischia di lasciarci nell’illusione di aver trasformato il nostro modo di lavorare, mentre in realtà abbiamo solo reso più efficienti micro-attività. Una corsa ai numeri – quanto farà risparmiare? Quanti lavori diventeranno inutili? – che ci distrae da ciò che conta davvero. Se ci limitiamo ad analizzare i bisogni attuali, finiamo inevitabilmente in questa trappola: la tecnologia detta l’agenda, noi inseguiamo applicazioni.
Come uscirne? Con una metodologia controintuitiva: l’anti-problema. Invece di chiederci “come possiamo usare l’AI per aumentare la produttività?”, ribaltare completamente la domanda: “Cosa renderebbe l’AI completamente inutile per il nostro lavoro? Quale sarebbe il peggior modo possibile di integrarla nei nostri processi?”.
Questa inversione è un modo per allontanarci dai finti problemi – quelli generati dalla tecnologia in cerca di applicazioni – e riconnetterci alla realtà. Perché le aspettative extralarge, come abbiamo detto, non sono fantasie sul futuro ma proprietà emergenti del presente. E per vederle, dobbiamo smettere di guardare dove tutti guardano. E allora scopriamo che il peggior modo di usare l’AI non è “usarla poco”, ma usarla male: delegare senza verificare, automatizzare senza capire, produrre senza sostanza. È una questione di aspettative. Cosa ci aspettiamo davvero dalle AI? E cosa le AI, di conseguenza, si aspettano da noi? Significa prendere consapevolezza che le AI sono entrate nel nostro spazio di relazioni.
Intelligenze plurali e spazi agentici
Come nota Gino Roncaglia nel suo contributo, oggi abbiamo a disposizione una pluralità di sistemi con nature e scopi profondamente diversi. Piattaforme multimodali, modelli di deep thinking, sistemi di ricerca avanzata. È una costellazione di intelligenze che operano in modi sempre più complessi e interconnessi.
Ci stiamo avviando verso gli agentic spaces – ambienti in cui le AI concatenano autonomamente task multipli, orchestrano sotto-processi, delegano ad agenti specializzati. Questa molteplicità solleva una domanda abissale: come stanno davvero cambiando le forme di interazione tra umani e AI? L’Anthropic Economic Index, che analizza milioni di conversazioni reali, ci mostra un’evoluzione sorprendente. Tra dicembre 2024 e agosto 2025, le conversazioni “direttive” – dove gli utenti delegano task completi all’AI – sono saltate dal 27% al 39%. È un punto di svolta che ci prepara al futuro: l’automazione ha superato l’augmentation. E cioè le persone non stanno più usando l’AI per esplorare insieme o imparare iterativamente: sempre più spesso, le danno un compito e si aspettano che lo completi autonomamente.
E qui emerge il problema delle aspettative sbagliate. Perché se le AI diventano sempre più capaci, se l’automazione aumenta, se le aziende investono miliardi, allora perché un recente studio del MIT Media Lab ha mostrato che il 95% delle organizzazioni non vede alcun ritorno misurabile dall’investimento in AI? Questi numeri non dicono che l’AI non funzioni, ma che striamo confondendo l’adozione con l’impatto.
Ed ecco che nasce il workslop. Il termine, coniato da ricercatori di Stanford e BetterUp Labs, descrive output generato dall’AI che “si maschera da produttività ma manca di sostanza”. Slide patinate piene di gergo senza contenuto. Report che sembrano professionali ma richiedono ore di lavoro per essere resi utilizzabili.
Questo fenomeno ci dice qualcosa di essenziale sulle aspettative. Le aziende si aspettano che l’AI aumenti la produttività, ma mandano messaggi contraddittori: usatela sempre, fatelo velocemente, delegate tutto. Il risultato? Persone che copiano e incollano output senza verificare, trasferendo il peso cognitivo a valle. Non è colpa dell’AI – è colpa di aspettative mal calibrate. Di metriche sbagliate. Di confusione tra adozione con il valore.
Ecco perché servono “contromisure cognitive” che, forse, diventeranno nuove meta skill da apprendere. Perché l’intelligenza estesa funziona solo se sappiamo quando fidarci, quando dubitare, quando delegare e quando mantenere il controllo. Perché gli agentic spaces possono diventare moltiplicatori di capacità oppure fabbriche di workslop. E la differenza sta in come li abitiamo.
Guardare dove nessuno guarda
C’è un’altra prospettiva che rischiamo di perdere, chiusi nella nostra bolla tecnologica occidentale. Payal Arora, antropologa digitale che studia l’AI nel Sud Globale, ci mostra nel suo articolo cosa succede quando le intelligenze artificiali vengono applicate a problemi reali, con un pragmatismo che l’Occidente ha in parte smarrito.
Questi esempi ci ricordano qualcosa di essenziale: quando l’AI è radicata in contesti specifici, quando affronta sfide tangibili – mobilità, educazione, salute, inclusione – allora diventa davvero intelligenza estesa. Non sostituisce l’umano, ma amplifica la sua capacità di agire nel mondo. Non rincorre metriche astratte, ma misura il proprio valore nella vita delle persone.

Le menti estese richiedono igiene cognitiva estesa
L’aspettativa extralarge per le intelligenze è quindi un’estensione collaborativa del pensiero umano, che ci permette di diventare pienamente ciò che siamo sempre stati: intelligenze situate, capaci di pensare attraverso gli altri e con gli altri.
Ma questa aspettativa – come tutte le proprietà emergenti in contesti frammentati – non si realizza da sola. Richiede un’“igiene cognitiva estesa”: imparare a valutare cosa delegare e cosa mantenere internamente, come formulare domande che massimizzino il valore dell’interazione, quando fidarsi e quando dubitare. Richiede protocolli di interazione consapevoli, come ci insegna Cabitza. Richiede di guardare oltre i nostri confini geografici e cognitivi, come ci invita a fare Arora. Richiede di comprendere la pluralità dei sistemi con cui abbiamo a che fare, come ci spiega Roncaglia.
