Intelligenze estese al servizio di problemi reali

In un mondo frammentato le aspettative extralarge emergono da segnali e pratiche. Per le intelligenze significa uscire dalla corsa ai benchmark e radicarsi sui problemi reali, agency umane e non. Anti-problema e igiene cognitiva estesa aiutano a evitare workslop negli spazi agentici.

In un mondo frammentato, dove le grandi narrazioni hanno lasciato il posto a prospettive scomposte e contesti frammentati, le aspettative non sono più previsioni. Sono proprietà emergenti: elementi di realtà che nascono dall’osservazione di pattern, dall’incrocio di segnali, dalla convergenza di pratiche oppositive e distanti. Le abbiamo chiamate aspettative extralarge perché trascendono i confini tradizionali – geografici, generazionali, disciplinari – e si ipostatizzano in strumenti per navigare la complessità. Per il territorio delle intelligenze, questa aspettativa emergente è sicuramente la più problematica. Perché, al momento, non c’è tema più inflazionato dell’intelligenza artificiale. E quindi, non vogliamo affrontare l’intelligenza artificiale come una mente aliena che compete con l’umano, ma una rete di agency – umane e non – che interagiscono tra loro. Questo booklet è un invito ad abbandonare la corsa ai benchmark che si inseguono per conquistare il primato della migliore intelligenza artificiale, e artigliarci ai problemi reali che noi – come persone e organizzazioni – possiamo affrontare in maniera ibrida, collaborativa, situata. “Build your own benchmark”, sostiene Ethan Mollick, uno dei più stimati (e concreti) esperti delle AI Generative applicate alle organizzazioni. Ma facciamo un passo indietro. Quando nel 1998 Andy Clark e David Chalmers proposero la teoria della mente estesa, stavano in realtà descrivendo qualcosa che gli esseri umani hanno sempre fatto: distribuire la propria intelligenza oltre i confini della scatola cranica. Dal bastone che esplora le profondità di un fiume al post-it sulla scrivania, fino all’utilizzo di Internet. Perché siamo sempre stati cyborg naturali, creature che si estendono nel mondo per aumentare le proprie possibilità. Ed è qui che l’aspettativa extralarge prende forma: le intelligenze artificiali non replicano l’umano, ma generano qualcosa di inedito. Un esempio è la celebre “mossa 37” con la quale l’AI AlphaGo ha battuto Lee Sedol, campione mondiale di Go, nel 2016. Un evento interpretato come il definitivo superamento delle capacità umane nel più complesso gioco strategico mai creato. In realtà, se abbandoniamo il terreno della competizione, la “mossa 37” è stata nuova conquista. Una soluzione inedita, che un essere umano – da solo – non avrebbe mai potuto concepire. Che anzi, secondo i canoni tradizionali, sarebbe stata ritenuta perfino sciocca. E che – grazie al contributo di una AI – ha aumentato il canone delle possibilità nel gioco del Go.

Allontaniamoci dai finti problemi

C’è qualcosa di paradossale nell’epoca delle AI generative. Abbiamo a disposizione strumenti di una potenza illimitata, eppure li usiamo soprattutto per ottimizzare l’esistente: scrivere email, creare loghi, riassumere documenti. Nulla di sbagliato, ma rischiamo di illuderci di aver trasformato il nostro modo di lavorare, mentre abbiamo solo reso più efficienti microattività: bullshit jobs, direbbe l’antropologo anarchico David Graeber. Una corsa ai numeri che ci distrae da ciò che conta davvero. Se ci limitiamo ad analizzare i bisogni attuali, finiamo inevitabilmente in questa trappola: la tecnologia detta l’agenda, noi inseguiamo applicazioni. Come uscirne? Con una metodologia controintuitiva: l’anti-problema. Invece di chiederci “come possiamo usare l’AI per aumentare la produttività?”, ribaltare completamente la domanda: “Cosa renderebbe l’AI completamente inutile per il nostro lavoro? Quale sarebbe il peggior modo possibile di integrarla nei nostri processi?”. Questa inversione ci porta a pensare che, forse, sono i processi da mettere in discussione, e non generare altri finti problemi – come quelli creati da una tecnologia in cerca di applicazioni. Perché le aspettative extralarge, come abbiamo detto, non sono fantasie sul futuro, ma proprietà emergenti del presente. E per vederle, dobbiamo smettere di guardare dove tutti guardano. E allora scopriamo che il peggior modo di usare l’AI non è “usarla poco”, ma usarla male: delegare senza verificare, automatizzare senza capire, produrre senza sostanza. È una questione di aspettative. Cosa ci aspettiamo davvero dalle AI? E cosa le AI, di conseguenza, si aspettano da noi? Significa prendere consapevolezza che le AI sono entrate nel nostro spazio di relazioni.

Intelligenze plurali e spazi agentici

Come nota Gino Roncaglia nel suo contributo, oggi abbiamo a disposizione una pluralità di sistemi con nature e scopi profondamente diversi. Piattaforme multimodali, modelli di deep thinking, sistemi di ricerca avanzata. È una costellazione di intelligenze che operano in modi sempre più complessi e interconnessi. Ci stiamo avviando verso gli agentic spaces – ambienti in cui le AI concatenano autonomamente task multipli, orchestrano sotto-processi, delegano a sottoagenti specializzati. Questa molteplicità solleva una domanda abissale: come stanno davvero cambiando le forme di interazione tra umani e AI? L’Anthropic Economic Index, che analizza milioni di conversazioni con l’AI Claude, ci mostra un’evoluzione sorprendente. Tra dicembre 2024 e agosto 2025, le conversazioni “direttive” – dove gli utenti delegano task completi all’AI – sono saltate dal 27% al 39%. È un punto di svolta che ci prepara al futuro: l’automazione ha superato la fantomatica augmentation. E cioè le persone non stanno più usando l’AI per esplorare insieme o imparare iterativamente: sempre più spesso, le danno un compito e si aspettano che sia completato in modo autonomo. E qui emerge il problema delle aspettative sbagliate. Perché se le AI diventano sempre più capaci, se l’automazione aumenta, se le aziende investono miliardi, allora perché un recente studio del MIT Media Lab ha mostrato che il 95% delle organizzazioni non vede alcun ritorno misurabile dall’investimento in AI? Questi numeri non dicono che l’AI non funzioni, ma che stiamo confondendo l’adozione con l’impatto. Ed ecco che nasce il workslop. Il termine, coniato da ricercatori di Stanford e BetterUp Labs, descrive output generato dall’AI che “si maschera da produttività ma manca di sostanza”. Slide patinate piene di gergo senza contenuto. Report che sembrano professionali ma richiedono ore di lavoro per essere resi utilizzabili. Questo fenomeno ci dice qualcosa di essenziale. Le aziende si aspettano che l’AI aumenti la produttività, ma mandano messaggi contraddittori: usatela sempre, fatelo velocemente, delegate tutto. Il risultato? Persone che copiano e incollano senza verificare, trasferendo il peso cognitivo a valle. Non è colpa dell’AI – è colpa di aspettative mal calibrate. Di metriche sbagliate. Di confusione tra adozione con il valore. Ecco perché servono “contromisure cognitive” che, forse, diventeranno nuove skill di base da apprendere. Perché l’intelligenza estesa funziona solo se sappiamo quando fidarci, quando dubitare, quando delegare e quando mantenere il controllo. Perché gli agentic spaces possono diventare moltiplicatori di capacità oppure fabbriche di workslop. E la differenza sta in come rendiamo le risposte, “incomplete, emendabili. E quindi oneste”, parafrasando la descrizione del metodo scientifico in Scongeliamo i cervelli, non i ghiacciai di Matteo Motterlini.

Guardare dove nessuno guarda

C’è un’altra prospettiva che rischiamo di perdere, chiusi nella nostra bolla tecnologica occidentale. Payal Arora, antropologa digitale che studia l’AI nel Sud Globale, ci mostra nel suo articolo cosa succede quando le intelligenze artificiali vengono applicate a problemi reali, con un pragmatismo che l’Occidente può riconquistare. Questi esempi ci ricordano qualcosa di essenziale: quando l’AI è radicata in contesti specifici, quando affronta sfide tangibili – mobilità, educazione, salute, inclusione – allora diventa intelligenza estesa. Crea continuità tra intelligenze (“cointelligenze”, per citare ancora Ethan Mollick).

Le menti estese richiedono igiene cognitiva estesa

L’aspettativa extralarge per le intelligenze è quindi un’estensione collaborativa del pensiero umano, per diventare ciò che siamo sempre stati: intelligenze situate, capaci di pensare attraverso gli altri e con gli altri. Ma questa aspettativa – come tutte le proprietà emergenti in contesti frammentati – non si realizza da sola. Richiede un’“igiene cognitiva estesa”: imparare a valutare cosa delegare e cosa mantenere internamente, come formulare domande che massimizzino il valore dell’interazione, quando fidarsi e quando dubitare. Richiede protocolli di interazione consapevoli, come ci insegna Cabitza; guardare oltre i nostri confini geografici e cognitivi, come ci invita a fare Arora; e comprendere la pluralità dei sistemi con cui abbiamo a che fare, come ci spiega Roncaglia.

Magazine

XXL Expectations. Percorsi di valore in un mondo frammentato
Issue 17

XXL Expectations. Percorsi di valore in un mondo frammentato

Weconomy 17 non è un viaggio lineare: è un ecosistema di connessioni. Attraverso cinque territori – demografie, organizzazioni, estetiche, intelligenze e misurazioni – raccogliamo frammenti, prospettive e pratiche per estrarre aspettative XXL e trasformarle in micro-esperimenti, legami di senso e nuove metriche di cambiamento.

Autore

Vincenzo Scagliarini

Vincenzo Scagliarini

Giornalista professionista, con formazione umanistica e anima geek. Dal 2018 è editor-in-chief del progetto Weconomy