Interagire con l’AI per (ri)scoprire il piacere dell’incompletezza

Con le AI generative la relazione cambia: da strumento a interlocutore. Cinque protocolli di interazione – esplorativo, verificativo, delegativo, interrogativo e dialogico – aiutano a rendere esplicite pratiche e responsabilità. In azienda servono trasparenza, cultura condivisa e leadership generativa.

Come può cambiare il modo in cui interagiamo con le macchine digitali, dopo la diffusione dei sistemi di intelligenza artificiale generativa? Lo abbiamo chiesto a Federico Cabitza,  professore associato di interazione uomo-macchina e supporto decisionale all’Università di Milano-Bicocca, che sull’argomento nel 2021 ha pubblicato un libro (con Luciano Floridi, Intelligenza artificiale, l’uso delle nuove macchine per i tipi di Bompiani) e molti lavori scientifici  (ad oggi più di 200) che lo hanno collocato stabilmente nel miglior 2% mondiale degli scienziati di Intelligenza Artificiale secondo l’elenco pubblicato annualmente da Stanford. Pubblichiamo di seguito l’intervista integrale che abbiamo svolto con lui.

Lei si definisce un interazionista, una figura che si occupa di come agentività AI e umani stabiliscono una relazione tra loro. È un cambiamento di prospettiva interessante, perché pensiamo che la narrativa mainstream sulle AI generative si stia concentrando troppo sui “risultati” e sui benchmark e meno sui nuovi legami che possono nascere con questo nuovo collega. A questo proposito quali sono alcune relazioni uomo-ai positive che sta osservando?

Mi definisco interazionista perché non penso che il vero elemento di discontinuità rappresentato dalle tecnologie dell’intelligenza artificiale generativa riguardi la sua capacità, che pure è straordinaria, di generare testi, immagini o decisioni più o meno accurate. Quello che sta cambiando, e che mi interessa osservare, è la natura della relazione che si costruisce tra l’umano e la macchina, anzi per essere più specifici, tra le persone e i sistemi digitali intelligenti. Lavoriamo con qualcosa che non si limita più a eseguire, ma che sembra “capirci”, almeno ad un certo livello superficiale, e reagisce non solo alle nostre domande, ma anche ad atteggiamenti e direi perfino intenzioni.

Alcune delle interazioni più promettenti che ho osservato avvengono quando l’AI non è vissuta come strumento, ma come interlocutore. Un medico che chiede a un sistema: “perché hai proposto questa diagnosi?”, o un insegnante che esplora insieme all’AI modi diversi di spiegare un concetto a studenti con caratteristiche differenti. In quei momenti non c’è solo uso, ma piuttosto dialettica, e quindi confronto e un certo qual mutuo allineamento e apprendimento.

Questo approccio ricorda molto il lavoro di Clifford Nass e Byron Reeves negli anni ’90, che già allora dimostravano che tendiamo a trattare i computer come se fossero persone, attribuendo intenzioni, stati mentali, e perfino emozioni. Oggi, con le AI generative, questa dinamica si intensifica. Non è solo un errore cognitivo: può diventare un’opportunità per costruire relazioni nuove, magari più riflessive e persino più umane.

Un altro elemento interessante riguarda il fatto che non esiste una sola strategia quando si parla di “affidamento” alle AI. È l’adattamento al contesto a essere fondamentale. A questo proposito, lei ha sviluppo cinque protocolli di interazione…

Sì, io traduco reliance come affidamento; e affidarsi alla IA non è un gesto univoco. Non esiste una sola strategia giusta, ma diverse forme di confronto e interazione che possiamo attivare, a seconda del compito, del contesto e dello stato mentale in cui ci troviamo.

Io ne ho identificati almeno cinque, che chiamo “protocolli di interazione”. C’è quello esplorativo: quando uso l’AI per generare idee, stimoli, alternative. È una forma di ideazione distribuita, utile quando il problema non è ben definito.

Poi quello verificativo: qui il ruolo dell’AI è più simile a quello di un revisore un collega più esperto, una specie di mentore. Le chiedo conferme, contro-esempi, o di mettere in discussione le mie ipotesi.

Quello delegativo è quando mi affido all’AI per un compito ripetitivo o tecnico, lasciandole esecuzione e dettaglio, ma mantenendo il controllo sulla qualità dell’output, su cui rispondiamo comunque noi.

Poi quello interrogativo: l’AI diventa oggetto di domanda, non solo di risposta. Chiedo spiegazioni, ragionamenti, alternative, stimoli di riflessione.

E infine quello dialogico, che è il più sofisticato. Umano e AI procedono insieme, ciascuno contribuendo a orientare la direzione. È più simile a un’interazione tra colleghi, in cui si cresce insieme.

In fondo, questa varietà di posture richiama le riflessioni di Thomas Malone sul futuro del lavoro ibrido. Nel suo MIT Center for Collective Intelligence ha esplorato come gruppi formati da umani e AI possano collaborare in modi nuovi, dove non è solo la competenza a contare, ma anche il modo in cui ci si coordina, si negozia e si co-evolve.

Lei sostiene che può essere demotivante osservare un’AI che diventa “più brava di noi”. È un punto particolarmente urgente perché molti istituti di ricerca sostengono che l’engagement sui luoghi di lavoro è già molto basso. Quindi in che modo questa interazione umano-AI può essere, coinvolgente e perfino divertente?

Uno dei rischi più grandi che vedo – e che mi preoccupa – è che il confronto con un’AI “più brava” possa generare frustrazione o rinuncia. Per questo contrasto con tutte le mie forze quella narrazione che vuole sempre confrontarci alle macchine e che le mette volutamente in competizione con noi, in ogni campo. Da questi confronti, spesso artificiosi, ne usciamo spesso male. E quindi, se una macchina scrive meglio, decide più in fretta, ricorda tutto… cosa mi resta da fare? C’è veramente bisogno di me?

Ma non è affatto detto che debba andare così. In molti contesti, sto osservando il contrario: l’AI può riattivare la motivazione. Quando viene usata per arricchire il proprio punto di vista, generare spunti, o sfidare le proprie abitudini cognitive, può diventare uno strumento di crescita personale, per farci diventare un po’ più simili ai migliori della nostra piccola comunità di riferimento o a chi ammiriamo nel nostro team di lavoro.

E poi c’è una dimensione di gioco che non va sottovalutata. Molte persone mi raccontano che “chiacchierare” con l’AI stimola creatività, curiosità, persino senso di stupore. Questo è qualcosa che Nass e Reeves avevano già intuito nel loro libro The Media Equation: se le tecnologie si comportano in modo socialmente credibile, possiamo instaurare con esse interazioni coinvolgenti, anche emotivamente. E oggi, con i modelli generativi, questa teoria si fa esperienza quotidiana.

Lei sostiene che tra AI e umani ci debba essere collaborazione. Però noi vediamo che le AI generative sono ancora progrettate per l’utilizzo individuale (modellati sulle suite di produttività). Pensa ci sia un modo per aumentare anche la collaborazione umani-umani oltre che uomo-macchina?

Un paradosso interessante è che le AI generative, nate per potenziare l’individuo, potrebbero diventare grandi abilitatrici della collaborazione.

Oggi le usiamo in modo prevalentemente solitario, all’interno di suite di produttività personale. Ma non è detto che debba restare così. L’AI può aiutarci a capire meglio le opinioni di un collega, a sintetizzare i punti di vista in un team, a facilitare il coordinamento tra reparti diversi, a moderare e riassumere una riunione o quanto avviene ad un tavolo di lavoro.

Penso che uno degli sviluppi più fertili sia proprio qui: usare le AI come mediatori cognitivi, come strumenti per negoziare meglio i significati tra esseri umani. In fondo, ogni buon traduttore, facilitatore o coach fa questo: aiuta le persone a capirsi. E a mio parere c’è un potenziale largamente inesplorato nell’uso di macchine progettate specificatamente per queste funzioni.

Apprendere al mio ritmo, anzi, AI mio ritmo!

Logotel insight di Daniele Cerra – Partner Chief Innovation Officer

La community è il contesto più flessibile e dinamico per accompagnare lo sviluppo del potenziale di ogni professionista. Dal punto di vista dell’apprendimento, il nostro cervello si dimostra particolarmente ricettivo quando ciò che stiamo imparando risponde a una specifica esigenza immediata. L’AI, tramite classici chatbot opportunamente rimodellati come coach e tutor, consente di rendere accessibile contenuti e offre interazioni “mani in pasta” personalizzate e contestualizzate in grado di rispondere alle più diverse esigenze e modelli di apprendimento dei singoli membri.

Non era una bacheca. Era un dojo. E lì dentro la tecnologia ha imparato a parlare con le persone

Logotel insight di Matteo Ordanini – Senior Learning Designer

Abbiamo creato un Dojo per l’adoption di Microsoft Copilot: non una piattaforma tecnologica, ma uno spazio digitale dove allenarsi, scambiarsi idee, meditare. Qui, anche chi aveva meno competenze tech ha attinto dall’energia della community per sviluppare agenti capaci di misurare l’impatto delle iniziative DEI e ridurre i costi vivi del procurement. Altri, professionisti più schivi per indole, sono emersi con sorpresa dei loro manager come talenti e innovatori. La community non era un contenitore. Era un organismo vivo. E noi? Abbiamo portato contenuti, acceso scintille, visto l’impatto. Non era solo tecnologia. Era trasformazione.

L’introduzione delle AI generative nelle organizzazioni dipende anche molto dalla leadership, e cioè le persone che prendono e condividono decisioni. Da questo punto di vista quali cambiamenti auspica nel mondo della leadership?

L’espressione giardini segreti è molto evocativa: mi ricorda quella che Ethan Mollick usa per un fenomeno molto simile: silent cyborg, il cyborg che si nasconde e non ama mostrarsi. L’introduzione dell’AI in azienda è principalmente una questione di governance, non solo di adozione tecnologica, e la governance si declina nelle diverse modalità in cui si esprime la leadership, cioè proprio le strategie che ciascun capo, dirigente o responsabile mette in campo per esprimere capacità di guida e gestione.

Oggi vediamo un fenomeno curioso ma preoccupante, soprattutto per il rischio connesso di compliance e cyber-sicurezza: molti professionisti usano l’AI quotidianamente, ma lo fanno “in segreto”, al di fuori delle policy ufficiali. Questi “giardini segreti” sono sintomo di una mancanza di fiducia o di spazi sicuri dove sia possibile, anzi apprezzato e promosso, sperimentare.

Serve una leadership capace di riconoscere che l’uso dell’AI è già in atto, che non si può controllare solo con divieti o linee guida più o meno rigide. È necessario creare cultura, offrire strumenti, accettare che la sperimentazione – se condivisa – è anche un’occasione di apprendimento organizzativo.

Una leadership generativa dovrebbe incoraggiare la trasparenza, il confronto, l’uso consapevole dell’AI come leva per la collaborazione e non solo per l’efficienza individuale.

Quali sono le sue ragioni di ottimismo riguardo l’evoluzione delle AI generative?

Credo profondamente che abbiamo bisogno di un “ottimismo urgente”, come dice il tema di questo numero di Weconomy. Non ottimismo ingenuo, ma lucido, consapevole, anche critico e riflessivo.

Questo atteggiamento può radicarsi in una constatazione: l’AI generativa ci costringe a ripensare cosa significa essere intelligenti, creativi, competenti. E questa è una grande occasione.

Stiamo scoprendo – o meglio riscoprendo – il valore del giudizio, della spiegazione, della responsabilità. Ma anche la bellezza dell’incompletezza, dell’ambiguità, della negoziazione tra punti di vista.

Se sapremo progettare le AI non solo per “fare meglio”, ma per pensare meglio insieme, allora forse potremo dire che questa tecnologia non ci ha sostituiti, ma ci ha trasformati. E ci ha messi, di nuovo, in relazione.

Magazine

XL Expectations. Percorsi di valore in un mondo frammentato
Issue 17

XL Expectations. Percorsi di valore in un mondo frammentato

Weconomy 17 non è un viaggio lineare: è un ecosistema di connessioni. Attraverso cinque territori – demografie, organizzazioni, estetiche, intelligenze e misurazioni – raccogliamo frammenti, prospettive e pratiche per estrarre aspettative XXL e trasformarle in micro-esperimenti, legami di senso e nuove metriche di cambiamento.

Autore

Federico Cabitza

Federico Cabitza

Professore associato di Interazione uomo-macchina e supporto decisionale, Università degli Studi di Milano-Bicocca