The New Big (Data) thing

| October 11, 2013

Nel 1989 un analista di Gartner, Howard Dresner, decise che da quel momento in poi la “business intelligence” avrebbe racchiuso tutti quei concetti e metodi per prendere decisioni sulla base di dati. Dresner immaginava non solo una nuova famiglia di software per le aziende, ma una metodologia avanzata per trattare le informazioni e trasformarle in conoscenza. Erano gli anni Novanta, le imprese sarebbero dovute diventare astronavi spaziali, i manager piloti al comando del business e i computer dei cruscotti di navigazione per monitorare le performance aziendali. Le parole d’ordine allora erano real time, data mining e controllo di gestione. La sfida: riorganizzare i processi, recuperare gli indicatori di funzionamento e fornire una rappresentazione che fosse utile e comprensibile ai decision maker.

Questi software convinsero alcune multinazionali e i grandi gruppi bancari, ma si rivelarono strumenti piuttosto complessi per gran parte del mercato. Ebbero però il merito di lavorare a fondo sui database, sulla visualizzazione e sull’archivio delle informazioni dati. Gettarono insomma le basi tecnologiche del processo di apertura dei database che ha preso piede nel 2009 quando Tim Berners Lee, uno dei padri del Web, suggerì la libera circolazione dei dati sul web. In quell’anno politica e tecnologia ebbero la stessa visione. L’accesso ai database ha stimolato lo sviluppo di applicazioni in grado di portare benefici tangibili alla collettività, servizi di nuova generazione per il pubblico, nuove opportunità di business per il settore privato e una promessa di risparmi per la macchina statale. Tuttavia, l’informazione non ha avuto il tempo di apprezzare le potenzialità del dato.

L’information overload nell’ultimo decennio è stata la cifra della crisi industria editoriale e il sintomo di un diverso paradigma di apprendimento. Per dirla in altro modo il sapere si è digitalizzato troppo velocemente prendendo in contropiede i mezzi di produzione. Nel 2000 il 25% delle informazioni registrate nel mondo era in bit: il 75% era analogico, su carta, pellicola, plastica magnetizzata, e così via. Nel 2013 il 98% delle informazioni registrate nel mondo è in formato digitale: i vari supporti analogici, dalla carta alla plastica, si dividono il restante 2 per cento. Mentre le aziende intuivano le potenzialità di business dei database, l’industria culturale è rimasta in trincea a combattere una battaglia di retroguardia contro il fluire anarchico delle notizie.

Doveva essere l’apocalisse, o almeno così è stata raccontata. Poi è arrivato Dremel. Dremel è il titolo di un paper scientifico di Google uscito nel 2010. Chi volesse sfogliarlo lo trova in rete (http://tinyurl.com/c8wdacz) ma non è una lettura rilassante (almeno non per tutti): spiega come compiere ricerche su milioni di gigabytes di informazioni in frazioni di secondo.

Quello studio è stato letto e analizzato da molti se non tutti i computer scientist, informatici e esperti che oggi lavorano o guidano startup attive nell’estrazione di significato e di business dai dati. Big Data deve tutto a Dremel se oggi è considerata a ragione la new big thing. Per una piccola impresa significa poter porre domande al proprio business che in passato sarebbero costate troppo. Il vantaggio nel poter interrogare più volte al giorno un mercato che cambia in tempo reale, minuto dopo minuto è stato quantificato da Gartner in una frontiera capace di stimolare una spesa mondiale di 34 miliardi di dollari. Un altro big number che ha contribuito a dare ordine e un profilo di business al caos di internet.

Paradossalmente l’inizio dell’era del big data ha coinciso con la fine dell’information overload. Ha dato speranza a una industria in cerca di ordine. Ha suggerito che il caos di dati e database può essere interpretato, possiede una matrice nascosta che può generare valore.

Prima dei big data c’era solo la disruption digitale che ha segnato un salto quantico per i vecchi media abituati da sempre a misurare la dimensione della conoscenza, a decidere le gerarchie delle notizie in base ai limiti di spazio (carta) e tempo (radio e tv) intrinsechi dei rispettivi supporti. La crisi degli editori è stata raccontata anche come una conseguenza dell’overload informativo. Il sovraccarico cognitivo è stato indicato come il sintomo di un male legato al cattivo giornalismo. Oggi è oramai chiaro che le notizie sono commodity. I giornali non sono più chiamati solo a trovarle. Quello che devono fare è organizzarle in una gerarchia che consenta di avere un’idea delle cause dei fatti e delle loro conseguenze. Una chiave per unire i puntini e mettere in ordine i fatti è il dato. Sull’informazione “numerica” convergono gli studi di business intelligence, i big data e le avanguardie del giornalismo. Il data journalism, (giornalismo basato sui dati) è un approccio che incrocia ricerca e inchiesta giornalistica. Richiede un uso intensivo di database, mappe digitali e software per analizzare, raccontare e visualizzare un fenomeno o una notizia, spesso producendo dei mashup di elementi diversi. Negli ultimi anni il data journalism ha già prodotto diversi premi Pulitzer e sta facendo emergere nuove figure di giornalisti-programmatori. Il primo esempio che ha ricevuto un riconoscimento ufficiale è stata l’inchiesta Dollar for Docs (http://www.propublica.org/topic/dollars-for-doctors/)  realizzata dalla fondazione ProPublica (http://www.propublica.org/)  nella quale il software ha contestualizzato e localizzato geograficamente dove lavorano oltre 7 mila medici che, negli Usa, hanno accettato compensi dalle aziende farmaceutiche. Il risultato è una inchiesta che viene “navigata” dall’utente. L’articolo è una storia che permette di trovare altre storie.

L’intersezione tra visualizzazione dei dati (la traduzione interattiva delle infografiche) e analisi statistica dei database sta stimolando la produzione di software in grado di raccontare notizie fornendo nuove chiavi di interpretazione. L’apertura dei database (open data) della pubblica amministrazione da un lato, lo sviluppo di programmi per la visualizzazione delle informazioni e la capacità artigianale dei giornalisti di leggere i numeri e unire i fatti stanno fornendo al giornalismo un playground creativo per sperimentare nuovi format informativi. Le inchieste interattive racconteranno storie.

La frontiera è il gioco. Oltre il data journalism si intravedono i newsgame. Videogiochi intesi come sistemi di regole per simulare il funzionamento di un ecosistema, le logiche di un conflitto, le conseguenze di una crisi economica. L’ortodossia della parola scritta diventa un di cui di un nuovo tipo di fruizione della storia. Il concetto chiave è simulazione. Produrre un articolo richiede di intrecciare una complessa rete di informazioni che provengono da fonti differenti. Le buone notizie non si limitano a descrivere un evento ma cercano di spiegare il contesto. Disegnare un buon gioco richiede questo tipo di pensiero. La programmazione è lo studio delle regole. Scrivere un codice o un gioco significa costruire attraverso l’interazione un sistema di regole che interpretano un evento.
Questi format interattivi però non sono privi di insidie. Il gioco a differenza di un articolo offre un’esperienza immersiva che agisce sulla nostra sfera emotiva senza filtri, come, e a volte con più efficacia rispetto alla parola scritta. Il paragone con la scrittura e quindi con la stampa è corretto ma solo in parte. Così come un giornalista sceglie le sue fonti sulla base dei suo giudizi così un programmatore di Newsgames deve fare i conti con il rischio di costruire un gioco su basi ideologiche. C’è sempre una differenza tra il mondo reale e il sistema costruito per rappresentarlo. Esattamente come esistono articoli più o meno obiettivi così si possono costruire vari tipi di games. Il futuro dell’informazione non sarà giornalismo visuale e newgame. Sarà anche giornalismo visuale e newgame.

Tags: , , , , ,