In collaborazione con


Questo articolo approfondisce i temi del workshop “Science for All – Open data e politiche pubbliche” secondo appuntamento di un ciclo di tre workshop promosso nell’ambito del progetto Science for All, con l’obiettivo di restituire raccomandazioni di intervento prioritarie affinché le conoscenze scientifiche non restino confinate ai luoghi della ricerca, ma che si trasformino operativamente in strumenti al servizio della scienza e del benessere delle persone.

 


Uno sguardo d’insieme


Secondo Patrizio Bianchi, Ministro dell’Istruzione e professore ordinario presso il Dipartimento di Economia e Management dell’Università degli Studi di Ferrara, “i dati possono migliorare la qualità della vita dei cittadini. In virtù di quest’importanza, il tema deve essere affrontato fin dalla scuola. Bisogna coniugare il diritto alla privacy con il diritto di informazione in modo che l’equilibrio di questi due elementi crei le basi per la tutela dei cittadini. Il fine ultime dei dati deve essere l’implementazione di politiche orientate al benessere collettivo”.


Nuove strategie per nuovi dati: le sfide dell’evidence-based policy
Francesca Ieva, Politecnico di Milano

Gli ultimi anni hanno visto l’emergere di due fenomeni rivoluzionari nello studio dei fenomeni sociali e nel design delle politiche di intervento: la rivoluzione nella credibilità nelle scienze sociali tramite l’utilizzo di metodi causali controfattuali, ereditati da procedure sperimentali di laboratorio, e la disponibilità di enormi quantità di dati, accompagnata dal tentativo di utilizzare le evidenze da essi derivanti nell’ambito del design di policy di intervento di precisione. Quest’ultimo processo, in particolare, è qualcosa al tempo stesso di rivoluzionario e di incredibilmente complesso. Come dice Giovannini in “Scegliere il futuro” (2014), “Pensare oggi di ‘conoscere per deliberare’, come suggeriva Luigi Einaudi, solo sulla base di dati che si riferiscono al presente o al passato può rivelarsi un errore grave per l’entità dei problemi che abbiamo davanti. […] Per questo i numeri da soli non sono sufficienti, servono modelli affidabili su cui fare previsioni, per passare dall’accettazione supina dell’incertezza alla gestione consapevole del rischio. […] Da questo punto di vista il nostro Paese è già maturo per incamminarsi verso un censimento continuo, verso un uso consapevole dei Big Data, per arrivare finalmente a trasformare l’informazione in conoscenza”. L’utilizzo dei Big Data nell’ambito del design di policy di intervento di precisione, pertanto, rappresenta un’immensa opportunità per lo sviluppo di metodi innovativi e potenzialmente migliori di quelli usati in passato, ma pone al tempo stesso nuove sfide, tra cui:

  • La necessità di integrare fonti di dati eterogenee di diversa provenienza.
  • La necessità di infrastrutture adeguate ad ospitare grandi quantità di dati.
  • La necessità di sviluppare nuovi metodi per l’analisi dei dati, che siano in grado di sfruttarne il potenziale e gestirne la crescente complessità.
  • La necessità di elevate risorse computazionali per l’applicazione di algoritmi su basi di dati estesi.
  • La necessità di un approccio integrato e interdisciplinare.

 

La rivoluzione nel design di politiche basate sulle evidenze non riguarda pertanto solo i metodi di analisi ma richiede anche un nuovo approccio organizzativo nella ricerca.

Produrre evidenze a partire dai dati, infatti, significa innanzitutto identificare un problema, le domande di ricerca e gli stakeholder di riferimento, quindi raccogliere i dati e generare evidenze mediante la loro modellazione. A seguito di questo, vi è necessità di interpretare criticamente le evidenze ottenute alla luce dei vincoli, degli obiettivi e degli interlocutori, in quanto solo così sarà possibile poi trasferire le evidenze sul piano decisionale. Per quanto sempre più diffuso, quello dell’Evidence-based Decision Making (i.e., l’utilizzo di dati a supporto delle politiche di precisione) non è necessariamente un concetto sempre popolare, né semplice da implementare o da far accettare. Ma soprattutto, al contrario di quanto spesso si pensi è un processo difficilmente automatizzabile.

Le principali criticità nella sua implementazione e diffusione possono essere identificate in una generalizzata mancanza di standardizzazione nelle procedure di raccolta, processo e analisi dei dati, nelle difficoltà legislative o tecniche nell’ottenere dati a grana fine, nella complessità e – di nuovo – non uniformità delle regolamentazioni degli accessi ai dati. A questo, si aggiungono alcune errate convinzioni relative alla data science:

1. I dati sono sufficienti a prendere le decisioni in quanto parlano da soli. Niente di più falso. Specie in un’epoca caratterizzata da quantità sempre crescenti di dati sempre più complessi da trattare, analizzare e sintetizzare, i dati non bastano. La complessità di questi dati necessità di una crescente sofisticazione dei metodi che vi si applicano. Per questo motivo è sempre più importante costruire una cultura generalizzata del dato – a partire da chi lo analizza fino a chi ne riceve i risultati – che consenta il suo utilizzo sistematico per la generazione di evidenze e la costruzione di una mentalità evidence based (così che poi anche le policies lo diventano).

2. Dai dati discendono direttamente le decisioni. Il processo decisionale è estremamente complesso e frutto di un insieme di vincoli per cui le evidenze generate dai dati rappresentano solo una delle componenti da prendere in considerazione. E’ opportuno che questa componente acquisisca sempre più spazio con il passare del tempo, ma non sarà mai possibile che sussista un automatismo tra evidenze e decisioni (Keep humans into the loop!). 3. I dati contengono tutte le risposte.

Nel panorama attuale, i dati sono sempre più spesso raccolti con scopi differenti da quelli per cui poi vengono usati. Inoltre, vengono raccolti da attori differenti, con obiettivi differenti, con metodi e sistemi informativi differenti e sotto differenti regolamentazioni. Pertanto non è scontato che le informazioni in essi contenute siano adeguate/sufficienti per rispondere ai quesiti di chi li sta analizzando. Anche qualora ciò fosse, sarebbe inevitabile, vista la mancanza di un disegno sperimentale, che i risultati possano essere affetti da numerose distorsioni, solo in parte controllabili.

Esplora i temi del workshop

L’educazione al dato


La pandemia ha messo in luce non solo l’importanza dei dati ma anche il loro immenso potere nell’influenzare decisioni, stili di vita, politiche pubbliche e investimenti privati. Allo stesso tempo però si registra un’assenza totale di pedagogia sociale sull’innovazione digitale, in grado di socializzare e mitigare i rischi connessi all’incremento dell’utilizzo dei dati, e dare vita ad una società tecnologica i cui membri abbiano consapevolezza e conoscenza degli impatti sociali oltre che della dimensione politica che riguarda il mondo dei dati. In quest’ottica, la pedagogia digitale investe inevitabilmente anche il sistema d’informazione e le professioni connesse. I giornalisti, ad esempio, che rivestono un ruolo chiave nella filiera del dato verso la cittadinanza, dovrebbero fornire anche informazioni per contestualizzarli, e offrire quindi gli strumenti conoscitivi per una loro corretta interpretazione.

A titolo esemplificativo, a Milano il problema dell’inquinamento dell’aria è molto sentito dai cittadini, tanto che molti di essi credono che la qualità dell’aria sia peggiorata rispetto agli anni ’80. In realtà, è migliorata ed emerge un problema di percezione e di mancanza di strumenti conoscitivi per contestualizzare le informazioni che arrivano quotidianamente. Secondo l’approccio pedagogico, chi fa comunicazione deve essere consapevole dell’impatto di ciò che comunica e non lasciare le persone da sole a interpretare dati e informazioni, in particolar modo in momenti delicati come quello che stiamo vivendo a causa della pandemia relativa a COVID-19.

La responsabilità nel non lasciare i cittadini soli nell’interpretare i dati non riguarda solo gli organi di informazione, ma anche, e soprattutto, la politica. Si pensi al discorso di Angela Merkel relativo al progressivo aumento del numeri dei contagi in Germania a cui è stato dato grande eco in molti giornali europei. Ciò che ha funzionato, in quel caso, è stato un linguaggio molto chiaro, comprensibile per tutta la popolazione.

Per una cultura dei dati trasparente e collaborativa

A questo scopo, sarebbe utile che i decisori politici fissassero delle linee guida per la comunicazione dei dati, valutando con attenzione il linguaggio e garantendo la trasparenza, elemento questo che diventa abilitante della stessa qualità dei dati. Proprio sulla trasparenza, l’Accademia dei Licei ha recentemente pubblicato una lettera aperta nella quale evidenzia la necessità di trasparenza nell’affrontare tutte le fasi dell’emergenza pandemica causata dal coronavirus.

Il problema della trasparenza investe anche il tema della valutazione dei dati, non più connessa solamente all’area amministrativa come nel recente passato, ma come strumento chiavi nel supportare le decisioni  politiche. Per raggiungere questo obiettivo serve affrontare alcuni nodi nella filiera del dato, dalla sua produzione alla sua interpretazione. Innanzitutto, è auspicabile una standardizzazione delle raccolta dei dati, dei modelli omogenei condivisi per garantirne affidabilità e qualità. Una condivisione dei modelli e dei risultati permetterebbe di imparare dal passato, evidenziando punti di forza e di debolezza degli esperimenti. In questo senso, sia il successo che l’insuccesso di un esperimento dovrebbero essere resi pubblici, proprio per orientare gli interventi successivi, soprattutto da parte dei decisori politici.


Intervista a Francesca Anglois, ASVAPP


Mentre negli Stati Uniti sono nati diversi portali che mettono a disposizione dei cittadini i risultati delle valutazioni, in Italia quest’approccio è ancora poco diffuso. Nel nostro Paese non solo l’accesso ai dati è ancora un tema non sufficientemente affrontato, ma anche la divulgazione delle valutazioni da parte dei decisori politici sembra scontare un’arretratezza rispetto ad alcune esperienze a livello internazionale.

Eppure qualcosa si sta muovendo in questa direzione, come ad esempio IPSEE, inventario dei Problemi, delle Soluzioni e dell’Evidenza sugli Effetti, un portale promosso da ASVAPP (Associazione per lo Sviluppo della Valutazione e l’Analisi delle Politiche Pubbliche ) dove vengono raccolte e rese fruibili valutazioni italiane, europee e americane rispetto a diversi ambiti di policy. Una delle esperienze internazionali più all’avanguardia è, invece, il Government Accountability Office (GAO), sezione investigativa del Congresso degli Stati Uniti d’America dedita all’auditing e alla valutazione in varie materie di interesse pubblico.

Il tema della  valutazione è complesso e non rimanda a processi automatici. Non sempre cioè gli interventi devono o possono essere valutati. La valutazione degli effetti va fatta quando a monte c’è un dubbio sull’efficacia di un intervento, magari sperimentale o innovativo rispetto al solito. Quando la valutazione riguarda programmi e misure ad ampio raggio, ad esempio il Fondo Sociale Europeo e le misure in ambito sociale, la complessità aumenta. In questo senso è importante una cultura della valutazione, da una parte per aiutare i cittadino a capire cosa aspettarsi dalla valutazione e dall’altra per far comprendere ai committenti delle valutazioni che debbono circoscrivere aspettative realistiche.

Una possibile risposta per aumentare sia la fiducia dei cittadini sia la loro capacità di interpretazione è la citizen science: la scienza in cui i cittadini sono agenti attivi nella raccolta dei dati e non spettatori passivi.


Intervista a Bruna Grumiero, Università di Bologna


In Italia, la Citizen Science è ad un livello ancora sperimentale, ma è evidente il grande beneficio che può apportare: una proficua collaborazione tra attori diversi (Università, laboratori, centri di ricerca, scuole e cittadini) permetterebbe alle ricerche di estendere il proprio raggio d’azione e raggiungere un maggior numero di territori, anche quelli periferici. Serve, tuttavia, una standardizzazione della raccolta dei dati in grado di validarne la qualità. Inoltre, a livello nazionale ed europeo, molte politiche connesse con l’Agenda 2030, hanno sottolineato la necessità di migliorare la sinergia con i cittadini e chiedono una maggior collaborazione tra gli stakeholder, in un’ottica di partecipazione. La partecipazione dei cittadini è auspicata non solo nella raccolta dei dati ma anche nella loro valutazione. In questo senso ci sono diverse iniziative di monitoraggio di Citizen Reporting, che vedono i cittadini integrare le informazioni disponibili, ad esempio, sul progresso dei progetti. Ne è esempio il progetto FreshWater Watch, promosso da Earthwatch Europe, che coinvolge i cittadini nel monitoraggio di laghi, fiumi e stagni per valutare lo stato ecosistemico e i livelli di inquinamento delle sorgenti di acqua dolce. La Citizen Science quindi offre non solo l’opportunità di ottenere dei dati ma anche la possibilità di sviluppare nei cittadini un rinnovato legame con il territorio,  un maggior senso civico e delle nuove competenze associate all’osservazione e al monitoraggio dell’ambiente circostante.

Dati beni comuni


Il dibattito attorno ai dati investe anche il loro valore, che ad oggi è ancora molto concentrato sull’accezione economica. Nello specifico si pensa che è il valore dei dati venga redistribuito a chi ha generato il dato. Ma il meccanismo non può seguire questa logica, poiché non segue un processo redistribuivo: il dato non ha valore in se, ma si crea nel processo. Il vero valore dei dati non è quindi legato alla mera redistribuzione economica, ma è di natura informativa. In questo ambito, una proposta interessate caldeggiata da molti esperti, tra cui Alex Pentland professore presso il Massachusetts Institute of Technology, è il ricorso alle cooperative dei dati, cioè delle comunità, sia professionali che di altra natura, che possono aggregare i propri dati e dai quali possono trarre valore informativo, su cui innescare nuove progettualità. L’idea è quella di utilizzare le comunità già sviluppate, invece che crearne ad hoc, per esempio le banche di credito cooperativo o i sindacati.

Oggi il dibattito sul valore dei dati si sta evolvendo anche in ambito istituzionale, come testimoniato dalla European data strategy dove non si parla solo del valore economico dei dati, ma dell’impatto che possono generare in termini di miglioramento delle politiche in diversi ambiti di applicazione, a partire da quello della salute. Tuttavia la cultura del dato non è ancora sufficientemente inclusa nel dibattito politico. L’Open data, per esempio, non è un ambito di policy autonomo: non è dunque un fine, ma un mezzo a cui non è ancora riconosciuto il ruolo chiave nel discorso politico, come sottolineato da iniziative come quella di Dati bene Comune.

Cosa possiamo fare con i dati? I dati ci danno principalmente una visione su un fenomeno che stiamo osservando in un determinato momento. Ma possono aiutarci a prevedere il futuro? A questo scopo possiamo utilizzare una serie di strategie tra cui il ricorso agli algoritmi o l’uso di modelli, che hanno però dei limiti nella loro semplicità; oppure modelli computazionali più complessi, ma in questo caso più difficili da leggere e che comunque non offrono la possibilità di stabilire esattamente ciò che accadrà nel futuro. Si pensi alla rete di monitoraggio sismico oggi sviluppata in Italia che offre una visione molto complessa su movimenti terresti, ma non permette di prevedere i terremoti. Di nuovo, possiamo prevedere se ci ammaleremo? La risposta a tutte queste domande è no. Ma possiamo prevedere un rischio nel futuro, la probabilità che un certo evento accada e operare delle scelte in base a questa consapevolezza. Tuttavia, non è sempre facile mettere in atto comportamenti basati sulla probabilità e sulla conoscenza dei rischi. In questo senso la politica pubblica dovrebbe intervenire per educare al rischio.


Intervista a Stefano Zapperi, Università degli Studi di Milano


 

Per fare delle buone stime del rischio servono dati precisi che rilanciano, tra le altre, la sfida di trovare una sintesi tra la raccolta dei dati e la tutela della privacy. Una soluzione innovativa è stata adottata in Germania, attraverso lo strumento della donazione: si chiede con trasparenza ai cittadini di donare i dati alla ricerca, sottolineandone l’importanza. In questo modo si utilizzano informazioni di cittadini che hanno essi stessi fornito, coscientemente, le informazioni per gli esperimenti.

In ultima analisi, considerare i dati come un bene comune implica un cambiamento culturale che necessita investimenti politici mirati, anche di natura finanziaria, trasparenza, progettualità concrete, competenze e accessibilità. Su quest’ultimo punto l’open data presenta vantaggi ma anche rischi: aumentare la disponibilità dei dati sulla salute potrebbe implicare anche l’aumento di dati scorretti. D’altra parte, più dati si mettono a disposizione più sarà possibile  riconoscerne la falsità, anche grazie a politiche di formazione e informazione appropriate, senza dimenticare l’importanza della promozione di un dialogo concreto tra tutte le parti sociali.


Proposte di policy


Educazione ai dati per i cittadini

Promuovere una formazione adeguata sia nelle scuole, rivolta alle studentessa e agli studenti, sia per i professionisti che trasmettono dati, a partire dai giornalisti e da chi fa comunicazione. L’educazione ai dati deve mitigare i rischi di una diffusione incontrollata di informazioni e della loro interpretazione, aumentando la consapevolezza generale sul loro valore sociale.

Interpretazione, trasmissione e comunicazione devono essere funzionali al messaggio espresso dai dati e alla sua divulgazione al pubblico.

È grazie a questa diffusione di una cultura del dato che si può immaginare una collaborazione proficua che veda nei cittadini una risorsa primaria nella raccolta dei dati, come nelle esperienze di Citizen Science

Un modello più funzionale a livello istituzionale

Favorire una migliore standardizzazione dei modelli di raccolta, processo e analisi dei dati per dare un contributo alla trasparenza e quindi una maggior affidabilità dei dati stessi. In questo senso è opportuno pubblicare, oltre i risultati, anche i software utilizzati per raccolta e rielaborazione Il legislatore ha dunque il compito di migliorare questo processo di standardizzazione che possa portare ad una regolamentazione comune anche in termini di accesso ai dati e ai messaggi che veicolano.

Per una nuova sinergia tra gli attori della ricerca

Creare piattaforme di condivisione dei dati e favorire uno scambio proficuo tra i vari Enti di ricerca in una prospettiva di collaborazione. In questo modo è auspicabile una collaborazione per sviluppare infrastrutture appropriate per la gestione dei dati, oltre che metodi d’analisi condivisi e strumenti per governarne la crescente complessità, a partire da un approccio integrato e interdisciplinare.