“Gli Open Data nel contesto italiano” all’ITTIG-CNR di Firenze

Lunedì 13 giugno l’ITTIG-CNR ha ospitato a Firenze un incontro su “Gli Open Data nel contesto italiano”. Il programma (in PDF) comprendeva interventi di Ernesto Belisario, Flavia Marzano, Ettore Di Cesare, Federico Morando, Eleonora Bassi e Michele Barbera. Questo resoconto è stato scritto da Stefano Costa con la collaborazione di Maurizio Napolitano.

Probabilmente non c’era molto di nuovo per gli addetti ai lavori, se si esclude l’intervento di Eleonora Bassi (Università di Torino, progetto EVPSI) sulla protezione dei dati personali. La difficoltà dell’anonimizzazione, richiesta in casi specifici, è mitigata dal fatto che venga valutata in base ai costi necessari per la de-anonimizzazione, essendo tecnicamente impossibile garantirne una efficacia totale, nonostante venga intesa come un processo irreversibile. Il diritto all’oblio è particolarmente rilevante, e pur essendo stato concepito in un’altra epoca (priva di motori di ricerca e archivi potenzialmente sterminati) è tuttavia saldamente vigente. Questo presenta significative conseguenze, che non riguardano solo i dati pubblici ma anche l’elaborazione di informazioni giornalistiche: come già ricordato in altre occasioni, la condizione di “pubblico dominio” dell’informazione è necessaria ma non sufficiente perché sia riutilizzabile. Il garante si è espresso raramente citando la direttiva europea sul riutilizzo dei dati pubblici, ma il caso di voglioilruolo sembra molto interessante: il servizio, a pagamento, offre una “consulenza personalizzata” sulle graduatorie per gli insegnanti, sulla base dei dati raccolti dai singoli provveditorati. Il garante ha concesso l’esenzione dall’obbligo di rilascio dell’informativa individuale ai singoli interessati, sulla base della pubblica utilità del servizio e del valore aggiunto che esso fornisce, oltre che in base alla citata direttiva sul riuso.

Ernesto Belisario ha proposto una distinzione tra iniziative di open data “di diritto” (come nel caso della proposta di legge in Regione Lazio, a cui ha lavorato in prima persona) e quelle “ottriate” (concesse dall’alto) dipendenti unicamente da decisioni degli organi di governo. Ernesto sostiene che la seconda ha il difetto di poter essere messa facilmente in discussione perché niente impedisce di fare marcia indietro. Al tempo stesso se chi ha aperto torna indietro deve poi misurarsi con i cittadini ‒ è stata proposta anche una visione degli open data come “diritto del cittadino” nei commenti successivi all’intervento. D’altro canto, è importante il coinvolgimento della pubblica amministrazione, altrimenti si creano situazioni in cui la norma è disattesa (come i casi citati della firma digitale e della PEC) perché “calata dall’alto” sulla PA ‒ soprattutto sugli enti locali e le amministrazioni periferiche.

Federico Morando ha discusso il costo degli open data: un altro tema ancora poco noto (ma ben studiato da chi lo conosce). Di fatto, i timori per una lievitazione della spesa pubblica causata da politiche open data sono infondati. In tutti i casi di amministrazioni con iniziative già avviate, i costi sono bassi, riferiti al lavoro di 1-2 persone per il mantenimento del sistema. Il vero problema sono i tempi necessari per l’opera di “evangelizzazione” e l’eccessiva “ingegnerizzazione”.

Sono incoraggianti le notizie relative al progetto CISIS per la confederazione di portali regionali dei dati pubblici, basati sul modello di dati.piemonte.it e compatibili con CKAN a livello di API (un importante aspetto emerso nel workshop di Edimburgo degli scorsi 3-4 maggio). È stato espresso l’auspicio che anche la Regione Toscana si unisca al progetto CISIS.

Federico ha anche riportato una lista di ingredienti per gli Open Government Data, proposta dal neozelandese Laurence Millar al workshop Share-PSI.eu del mese scorso:

  1. leadership politica
  2. crisi finanziaria
  3. eroi nel governo e nell’amministrazione
  4. pressione da parte dei cittadini

Secondo Millar bastano 3 elementi su 4 per avere successo. Credo che i punti 2, 3 e 4 siano già presenti in Italia, e aggiungerei anche un quinto elemento, cioè la peer pressure.

Michele Barbera, trattando i Linked Open Data ha spiegato come gli open government data siano un modo molto efficace per “mantenere la promessa” di tutti gli investimenti in ricerca fatti dall’Unione Europea sulle tecnologie semantiche. Il caso di Sindice ‒ un motore di ricerca semantico all’avanguardia, sviluppato in Italia ‒ è tra i più significativi. Ed è questo uno dei motivi principali per cui l’Europa è al momento il fulcro del movimento open data nel mondo. Aggiungo io, dovrebbe essere questo uno dei tanti motivi per ragionare di open data in ottica soprattutto europea, anche tenendo conto delle numerose direttive che regolano settori specifici.

In un utile fuori programma, Oreste Signore del CNR ha presentato il neonato gruppo di lavoro sugli open government data in seno al W3C.

La presenza nel pubblico di molte persone attive nel movimento ha rappresentato un’occasione importante per fare il punto su alcuni argomenti, anche durante il pomeriggio. In particolare abbiamo affrontato problemi molto pratici nella gestione dei dati giuridici (testi e processi normativi), con l’insostituibile esperienza di Ettore Di Cesare (OpenPolis).

È evidente che è ancora necessario organizzare iniziative di taglio divulgativo, come ha fatto notare Ernesto Belisario nella conclusione del suo intervento. Aggiungo io, che queste iniziative dovrebbero sempre essere affiancate da un momento di discussione su problemi pratici e concreti, come è stato ieri a Firenze.