Italia
Sapere libero per tutti

open data global index: il dietro le quinte del censimento per l’Italia

Maurizio Napolitano - 12/12/2014 in Open data

Da qualche giorno, lato Open Knowledge core è stato lanciato l’annuncio dell’aggiornamento del Global Open Data Index, il censimento open data degli stati del mondo. Questa iniziativa ha avuto un ruolo molto importante nel 2013 in quanto, presentando una classifica, ha cominciato a far sensibilizzare sul tema le varie nazioni contribuendo così a spingere anche alla nascita della Open Data Charter del G8

Il censimento ruota intorno ad 10 indicatori considerati “bene comune”, ovvero quell’insieme di dati che ogni persona percepisce come naturalmente rilasciati in open data. Si tratta di bilanci statali, statistiche nazionali, risultati elettorali, leggi, spese di governo, emissioni degli inquinanti, registro delle imprese, codice di avviamento postale, tabelle di attesa degli orari di trasporto pubblico e mappe nazionali. Informazioni che ogni cittadino di ogni stato del mondo dovrebbe avere il diritto di conoscere e di accedervi. Portarle in open data vuol dire aumentarne il riuso, ma tutto questo è realmente open data? Per capirlo occorre che, ciascuna di queste variabili, abbia poi delle caratteristiche comuni: esistere, essere in un formato digitale, disponibile pubblicamente, gratuitamente e online, in un formato machine readable, in forma completa, accompagnato da una licenza aperta e aggiornato tempestivamente. Piccoli particolari che fanno però capire quanto quella risorsa esiste e sia realmente riusabile.

indexglobalita Il processo di raccolta avviene attraverso un gruppo di volontari che rispondono alle domande e danno le informazioni per verificarle. In Italia hanno contributo a risponde alle domande: Laura James, Stefano Bandera, Gianfranco Andriola, Andrea Raimondi, Oluseun Onigbinde, Tryggvi Björgvinsson, Maurizio Napolitano, Michele Barbera e Aurelio Cilia; mentre la verifica è stata fatta da Sander van der Waal e Maurizio Napolitano. Il risultato per il 2014 ha portato l’Italia sotto di 5 posizioni rispetto al 2013. Le motivazioni sono evidenziate nella sezioni “stories” del sito stesso con un commento di Maurizio Napolitano. Qui riportate in italiano Sono contento di vedere che, per questa edizione del Global Open Data Index, ci sono nuovi nomi di contributori. La posizione italiana è scesa però di qualche posto rispetto al 2013. Questo perché abbiamo deciso di essere più rigorosi su alcuni set di dati che sono stati rilasciati, ma non sono stati aggiornati e si è fatta maggiore attenzione a vedere quale è l’ente, che, da un punto di vista delle competenze, si occupa di quel rilascio. Non ci sono state evidenti miglioramenti. Nell’edizione del 2013 c’è stato un grande entusiasmo per un insieme di dati tipo geografico, ma questo non è poi stato aggiornato. L’adesione alla Carta Open Data del G8 dell’Italia ha fatto si che l’Agenzia per l’Italia Digitale desse vita ad una agenda per l’apertura di alcuni dataset chiave che rientrano poi nelle richieste del Global Index. Secondo l’agenda, molti di questi dati (es. i codici di avviamento postale), saranno rilasciati entro dicembre 2014. Se questo avverrà, sicuramente la posizione dell’Italia per il 2015 sarà in una posizione migliore. In termini di dati di trasporto pubblico, purtroppo la situazione non è ancora risolta: ci sono diverse agenzie che hanno aperto i dati ma molte altre non lo hanno fatto. Nell’anno precedente si era considerato come “trasporti pubblici”, gli orari di Trenitalia (che comunque non sono tutt’ora rilasciati come open data), quando invece la richiesta esplicita e sulle linee degli autobus urbani ed extra-urbani. Quello che lascia perplessi è vedere che ci sono molte agenzie che rilasciano i dati sulla piattaforma Google Transit, ma non sembrano voler fare il passaggio del rilascio in open data. Il ruolo del Global Open Data Index è estremamente importante – la classifica sempre aiutano a incoraggiarci a fare meglio la prossima volta. Partecipare al processo di revisione è anche un ottimo modo per prendere coscienza della situazione del proprio Paese. Dal mio punto di vista si tratta di un esercizio molto importante, e se si trova un buon numero di contributori, si può avviare un dibattito interessante per aiutare a migliorare il processo di apertura dei dati. È per questo motivo che incoraggio tutti a partecipare al processo di revisione del censimento open data delle città italiane – it-city.census.okfn.org/

Open Definition: versione 2.0

Francesca De Chiara - 11/09/2014 in Licenze, Open data, open definition, openknowledge, Riuso

Lo scorso 7 ottobre Open Knowledge in collaborazione con Open Definition Advisory Council ha annunciato il rilascio della versione 2.0 della Open Definition. In italiano trovate on line la traduzione della versione 1.0 qui. Nella Open Definition si dichiarano i principi di base che definiscono il significato di “openness”, apertura, in relazione a dati e contenuti. La Open Definition ha avuto un ruolo chiave di supporto nella crescita dell’ecosistema open data, come ribadisce Rufus Pollock in questo post. Il contributo in termini di concettualizzazione e sforzo definitorio portati a termine con Open Definition restano cruciali. Negli ultimi anni il numero di dataset rilasciati è cresciuto esponenzialmente, evidenziando i benefici connessi al riutilizzo. Avrete sentito sicuramente citare ampiamente le stime di McKinsey contenuto nel report di fine 2013 sul potenziale economico dei dati aperti.  Tuttavia, una riflessione sui rischi di open-washing, sull’importanza della distinzione tra dati “aperti” e dati “disponibili”, e della frammentazione nell’ecosistema open data a causa della crescente incompatibilità tra licenze aperte, resta necessaria. La Open Definition vuole eliminare questi rischi, mantenendo la funzione essenziale di “standard” di riferimento. Qualità, compatibilità e semplicità sono le tre parole chiave.

Open non significa solo disponibile -  Key Lock by im icons from The Noun Project

Open non significa solo disponibile 
Key Lock by im icons from The Noun Project

 

Qualità – Semplicità – Compatibilità : 3 elementi chiave della Open Definition

Quality Okay by Stephanie Wauters from The Noun Project

Qualità
Okay by Stephanie Wauters   from The Noun Project

Compatibilità Compatible by Michel Demers from The Noun Project

,,,,

Semplicità
Paper Plane by Daniel Pang from The Noun Project

 

Qualità: open data dovrebbe significare libertà per tutti di accedere, modificare e condividere quei dati. Tuttavia, senza uno standard ben definito che chiarisca in dettaglio cosa significa “open”, rischiamo di assistere a crescenti tentativi di confondere la natura dei dati da considerare davvero “aperti” . Open Definition, in questi termini, si concentra essenzialmente su controllo della qualità.

Compatibilità: senza una definizione condivisa diventa impossibile comprendere cosa sia realmente “open”. L’incompatibilità dovuta alle differenze nei termini d’uso possono di fatto impedire la libertà di riutilizzo e di combinazione dei dataset aperti, azzerando così i maggiori benefici offerti dall’open data. Il rischio di incompatibilità cresce perchè molti open data sono rilasciati sotto licenze create appositamente. Alcuni governi hanno scritto differenti versioni di licenze aperte, che potenzialmente rischiano di non essere mutualmente compatibili con altre licenze aperte preesistenti.

Semplicità: grande promessa implicita nell’open data è la semplicità e facililtà di utilizzo. Questo non significa soltanto che l’accesso ai dati è garantito senza costi, ma significa che non c’è più necessità di assumere un giurista per le licenze, che non devi pensare a cosa puoi fare e cosa non puoi fare, nella tua attività di impresa o  di ricerca, per esempio. Una chiara e condivisa definizione permette di eliminare qualsiasi timore rispetto alla complessità dei limiti imposti da termini d’uso o licenze, ma anche rispetto a modalità di riuso e condivisione.

La prima versione della Open Definition fu pubblicata nel 2005 da Open Knowledge, la nuova versione lanciata il 7 ottobre è stata aggiornata grazie all’impegno degli esperti di Open Knowledge Advisory Council. La nuova versione della Open Definition rappresenta la revisione più significativa fatta negli ultimi dieci anni.

Il processo di discussione e consultazione con la comunità ha richiesto più di un anno, se si includono gli input degli esperti coinvolti.  Sebbene non ci siano cambiamenti nei principi di base, la Open Definition è stata completamente rielaborata e riproposta con una nuova struttura, un nuovo testo e una revisione delle licenze.

Herb Lainchbury, Chair di Open Definition Advisory Council, ha dichiarato:

“la Open Definition descrive i principi che definiscono l’apertura, “openness”, in relazioni ai dati e ai contenuti, ed è utilizzata per valutare se una particolare licenza soddisfa quello standard. Un obiettivo fondamentale di questa nuova versione è rendere più facile valutare se il crescente numero di licenze aperte soddisfa realmente quei criteri. Aumentare il più possibile il livello di fiducia nel riutilizzo delle opere “aperte” ci permetterà anche di concentrarci su come estrarre valore da quelle opere.”

Rufus Pollock, Presidente e fondatore di Open Knowledge ribadisce:

“Da quando abbiamo creato la Open Definition nel 2005, essa ha giocato un ruolo chiave nella crescente comunità dell’open data e dell’open content. La Definition è come il “gold standard” per i dati e i contenuti aperti, garantendo qualità e prevenendo incompatibilità. Come standard, la Open Definition ha un ruolo fondamentale nel sostenere la “open knowledge economy” con un valore potenziale di centinaia di miliardi e più, in tutto il mondo.”

Le novità della versione 2.0 di Open definition:

La nuova versione è stata sviluppata in collaborazione con esperti coinvolti nelle comunità dell’open access, open culture, open data, open education, open government, open source e wiki.

Queste le novità contenute nella versione 2.0 della definizione:

  • I principi fondamentali sono stati completamente riscritti – conservando lo stesso significato ma usando un linguaggio più semplice e charificando aspetti chiave.
  • Viene introdotta una netta separazione della definizione di licenza aperta da quella di opera aperta (open work), con quest’ultima che dipende direttamente dalla prima. Questo non solo semplifica la struttura concettuale ma offre anche una definizione appropriata di licenza aperta rendendo più facile l’auto-valutazione delle licenze conformi alla Open Definition.
  • L’opera aperta viene definita secondo questo insieme di tre principi:
  1. Licenza aperta (Open Licence): L’opera deve essere disponibile sotto una licenza aperta.
  2. Accesso: L’opera deve essere disponibile nella sua interezza ed a un costo di riproduzione ragionevole, preferibilmente tramite il download gratuito via Internet (presente nella versione 1.0).
  3. Formato aperto: L’opera deve essere fornita in un formato modificabile in modo che non ci siano ostacoli tecnologici allo svolgimento delle attività secondo i diritti garantiti dalle licenze.  Nello specifico,  i dati devono essere leggibili dalle macchine, disponibili nella loro interezza e in un formato aperto, o almeno, che possano essere elaborati con software libero, open source. Ciò può essere conseguito mediante la messa a disposizione dell’opera in un formato aperto, vale a dire un formato le cui specifiche siano pubblicamente e liberamente disponibili e che non imponga nessuna restrizione economica o di altro tipo al suo utilizzo.
  • E’ stato incluso un processo di approvazione della licenza per facilitare i creatori di licenze nel meccanismo di controllo di conformità con la Open definition e incoraggiare il riutilizzo delle licenze aperte preesistenti.

Informazioni aggiuntive

Qui trovate il Github repository di Open definition.

Qui trovate i blog post in inglese sulla Open Definition rielaborati in questa versione italiana.

Qui trovate la versione italiana della Open Definition 1.0 dal quale abbiamo estratto alcuni riferimenti.

 

     

    #OpenData Story of the Day: Agenzia delle Entrate, perché non uscite?

    Francesca De Chiara - 07/07/2014 in Open data

    In vista di uno scoppiettante OKFestival 2014 a Berlino (a proposito il contingente italiano quest’anno è ben rappresentato, stay tuned!) rilancio qui su Open Knowledge Foundation Italy il post bomba del nostro ambassador Maurizio Napolitano che stamattina risuona come l‘Italian Open Data Story of the Day! La versione originale la trovate qui.

     

    path3050-300x243

    Il duomo di Messina attraversato da una strada sul sito Agenzia delle Entrate

    Fra i tanti momenti condivisi con Simone parlando di OpenStreetMap ricordo ancora con piacere il viso incredulo di un ragazzo che lo stava ascoltando con queste parole “Vedi! Il giardino di casa mia ha un paio di alberi, dei percorsi ed un laghetto. Tutte cose private che non ho problemi a nascondere e che ho rappresentato su OpenStreetMap. Non c’è nessuna mappa al mondo che lo ha”. Viso incredulo ma anche soddisfatto che portò il ragazzo ad essere un nuovo mapper. A distanza di molto tempo, quella “insolita” mappa, ha dato vita ad un nuovo progetto fra AndreaCristian, Simone, Stefano e me. Il tutto nasce visitando il sito dell’Osservatorio del Mercato Immobiliare (OMI)dell’Agenzia delle Entrate, dove, il giardino di Simone, ma anche molti altri dettagli che la comunità di OpenStreetMap è solita raccogliere, sono presenti su quella mappa online. I colori scelti per la mappa sono anche accattivanti, ed anche le etichette sono ben piazzate.

     

    Visitando qua e là, e conoscendo il proprio territorio, ci si accorge però che quelle mappe sono dannatamente uguali a quelle di OpenStreetMap.

    Scavi di Pompei su sito dell’ Agenzia delle Entrate

    Appaiono però diversi particolari degli scavi di Pompei, e nomi di edifici un po’ bizzarri come Centro Servizi Culturali S. Chiara – Scuola di Musica “I Minipolifonici” (sede provvisoria).

    Le segnalazioni si sono moltiplicate da parte di Andrea e Stefano, e, cosi Cristian ha sviluppato un sistema per confrontare le aree, e il risultato è molto chiaro: l’Agenzia delle Entrate ha deciso di utilizzare gli oggetti di tipo poligonale presenti in OpenStreetMap sul proprio sito integrando poi con i dati di uno stradario (a giudicare da questo articolohttp://www.ilsole24ore.com/art/tecnologie/2010-10-21/tutta-italia-georeferenziata-064638.shtml si direbbero dati Navtech). Molta amarezza da parte di chi, nel progetto OpenStreetMap crede tantissimo, nel vedere questa assurda violazione di licenza. Ironia a denti stretti per chi invece si interroga sul ruolo dell’agenzia delle entrate visto che gestisce anche il catasto!
    Sitio Agenzie Delle Entrate

    Sito Agenzie Delle EntrateOpenStreetMapOpenStreetMap

    Ma come? L’ente che gestisce i dati catastali non è in grado di produrre una mappa con i propri dati, proprio quelli dell’edificato? Eppure GEOPoi è creato da una azienda come SOGEI, che di sicuro ha tutti i mezzi sviluppare software (lo dimostra anche il fatto che la logica di distribuzione delle loro mappe non segua degli standard che hanno reso quindi difficile anche la creazione del tool di comparazione).
    Da qui la campagna “AGENZIA USCITE!“, un gioco di parole, apparentemente poco originale, ma invece con molti messaggi:   AGENZIA delle entrate, USCITE dalla vostra logica difensiva e cominciate a collaborare AGENZIA delle entrate, USCITE con i dati del catasto in open data AGENZIA delle entrate, USCITE dal nascondere l’uso di openstreetmap e collaborate invece a questo bene comune. … tra l’altro il tool di Cristian ha pure creato una interfaccia più comoda per consultare le loro mappe :) A tutti gli amici e amiche invece l’invito è di navigare la mappa d’Italia e individuare le somiglianze segnalandole su mappa a e via twitter #agenziauscite   …. ed è molto divertente perchè poi si scoprono cose come questa e ci si domanda :  “Ma quella rotonda è stata costruita si o no?”

    ma_dove_sta_la_rotonda-1024x476

     

    Il resoconto degli Sports Hackdays di Milano

    Maurizio Napolitano - 06/04/2014 in Incontri, Open data

    Per chi non c’era ai primi Sports Hackadays del 23 e dell 24 maggio:

    • 120 tra sviluppatori, designer e data scientist che hanno accettato la sfida di mostrare cosa può essere fatto con i dati sportivi;
    • 3 città, Milano, Basilea e Sierre, che hanno ospitato in contemporanea e in collegamento tra loro gli Hackdays coprendo ognuna aspetti differenti del vasto mondo dei dati sportivi;
    • 36 tra fonti online e dataset, tra i quali dati ufficiali che per la prima volta venivano messi a disposizione di un largo pubblico;
    • il racconto, illuminante e inedito, di come i dati sportivi vengono raccolti e utilizzati da aziende leader come Deltatre e Technogym.

    Un’avventura in cui la venue di Milano ha avuto il compito d’indagare come vengono raccolti i dati sportivi, quali sono i modelli di valorizzazione del dato e quali gli ostacoli ad un’apertura dei dati da parte delle grandi federazioni internazionali. hackdays_mi

    All’evento milanese era presente Deltatre, l’azienda torinese che produce le statistiche e i dati di approfondimento mostrati sullo schermo durante la trasmissione di Olimpiadi, Mondiali di calcio e Champions League, che ci ha introdotto nelle misteriose, per i più, tecniche di raccolta dei dati in ambito calcistico (fatte di inviati, i cosiddetti “spotter”, che, dotati di controller per console appositamente modificati, raccolgono sul campo dati che vengono in tempo reale integrati con quelli provenienti da sistemi di tracking video, così da ottenere un completo strumento di match analysis) e nelle attuali politiche di condivisione del dato da parte delle grandi federazioni internazionali (FIFA, UEFA e CIO).

    C’è stata poi Technogym, che ha mostrato come utilizza i dati raccolti dalle proprie macchine e dai device che possono essere abbinate alla piattaforma Android sviluppata dall’azienda, offrendo l’occasione ai partecipanti di vedere svelate quali sono le reali applicazioni di business per dati a cavallo tra il Quantified Self e la performance analysis.

    Ma un hackathon è un hackthon e anche a Milano, come a Basilea e Sierre, i team hanno prototipato e sviluppato: protagonisti del lavoro dei team sono stati i dati del Tor de Géants, l’ultratrail valdostano considerato il più duro al mondo e i cui responsabili erano con noi a spiegarci le peculiarità di una corsa di 5 giorni in cui i dati di ogni singolo partecipante, per ragioni di sicurezza e logistiche, sono essenziali. Altri team si sono misurati con il sistema Technogym su base Android, prototipando app per la performance analysis in real­time.

    Il contributo di Milano si è aggiunto allo straordinario lavoro di Basilea, forte della presenza della comunità di Opendata.ch e di Sierre, in cui l’hackathon era ospitato dalla Haute Ecole de Gestion & Tourisme, che hanno contribuito con progetti di grande valore alla riuscita degli Sports Hackdays.

    Da queste due giornate, con OKF che sta lavorando per creare un working group sui dati sportivi e altre grosse iniziative all’orizzonte, ha ora preso il via un difficile ma interessantissimo percorso di avvicinamento tra due mondi distanti quali quello degli open data e quello dei dati sport.

    La partita è appena cominciata!

    nota: testo di carlo toccaceli blasi – promotore dell’iniziativa

    Al via gli Sport Hackdays

    Maurizio Napolitano - 05/23/2014 in events, Open data

    23-24 maggio più di 60 tra coder, designer e data scientist interessati a dare un contributo al mondo opendata, si incontreranno a Milano per gli Sports Hackdays, due giorni che daranno l’occasione a tutti i partecipanti di misurarsi con l’affascinante e complesso mondo dei dati sportivi.

    sprintGli Sports Hackdays sono il primo, grande hackathon internazionale sui dati dello sport. lanciato da OKF. Milano, Basilea, Vienna e Sierre ospiteranno in contemporanea due intensi giorni di Data Mining, Data Visualization e sviluppo di applicazione su dati di federazioni sportive, centri di ricerca e semplici tifosi ed appassionati. Performance atletiche, passaggi tra giocatori, dati biometrici, chilometri percorsi in bici: tantissime discipline sportive e tantissimi dati, molti dei quali verranno aperti in questa occasione. Il mondo dello sport è d’altronde un mondo di dati. Il più delle volte chiusi e costosi, i dati sportivi sono restati lontani dall’interesse dei più, appannaggio di pochi appassionati e di aziende del settore.

    Con quest’evento OKF Italia, che organizza gli Sports Hackdays Milano insieme a Tuxtax, startup di Data Visualization, vuole dimostrare il valore dell’opendata anche nello sport, ma soprattutto di far crescere un comunità che possa nel tempo lavorare attivamente su queste affascinanti tematiche.

    All’evento di Milano sarà presente Technogym, l’azienda italiana azienda leader mondiale nella realizzazione di attrezzature per il fitness, che porterà con sé attrezzature da allenamento equipaggiate con la nuova console UNITY basata su sistema Android, su cui i partecipanti all’hackhaton potranno lavorare e sperimentare. E ancora sarà a fianco dei partecipanti Deltatre, azienda torinese che cura le visualizzazioni dei maggiori eventi sportivi internazionali (tra cui Olimpiadi, Coppa del Mondo di Calcio, Champions League), per mostrare le peculiarità dello sviluppo di servizi informativi per lo sport. Un’importante occasione per far comprendere a due aziende leader mondiali nei propri settori, il valore aggiunto degli opendata.

    Per ogni informazione http://tuxtax.ch/sports-hackdays-milano.html Hashtag per seguire l’evento su twitter: #HackSports

    nota: testo di carlo toccaceli blasi – promotore dell’iniziativa

    Chi ha paura dell’openaccess ?

    raimondi - 04/04/2014 in Cultura, openaccess, Ricerca

    Nel numero di ottobre delle rivista Science John Bohannon pubblicava un articolo intitolato “Who’s afraid of Peer Review” con lo scopo di mostrare quando inefficiente fosse il controllo sulla qualità delle pubblicazioni Open Access. Le risposte non si fecero attendere. Il paper generò una moltitudine di post da parte di moltissimi ricercatori. Uno di questi, molto dettagliato, si intitolava altrettanto provocatoriamente “Who’s afraid of Open Access” e portava la firma di Ernesto Priego, direttore del corso di Electronic Publishing alla City University of London. Priego evidenziava con chiarezza le molte lacune nel metodo di  Bohannon.

    Non era presente un controllo comparativo tra le riviste openaccess e le più classiche subscription based. Non era presente un controllo orizzontale rispetto alle diverse discipline di ricerca, ad esempio le Humanities, rispetto al quale il controllo comparativo poteva essere pesato. Non erano presenti chiari criteri di selezione delle fake submissions che potessero rappresentare una solida base per sostenere l’ipotesi dell’articolo.

    Dal punto di vista prettamente scientifico il paper non forniva nessuna evidenza rispetto alla qualità delle pubblicazioni openaccess se non un banale risultato: c’è bisogno di un maggiore controllo sulla peer review. Un risultato che, d’altra parte, sembra comune a tutte le riviste, Science compresa. Da qui la provocazione di Priego:

    We are not afraid of peer review. Who’s afraid of open access? That is the question.”

    Era evidente che Science ne era uscita male dal confronto, facendo una chiara brutta figura. Niente di nuovo sotto il sole. La rivista, vale la pena ricordarlo, era già stata oggetto di simili eventi quando aveva pubblicato il falso articolo sulle forme di vita all’arsenico. Alla direzione editoriale probabilmente era sfuggito come Michael Eisen, biologo alla Berkley University e autore del paper incriminato, per sua stessa confessione avesse brillantemente adottato la stessa strategia per evidenziare le lacune denunciate da Bohannon sul loro prodotto editoriale.

    La comunità degli advocate non si raccapezzava proprio come Marcia McNutt, Editor-in-chief di Science, avesse valutato il paper prima di tesserne le lodi nella summary del numero di ottobre. L’approccio paternalistico della McNutt mancava proprio il bersaglio quando si trattava di fare quello che lei stessa raccomandava alla comunità dei ricercatori: porgere più attenzione sull’accuratezza e sulla valutazione dei metodi di revisione. Ipocrisia e malafede, due cose che di solito rovinano un buon ragionamento.

    Per questo la sfida di Priego, e di tutti quelli che hanno contribuito ad alzare la voce a difesa dell’openaccess, non deve rimanere chiusa nella semplice provocazione. Come ha scritto di recente David Eaves, opendata advocate in Canada, leggere le critiche è importante. Ci aiuta meglio a formulare i nostri argomenti, ci rende più intelligenti e migliori, perché più responsabili. La critica ci aiuta anche a conservare una memoria degli eventi, ma solo se da questi contribuiamo a creare argomenti di dibattito.

    In un paese come l’Italia, la ricerca è diventata un disvalore proprio perché, a poco a poco, il pensiero critico in ambito pubblico è diventato il peccato più grande.

    Ad alcuni mesi di distanza il polverone sollevato da Science può dare agli open advocate –chiunque si batta per la causa di una maggiore partecipazione nei processi fondamentali della società– almeno tre argomenti sui quali riflettere.

    Siate più critici – sostenere che ci sia qualcosa da aprire, in questo caso l’accesso alle pubblicazioni scientifiche, è una rivendicazione politica di interessi sociali. Di conseguenza va trattata come tale, dichiarandola apertamente e senza paura. Perché la trasparenza si fa anche e soprattutto scoprendo le carte e motivando in modo ragionevole perché è meglio decidere x piuttosto che y.  Nel caso di Science è normale essere contro l’openaccess perché si è a difesa del proprio modello di business. Ma la strategia del pavone non funziona se il tuo modello subscription based è già minato dalla presenza di framework nazionali e comunitari che impongono la pubblicazione open per ricerche finanziate con soldi pubblici. La qualità del meccanismo passa in secondo piano quando il punto è scegliere se cambiare il modello con il quale si produce e si distribuisce ricerca oppure no.

    Trasformate la tensione in coesione – all’interno dell’openaccess esiste una tensione reale. Concordiamo sulla necessità di accelerare il knowledge transfer in tutti i campi della ricerca –dalle scienze naturali alle umanistiche. D’altra parte c’è unanime disaccordo sul modello di business: per veicolare il valore dell’OA dobbiamo anche fornire un modello che non faccia ricadere i costi soltanto su uno degli attori e che dia  vantaggio a tutte le parti in gioco –editori, enti, ricercatori., lettori, investitori. Rendere la scelta politica permette di raggiungere un punto fondamentale: qualunque sia la soluzione proposta, se non è partecipata è destinata a fallire sul nascere. Se non si condivide il perché di un’azione nessuna azione può avere successo, perché mancherà di contributi reali.

    Abbattete muri – i problemi della ricerca non toccano i ricercatori finché i ricercatori non sono toccati dai problemi. E per esperienza, non fate mai arrabbiare un ricercatore. Ma sono tendenzialmente pigri, finché non trovano uno strumento per lottare. Qui ne propongo uno, facile, veloce, ed efficace. Si chiama “OpenAccessButton”, un bottone da aggiungere alla bookmark bar del proprio browser che permette di segnalare ogni qual volta ci si scontra con un paywall. Il paywall è la pagina che richiede il pagamento per la visione di una pubblicazione.  Il progetto, che è online da qualche mese, è in open source e permetterà di quantificare la domanda di accesso alle pubblicazioni chiuse. Insieme, anche di accrescere la consapevolezza all’interno della stessa comunità dalla quale la questione dell’Openaccess dovrebbe emergere con più forza.

     

    #invasionidigitali + #beniculturali con l’unione #liberiamolacultura

    luca corsato - 03/18/2014 in beniculturaliaperti, Cultura, Open data, OpenGLAM, openheritage, openknowledge

    Incontro_di_leone_magno_e_attila_01Ci si chiedeva “come mai non si ottengono risultati”

    Ci si chiedeva “come mai non si ottengono risultati”. Ci si chiede perché il movimentismo rumoreggia forte ma ottiene poco. In attesa di scoprire quali possano essere le risposte definitive, noi sperimentiamo se è ancora valido il concetto di l’unione fa la forza. Il progetto #beniculturaliaperti si fonde in #invasionidigitali.

    Nell’era di tutti connessi

    Nell’era di tutti connessi si ipotizza che il network possa essere contemporaneamente garanzia di individualismo e comunità, ma come sempre i concetti richiedono l’applicazione e questa deve tener conto dei contesti e delle persone. InvasioniDigitali sono innanzittuto persone che hanno trovato il modo di rappresentarsi in un’azione ovvero l’occupazione fisica dei luoghi. #beniculturaliaperti si è rappresentato in un concetto che considera i dati dell’arte un elemento fondante di conservazione, ricerca scientifica, evoluzione professionale. Quindi i due progetti sono assolutamente complementari: perché non fondersi?

    http://youtu.be/hYyLH9l4_EM

    Oggi siamo davvero felici di darvi questa notizia!

    Oggi siamo davvero felici di darvi questa notizia! Per questo #‎invasionidigitali‬ e ‪#‎beniculturaliaperti‬ sono lieti di annunciare la loro fusione in un’unica invasione: allegramente come si è sempre fatto entreremo nei luoghi che abbiamo ereditato e che vogliamo vivere in ogni loro aspetto. Quello in cui crediamo lo trovate nel nostro manifesto “rinforzato”, mentre il motivo che ci ha spinto a convolare a giusta unione è presto detto: quando si hanno intenti comuni è fondamentale unire le forze e concentrarsi sull’obiettivo. Noi invadiamo e sappiamo che solo la forza d’urto della banda può portare trasformazione e quindi siamo disinteressati al chi e ci concentriamo sul quanti e come, perché la forza non sta nei nomi ma nella condivisione delle idee, degli obiettivi, del divertimento e siamo pronti ad abbracciare chiunque voglia venire a fare con-fusione con noi!

    1920605_472859749509522_1145539967_n

    Il Manifesto: Crediamo che

    Il Manifesto: Crediamo che l’applicazione al settore dei beni culturali delle nuove forme di comunicazione partecipata e della multimedialità, sia da considerare una occasione irrinunciabile per garantire la trasformazione delle istituzioni culturali in piattaforme aperte di divulgazione, scambio e produzione di valore, in grado di consentire una comunicazione attiva con il proprio pubblico, e una fruizione del patrimonio culturale priva di confini geografici e proiettata verso un futuro nel quale la condivisione e il modello dell’open access saranno sempre maggiori.

    Crediamo in nuove forme di conversazione e divulgazione del patrimonio artistico non più autoritarie, conservatrici, ma aperte, libere, accoglienti ed innovative.

    Crediamo in un nuovo rapporto fra il museo e il visitatore basato sulla partecipazione di quest’ultimo alla produzione, creazione e valorizzazione della cultura attraverso la condivisione di dati e immagini.

    Crediamo che il riuso dei dati e delle immagini dell’arte attraverso le piattaforme che mettono in connessione fra loro visitatori, esperti, studiosi, appassionati, possa attivare la produzione di contenuti personali UGC (User Generated Content), a beneficio di processi co-creativi di valore culturale ed economico per tutti.

    Crediamo in nuove esperienze di visita dei siti culturali, non più passive, ma attive, dove la conoscenza non viene solo trasmessa ma anche costruita, dove il visitatore è coinvolto ed è in grado di produrre egli stesso forme d’arte.

    Crediamo che internet ed i social media siano una grande opportunità per la comunicazione culturale, un modo per coinvolgere nuovi soggetti, abbattere ogni tipo di barriere, e favorire ulteriormente la creazione, la condivisione, la diffusione e valorizzazione del nostro patrimonio artistico.

    Crediamo che Internet sia in grado di innescare nuove modalità di gestione, conservazione, tutela, comunicazione e valorizzazione delle nostre risorse.

    Crediamo nella semplificazione delle norme per l’accesso e riuso dei dati dei Beni Culturali per incentivarne la digitalizzazione.

    Crediamo nella necessità di confronto fra tutti gli attori dei beni culturali perché le idee non rimangano isolate ma possano circolare e ispirare altri a migliorarle e renderle operative perché solo dallo scambio di conoscenze deriva altra conoscenza. Siamo convinti che questo scambio non debba limitarsi ai confini di un paese ma possa, e debba, essere internazionale.

    Crediamo che l’Arte diventi Conoscenza quando viene condivisa

     

    Contribuisci anche tu a #liberarelacultura, aderisci al manifesto e partecipa alle #invasionidigitali

    ‪#‎Liberiamolacultura‬

    immagine: http://upload.wikimedia.org/wikipedia/commons/f/f4/Incontro_di_leone_magno_e_attila_01.jpg

    “Open-washing” – La differenza fra aprire i dati e semplicemente rendenderli disponibili

    Maurizio Napolitano - 03/11/2014 in Open data

    (Questa è la versione italiano del post di blog inglese “Open-washing” – The difference between opening your data and simply making them available tradotto da Christian Villum dall’articolo originario in danese “Openwashing” – Forskellen mellem åbne data og tilgængelige data)
    La settimana scorsa, la rivista danese Computerworld, in un articolo intitolato Check-list per l’innovazione digitale: Queste sono le cose che dovete sapere, ha sottolineato come sempre più aziende stanno scoprendo che dare agli utenti l’accesso ai dati è una buona strategia di business. Fra le osservazioni pubblicate

    (traduzione dal danese) Secondo quanto dice Accenture per molte aziende innovative sta diventando sempre più chiaro che i propri dati debbano essere trattati come un’altra catena di distribuzione: dovrebbero essere fruibili facilmente e senza ostacoli attraverso l’intera organizzazione e forse anche fuori dal ecosistema interno – ad esempio attraverso API completamente aperte.

    Hanno quindi utilizzato Google Maps come esempio. Innanzitutto questo non è un esempio perfettamente calzante: come ha anche sottolineato il blogger Neogeografen, Google Maps non offre dati grezzi, ma solo una rappresentazione dei dati originari. Non si è poi autorizzati a scaricare e modificare i dati a farne uso su un proprio server.

    Inoltre non ritengo del tutto accurato evidenziare Google e il suo Maps come un esempio ottimale di scenario imprenditoriale che offre un flusso di dati senza ostacoli al pubblico. È vero che il servizio offre solo alcuni dati, ma solo con una modalità particolarmente limitata – e per niente open data – È corretto affermare che offrono alcuni dati, ma con una via particolarmente limitata – e con una modalità per niente open data – e quindi non in maniera progressiva come suggerisce l’articolo.

    Non vi è però alcuna ombra di dubbio che sia difficile accusare Google di non essere una azienda innovativa. L’articolo afferma come i dati di Google Maps sono utilizzati da oltre 800.000 applicazioni e aziende in tutto il mondo. Pertanto è vero, Google ha aperto parte del suo silo – ma solo in un modo molto controllato e limitato, che lascia queste 800.000 aziende dipendenti dal flusso continuo di dati da parte di Google senza permettere loro di controllare le stesse materie prime su cui stanno basando il loro stesso lavoro. Questa particolare modalità di rilascio dei dati mi porta sul problema che stiamo affrontando: Capire la differenza fra il rendere i dati disponibili e renderli aperti.

    Gli open data si caratterizzano non solo perché sono disponibili, ma perché sono sia aperti sul piano giuridico (cioè rilasciati sotto una licenza aperta che ne permetta il pieno riuso con al massimo l’obbligo di dare credito alla fonte e rilasciarli con la stessa licenza) che tecnicamente disponibili in massa attraverso formati machine readable – contrariamente a quanto offre Google Maps. Può essere che i loro dati siano disponibili, ma non sono aperti. Questa, tra l’altro, è una delle ragioni per cui la comunità globale che ruota attorno OpenStreetMap – l alternativa 100% open, – è in rapida crescita ed un numero sempre più crescente di aziende ha deciso di impostare invece i propri servizi su questa iniziativa aperta.

    Ma perché è importante che i dati siano aperti e non solo disponibili? Open data rafforza la società e costruisce una risorsa condivisa, con la quale tutti gli utenti, i cittadini e le imprese sono arricchiti e potenziati, non solo i collezionisti e gestori di dati. A questo punto ci si chiede “Ma perché le aziende dovrebbero spendere soldi per raccogliere dati e poi darli via?”. Aprire i dati e realizzare un profitto non sono due azioni che si escludono a vicenda. Facendo una rapida ricerca su Google si scopre che ci sono molte aziende che offrono dati aperti creando opportunità di business – e credo che siano queste quelle che dovrebbero essere evidenziate come di particolare interesse sugli articoli di innovazione come quello di Computerworld

    Un esempio è l’azienda inglese OpenCorporates , che offre il suo crescente repository di dati del registro delle imprese come dati aperti, e quindi si posiziona abilmente come una risorsa da seguire in quel campo. Questo approccio rafforza la possibilità di offrire servizi di consulenza, analisi dei dati e altri servizi personalizzati per imprese e il settore pubblico. Altre imprese sono invitati a utilizzare i dati, anche per uso agonistico o per creare altri servizi, ma solo sotto la stessa licenza di dati – e fornendo così una risorsa derivata utile per OpenCorporates. Qui c’è la vera innovazione e sostenibilità, rimuovendo in modo efficace i silos e la creazione di valore per la società, non solo per le imprese coinvolte. Open data crea crescita e innovazione nella nostra società – mentre il modo di Google di offrire i dati crea probabilmente crescita ma solo per … Google.

    Stiamo assistendo a una tendenza sempre crescente di ciò che può essere definito “open-washing” (ispirato a “greenwashing“), che significa che ci sono produttori di dati che sostengono che i loro dati sono aperti, anche quando non lo sono, e quindi li rendono disponibili attraverso termini di riuso limitanti. Se noi, in questo momento critico della società guidata dai dati, non siamo criticamente consapevoli della differenza, finiremo per mettere i nostri flussi di dati vitali in infrastrutture di silos di proprietà di società internazionali. Ma finiremo anche per elogiare e sostenere il modo sbagliato di realizzare uno sviluppo tecnologico sostenibile.

    Per saperne di più visita la pagina della open definition e questa introduzione al tema dei dati aperti da parte della Open Knowledge Foundation. Per esprimere la tua opinione unisciti alla mailing list di Open Knowledge Foundation.

    Arriva l’Open Data Census Italia: servono reviewers

    Maurizio Napolitano - 02/23/2014 in Open data

    census

    Partecipa al censimento dell’open data delle città italiane
    http://it-city.census.okfn.org/

    Nel 2012, OKFN, ha dato vita al progetto Open Data Census, ovvero un censimento per individuare i livelli di apertura dei dati delle varie nazioni nel mondo. Nel 2013 sono stati pubblicati i risultati come il primo Open Data Index, arrivando, lo scorso autunno, a coprire 700 dataset di 70 Paesi. Questa azione ha dimostrato di essere stata utile nel guidare il rilascio di Open Data in tutto il mondo. Tuttavia, ci sono moltissimi dati, a livello locale, che sono più rilevanti nella vita quotidiana dei cittadini. Così lo scorso anno, in seguito ad un progetto pilota, si è deciso di estendere questo alla dimensione della città. Come sezione italiana ci siamo interrogati, a suo tempo, su come adattare il census in Italia guardando le regioni, o province e individuando le dimensioni per cui si ha la competenza per aprire i dati.

    Ieri, però, il buon Andrea Raimondi, ha partecipato all‘Open Data Day di Londra, e lì – assieme a Rufus Pollock – ha preparato il setup per le città italiane. Usciamo dalla logica di pensare a chi detiene la tipologia di dato, cerchiamo piuttosto di creare comunità interessate al tema dell’open data, scalando sulla dimensione cittadina che è quella più vicina alle persone. In questo modo cerchiamo di riuscire a creare un effetto cascata per cui, chiunque ha quei dati, si accorge dell’importanza di renderli disponibili a chiunque.

    censustable

    Scateniamo un po’ di sana concorrenza, cerchiamo di rendere l’Italia una vera realtà open data, facciamolo attraverso questo censimento.

    Diventa anche tu un reviewer di http://it-city.census.okfn.org. È semplice, divertente, crea interesse, crea comunità. Ti aspettiamo! E se la tua città manca non esitare a segnalarcelo, per ora abbiamo inserito i capoluoghi di regione.

    contributecensus

    Un reviewer ha il compito di rispondere ad alcune semplice domande: esiste il dato? è distribuito in formato digitale? è disponibile pubblicamente?  è disponibile gratuitamente? è disponibile online? è in un formato machine-readable? è disponibile interamente? è distribuito con una licenza aperta? è aggiornato? data_entry A cui si aggiungono poi indicazioni su dove si trova il dato, chi lo gestisce, quando è stato rilasciato, il formato ecc… E, infine, di dare un voto da 1 a 10 sulla qualità del dato per struttura e contenuto aggiungendo un commento. Ogni review viene poi messa in discussione da chiunque ne partecipa e così avremo, con il supporto di tutti, una bella visione di insieme della situazione italiana degli open data.

    Pertanto ancora: diventa reviewer! Adotta una città :)

    Usare licenze open non è difficile. Eppure…

    simone aliprandi - 01/22/2014 in Licenze, Open data, Riuso

    Wired Italia toglie la licenza CC dal sito e fa un pasticcio. Ma è così difficile usare correttamente le licenze?

    Faccio subito una premessa: a me Wired è sempre piaciuta come rivista. La conobbi la prima volta quando nel 2004 promosse The Wired CD, uno dei primi e più importanti esempi di compilation di musica sotto licenza Creative Commons, diffusa su scala internazionale.

    Fu così che quando Condè Nast decise di inaugurare nel 2009 l’edizione italiana, io non esitai ad abbonarmi; e da quel momento ho sempre rinnovato l’abbonamento biennale fino ad oggi.

    Nel 2010 accolsi con estrema soddisfazione l’annuncio fatto pubblicamente da Riccardo Luna (primo direttore) di sposare il modello open content. Iniziarono a comparire sulla rivista vari articoli sul mondo open e al sito Wired.it venne applicata una licenza Creative Commons. Ottimisticamente speravo che prima o poi anche la rivista cartacea avrebbe fatto quel passo, quantomeno su alcune specifiche rubriche o su singoli articoli, dedicati appunti ai temi dell’openness e delle nuove forme di diritto d’autore. In fondo, sarò un pedante, ma considero un atto di coerenza che quando si scrive di certi temi, l’autore e l’editore siano i primi a dare il buon esempio. Forse qui chiedo troppo, quindi tralasciamo.

    Purtroppo non fu così; quindi dovetti accontentarmi di vedere solo il sito sotto CC. Era comunque un buon compromesso, dal momento che sul sito c’erano comunque buoni contenuti, spesso sulla falsariga di quelli presenti sulla rivista.

    Nelle scorse settimane, mi capita di tornare sul sito e di notare che è stato fatto un sostanziale restyling del sito web; presto mi accorgo che il link alla licenza Creative Commons è scomparso. Quindi il mio sesto senso di giurista-nerd mi porta presto alla pagina “Condizioni di utilizzo” dove scopro che l’unico residuo riferimento alla licenza Creative Commons è nella sezione “Utilizzo dei materiali e delle informazioni fornite dall’utente”.

    In pratica, i contenuti originali del sito risultano così sotto full copyright (tutti i diritti riservati), mentre l’utente che carica contenuti e scrive commenti deve accettare di farlo nei termini della licenza CC Attribuzione Non Commerciale – Non opere derivate 2.5 Italia. A parte che non si capisce come mai si stata scelta una versione 2.5, quando siamo già arrivati alla 4.0, e che le linee guida per l’uso della licenza richiedono che sia indicato anche il link al testo dove possibile (e lì il link manca)… Ma il problema più sostanziale è che il meccanismo voluto da quei termini d’uso non funziona molto, dato che contraddice i termini stessi della licenza e quindi crea una contraddizione nelle condizioni che l’utente dovrebbe accettare.

    Leggiamo il paragrafo in questione:

    Con la semplice messa on line (o trasmissione) del Materiale sul Sito (o suo invio a Condé Nast), aderisci espressamente al sistema di licenza Creative Commons, nella sua versione “Attribuzione Non Commerciale – Non opere derivate 2.5 Italia”, i cui dettagli sono liberamente consultabili sul sito di Creative Commons. Sei consapevole che in virtù di tale licenza Condé Nast avrà la facoltà di fare qualsiasi uso del Materiale in tutto il mondo e senza limiti temporali – con ogni più ampia facoltà di cedere o concedere tale diritto in sub-licenza a soggetti terzi – a fronte della sola attribuzione della paternità del Materiale.

    Innanzitutto non si capisce bene la vera natura di questo “diritto di sub-licenza” e soprattutto la sua effettiva compatibilità con quanto stabilito dalla licenza. Poi la frase “a fronte della sola attribuzione della paternità del Materiale” non sta in piedi, dato che la licenza scelta impone altre condizioni rispetto alla sola “attribuzione”.

    Il dubbio che mi viene è che chi ha redatto quei termini d’uso non abbia molto chiaro il senso delle licenze Creative Commons.

    Detto questo, bisogna anche dire che l’editore di Wired è libero di scegliere il modello di gestione del diritto d’autore che risulti più adatto al suo modello di business; ci mancherebbe. Personalmente non condivido questi cambi di rotta, ma è legittimo e giuridicamente. Però, che almeno venga fatto in una maniera che risulti giuridicamente corretta. A mio avviso, un “accrocchio” giuridico come quello che si legge oggi nelle condizioni lo si può trovare sul sito di una piccola associazione culturale o di una band indipendente, ma non su quello di una delle principali case editrici del pianeta, che sicuramente ha al suo interno un ufficio legale.

    Poi pensiamo ad un altro aspetto del problema, che forse è l’aspetto principale. Qual è il destino dei contenuti che in questi quattro anni sono stati pubblicati con licenza CC? Con questo quesito in testa, vado nella sezione blog del sito dove l’amica Flavia Marzano tiene un utile blog di notizie e commenti sul mondo open, e scopro che anche lì è sparito il riferimento alla licenza, e addirittura il link alle condizioni di utilizzo è “rotto”. Rimango ulteriormente perplesso.

    Tuttavia, lungi da me “crocifiggere” i giuristi di Condè Nast. Tutti possono commettere imprecisioni e tutti possono riparare, come spero facciano al più presto.

    Ma questo episodio mi offre l’occasione di riflettere pubblicamente su un tema a me caro e su cui forse risulto un po’ bacchettone; mi chiedo cioè: ma è davvero così difficile utilizzare correttamente le licenze open?

    Il caso di Wired (che appunto ha l’aggravante di avere tutte le risorse per fare le cose nel modo corretto) è solo uno dei tanti casi di uso “fantasioso” di licenze open, (al di là che si tratti di licenze per contenuti, come le Creative Commons, o di licenze per progetti software, come la GPL. Basta leggere gli archivi delle liste ufficiali di CC per trovare regolari segnalazioni in tal senso.

    Io mi occupo di questo tema (sia come avvocato sia come divulgatore) da un bel po’ di anni ormai e devo ammettere che all’inizio le informazioni che circolavano erano poche, non chiare e difficili da trovare. Ora però la rete pullula di manuali, guide pratiche, articoli divulgativi, filmati esplicativi, saggi scientifici che spiegano come operare. Ci sono anche numerosi forum online (sulle mailing list e sui social network) nonché veri e propri sportelli di consulenza gratuiti a cui rivolgersi.

    Quindi basta davvero un piccolo sforzo intellettuale e un po’ del nostro tempo per entrare nell’ottica giusta. Se non si ha voglia di fare questo sforzo, ci sono consulenti specializzati (anche detti avvocati) che possono offrire il loro contributo sotto forma di prestazione professionale. Ma l’opzione “tutto subito, tutto gratis, tutto senza fatica”, benché sia molto di moda in Internet, non è contemplata, mi spiace.

    - - - - - - - - - - - - -
    Articolo sotto licenza Creative Commons Attribuzione – Condividi allo stesso modo 4.0