Italia
Sapere libero per tutti

Open budget data: un nuovo progetto per mapparne l’impatto

Francesca De Chiara - 03/04/2015 in Open data, Ricerca

Jonathan Gray annuncia che sta per partire un nuovo interessante progetto di ricerca che esaminerà l’impatto dei dati di bilancio aperti (open budget data). Open Knowledge è coinvolta insieme a Digital Methods Initiative dell’ Università di Amsterdam, con il supporto di Global Initiative for Financial Transparency (GIFT).  Un po’ di dettagli: il progetto includerà uno studio empirico che mapperà chi è attivo nell’ambito degli open budget data nel mondo, i temi principali, le opportunità e le sfide a partire dai differenti attori coinvolti. Sulla base di questa mappatura, verrà fatta una revisione di definizioni e concetti inerenti a open budget data, delle argomentazioni a supporto del perchè sono importanti, le migliori pratiche per la pubblicazione e il coinvolgimento, e inoltre,  una ricognizione puntuale sulle applicazioni e i risultati ottenuti nei diversi paesi in giro per il mondo. Facendo leva sulla grande esperienza acquisita da Open Knowledge nel campo dei dati di bilancio, open budget (attraverso progetti come OpenSpending), il progetto utilizzerà strumenti innovativi e metodologie sviluppati dall’Università di Amsterdam per sfruttare a pieno le risorse e i dati presenti sul web, social media e collezioni di documenti per informare e arrichire l’analisi. Open Knowledge ha lanciato per questo motivo una bibliografia collaborativa che conterrà letteratura e ricerche esistenti su open budget data e argomenti associati che potrà diventare un’utile risorsa anche per altre associazioni, ricercatori, attivisti, policymaker che lavorano in quest’area. Se avete suggerimenti su elementi o articoli da aggiungere, mantenetevi in contatto. Questo progetto segue altri progetti di ricerca che Open Knowledge ha condotto su questo tema – inclusi i lavori sui data standards per la trasparenza fiscale, sulla tecnologia per una finanza pubblica responsabile e la mappatura della comunità legata a Open Spending.

Financial Transparency by Open Knowledge

Financial transparency field network realizzata con Issuecrawler basata su analisi hyperlink partendo dai membri della Financial Transparency Coalition, 12 Gennaio 2015. Credits:Open Knowledge e Digital Methods Initiative

 

Potete aggiungere liberamente i materiali che desiderate su Zotero.

Questo post è la versione italiana riadattata di New research project to map the impact of open budget data di Jonathan Gray.

Aperto il programma di micro finanziamenti per chi organizza l’Open Data Day: presenta oggi la domanda!

anna - 01/29/2015 in events, Incontri, Open data

questo articolo è la versione italiana di Launching Open Data Day Coalition Micro-Grant Scheme: Apply Today!


OPEN DATA DAY 2015 è alle porte, e diversi partner si sono uniti per fornire un numero limitato di micro-finanziamenti destinati a sostenere le comunità che organizzano attività ODD in tutto il mondo!

L’Open Data Day (ODD) è uno degli eventi più interessanti dell’anno. Come un qualsiasi evento su base volontaria, con nessuna organizzazione alle spalle, l’Open Data Day offre l’opportunità perfetta per le comunità di tutto il mondo di convocare, celebrare e promuovere gli open data nelle modalità più pertinenti ai propri concittadini. Quest’anno, Open Data Day si svolgerà Sabato 21 Febbraio 2015, ed è stata costituita una coalizione di partnerper contribuire a rendere l’evento più grande (e si spera anche migliore) di quanto sia mai stato prima!

Nonostante l’Open Data Day sia sempre stata un’iniziativa condotta volontariamente, l’organizzazione di un evento, spesso risulta costosa, a partire dall’affitto del luogo dove si svolge l’evento stesso, alla necessità di fornire una connessione wifi adeguata, alla possibilità di offrire ristoro ai volontari, storyteller, esperti di dati (data wrangler), sviluppatori che mettono a disposizione il loro sabato per garantire che gli open data siano a disposizione dei cittadini delle loro comunità. Lo scopo è coprire i costi di gestione dell’evento.

La nostra coalizione Open Data Day è costituita da organizzazioni che si occupano di dati aperti, di conoscenza aperta e di open access e che sono interessate a fornire un sostegno alle comunità che organizzano attività ODD. Questa idea è nata da un evento che è si è svolto l’anno scorso in Kenya, durante questo evento un piccolo supporto economico ha aiutato gli organizzatori locali a far si che realizzassero un evento straordinario, facendo conoscere gli open data a nuove persone. Questo è esattamente ciò che stiamo cercando di realizzare con l’Open Data Day!

Seguendo quell’esempio, quest’anno, per la prima volta, siamo orgogliosi di annunciare la disponibilità di un numero limitato di piccole sovvenzioni, fino a 300 $, destinate a supportare le comunità che organizzano eventi straordinari, senza dover pesare sulle proprie tasche. La coalizione fornirà anche altri tipi di supporto in natura, sotto forma di tutoraggio e orientamento o semplicemente fornendo un elenco di attività da svolgere che si sono dimostrate efficaci nel coinvolgere nuove comunità!

La coalizione è composta dai seguenti organizzazioni (in ordine alfabetico): Caribbean Open Institute, Code for Africa, DAL, E-Democracy, ILDA, NDI, Open Access Button,>Open Coalition, Open Knowledge, Sunlight Foundation e Wikimedia UK.

Come partecipare? Read the rest of this entry →

open data global index: il dietro le quinte del censimento per l’Italia

Maurizio Napolitano - 12/12/2014 in Open data

Da qualche giorno, lato Open Knowledge core è stato lanciato l’annuncio dell’aggiornamento del Global Open Data Index, il censimento open data degli stati del mondo. Questa iniziativa ha avuto un ruolo molto importante nel 2013 in quanto, presentando una classifica, ha cominciato a far sensibilizzare sul tema le varie nazioni contribuendo così a spingere anche alla nascita della Open Data Charter del G8

Il censimento ruota intorno ad 10 indicatori considerati “bene comune”, ovvero quell’insieme di dati che ogni persona percepisce come naturalmente rilasciati in open data. Si tratta di bilanci statali, statistiche nazionali, risultati elettorali, leggi, spese di governo, emissioni degli inquinanti, registro delle imprese, codice di avviamento postale, tabelle di attesa degli orari di trasporto pubblico e mappe nazionali. Informazioni che ogni cittadino di ogni stato del mondo dovrebbe avere il diritto di conoscere e di accedervi. Portarle in open data vuol dire aumentarne il riuso, ma tutto questo è realmente open data? Per capirlo occorre che, ciascuna di queste variabili, abbia poi delle caratteristiche comuni: esistere, essere in un formato digitale, disponibile pubblicamente, gratuitamente e online, in un formato machine readable, in forma completa, accompagnato da una licenza aperta e aggiornato tempestivamente. Piccoli particolari che fanno però capire quanto quella risorsa esiste e sia realmente riusabile.

indexglobalita Il processo di raccolta avviene attraverso un gruppo di volontari che rispondono alle domande e danno le informazioni per verificarle. In Italia hanno contributo a risponde alle domande: Laura James, Stefano Bandera, Gianfranco Andriola, Andrea Raimondi, Oluseun Onigbinde, Tryggvi Björgvinsson, Maurizio Napolitano, Michele Barbera e Aurelio Cilia; mentre la verifica è stata fatta da Sander van der Waal e Maurizio Napolitano. Il risultato per il 2014 ha portato l’Italia sotto di 5 posizioni rispetto al 2013. Le motivazioni sono evidenziate nella sezioni “stories” del sito stesso con un commento di Maurizio Napolitano. Qui riportate in italiano Sono contento di vedere che, per questa edizione del Global Open Data Index, ci sono nuovi nomi di contributori. La posizione italiana è scesa però di qualche posto rispetto al 2013. Questo perché abbiamo deciso di essere più rigorosi su alcuni set di dati che sono stati rilasciati, ma non sono stati aggiornati e si è fatta maggiore attenzione a vedere quale è l’ente, che, da un punto di vista delle competenze, si occupa di quel rilascio. Non ci sono state evidenti miglioramenti. Nell’edizione del 2013 c’è stato un grande entusiasmo per un insieme di dati tipo geografico, ma questo non è poi stato aggiornato. L’adesione alla Carta Open Data del G8 dell’Italia ha fatto si che l’Agenzia per l’Italia Digitale desse vita ad una agenda per l’apertura di alcuni dataset chiave che rientrano poi nelle richieste del Global Index. Secondo l’agenda, molti di questi dati (es. i codici di avviamento postale), saranno rilasciati entro dicembre 2014. Se questo avverrà, sicuramente la posizione dell’Italia per il 2015 sarà in una posizione migliore. In termini di dati di trasporto pubblico, purtroppo la situazione non è ancora risolta: ci sono diverse agenzie che hanno aperto i dati ma molte altre non lo hanno fatto. Nell’anno precedente si era considerato come “trasporti pubblici”, gli orari di Trenitalia (che comunque non sono tutt’ora rilasciati come open data), quando invece la richiesta esplicita e sulle linee degli autobus urbani ed extra-urbani. Quello che lascia perplessi è vedere che ci sono molte agenzie che rilasciano i dati sulla piattaforma Google Transit, ma non sembrano voler fare il passaggio del rilascio in open data. Il ruolo del Global Open Data Index è estremamente importante – la classifica sempre aiutano a incoraggiarci a fare meglio la prossima volta. Partecipare al processo di revisione è anche un ottimo modo per prendere coscienza della situazione del proprio Paese. Dal mio punto di vista si tratta di un esercizio molto importante, e se si trova un buon numero di contributori, si può avviare un dibattito interessante per aiutare a migliorare il processo di apertura dei dati. È per questo motivo che incoraggio tutti a partecipare al processo di revisione del censimento open data delle città italiane – it-city.census.okfn.org/

Open Definition: versione 2.0

Francesca De Chiara - 11/09/2014 in Licenze, Open data, open definition, openknowledge, Riuso

Lo scorso 7 ottobre Open Knowledge in collaborazione con Open Definition Advisory Council ha annunciato il rilascio della versione 2.0 della Open Definition. In italiano trovate on line la traduzione della versione 1.0 qui. Nella Open Definition si dichiarano i principi di base che definiscono il significato di “openness”, apertura, in relazione a dati e contenuti. La Open Definition ha avuto un ruolo chiave di supporto nella crescita dell’ecosistema open data, come ribadisce Rufus Pollock in questo post. Il contributo in termini di concettualizzazione e sforzo definitorio portati a termine con Open Definition restano cruciali. Negli ultimi anni il numero di dataset rilasciati è cresciuto esponenzialmente, evidenziando i benefici connessi al riutilizzo. Avrete sentito sicuramente citare ampiamente le stime di McKinsey contenuto nel report di fine 2013 sul potenziale economico dei dati aperti.  Tuttavia, una riflessione sui rischi di open-washing, sull’importanza della distinzione tra dati “aperti” e dati “disponibili”, e della frammentazione nell’ecosistema open data a causa della crescente incompatibilità tra licenze aperte, resta necessaria. La Open Definition vuole eliminare questi rischi, mantenendo la funzione essenziale di “standard” di riferimento. Qualità, compatibilità e semplicità sono le tre parole chiave.

Open non significa solo disponibile -  Key Lock by im icons from The Noun Project

Open non significa solo disponibile 
Key Lock by im icons from The Noun Project

 

Qualità – Semplicità – Compatibilità : 3 elementi chiave della Open Definition

Quality Okay by Stephanie Wauters from The Noun Project

Qualità
Okay by Stephanie Wauters   from The Noun Project

Compatibilità Compatible by Michel Demers from The Noun Project

,,,,

Semplicità
Paper Plane by Daniel Pang from The Noun Project

 

Qualità: open data dovrebbe significare libertà per tutti di accedere, modificare e condividere quei dati. Tuttavia, senza uno standard ben definito che chiarisca in dettaglio cosa significa “open”, rischiamo di assistere a crescenti tentativi di confondere la natura dei dati da considerare davvero “aperti” . Open Definition, in questi termini, si concentra essenzialmente su controllo della qualità.

Compatibilità: senza una definizione condivisa diventa impossibile comprendere cosa sia realmente “open”. L’incompatibilità dovuta alle differenze nei termini d’uso possono di fatto impedire la libertà di riutilizzo e di combinazione dei dataset aperti, azzerando così i maggiori benefici offerti dall’open data. Il rischio di incompatibilità cresce perchè molti open data sono rilasciati sotto licenze create appositamente. Alcuni governi hanno scritto differenti versioni di licenze aperte, che potenzialmente rischiano di non essere mutualmente compatibili con altre licenze aperte preesistenti.

Semplicità: grande promessa implicita nell’open data è la semplicità e facililtà di utilizzo. Questo non significa soltanto che l’accesso ai dati è garantito senza costi, ma significa che non c’è più necessità di assumere un giurista per le licenze, che non devi pensare a cosa puoi fare e cosa non puoi fare, nella tua attività di impresa o  di ricerca, per esempio. Una chiara e condivisa definizione permette di eliminare qualsiasi timore rispetto alla complessità dei limiti imposti da termini d’uso o licenze, ma anche rispetto a modalità di riuso e condivisione.

La prima versione della Open Definition fu pubblicata nel 2005 da Open Knowledge, la nuova versione lanciata il 7 ottobre è stata aggiornata grazie all’impegno degli esperti di Open Knowledge Advisory Council. La nuova versione della Open Definition rappresenta la revisione più significativa fatta negli ultimi dieci anni.

Il processo di discussione e consultazione con la comunità ha richiesto più di un anno, se si includono gli input degli esperti coinvolti.  Sebbene non ci siano cambiamenti nei principi di base, la Open Definition è stata completamente rielaborata e riproposta con una nuova struttura, un nuovo testo e una revisione delle licenze.

Herb Lainchbury, Chair di Open Definition Advisory Council, ha dichiarato:

“la Open Definition descrive i principi che definiscono l’apertura, “openness”, in relazioni ai dati e ai contenuti, ed è utilizzata per valutare se una particolare licenza soddisfa quello standard. Un obiettivo fondamentale di questa nuova versione è rendere più facile valutare se il crescente numero di licenze aperte soddisfa realmente quei criteri. Aumentare il più possibile il livello di fiducia nel riutilizzo delle opere “aperte” ci permetterà anche di concentrarci su come estrarre valore da quelle opere.”

Rufus Pollock, Presidente e fondatore di Open Knowledge ribadisce:

“Da quando abbiamo creato la Open Definition nel 2005, essa ha giocato un ruolo chiave nella crescente comunità dell’open data e dell’open content. La Definition è come il “gold standard” per i dati e i contenuti aperti, garantendo qualità e prevenendo incompatibilità. Come standard, la Open Definition ha un ruolo fondamentale nel sostenere la “open knowledge economy” con un valore potenziale di centinaia di miliardi e più, in tutto il mondo.”

Le novità della versione 2.0 di Open definition:

La nuova versione è stata sviluppata in collaborazione con esperti coinvolti nelle comunità dell’open access, open culture, open data, open education, open government, open source e wiki.

Queste le novità contenute nella versione 2.0 della definizione:

  • I principi fondamentali sono stati completamente riscritti – conservando lo stesso significato ma usando un linguaggio più semplice e charificando aspetti chiave.
  • Viene introdotta una netta separazione della definizione di licenza aperta da quella di opera aperta (open work), con quest’ultima che dipende direttamente dalla prima. Questo non solo semplifica la struttura concettuale ma offre anche una definizione appropriata di licenza aperta rendendo più facile l’auto-valutazione delle licenze conformi alla Open Definition.
  • L’opera aperta viene definita secondo questo insieme di tre principi:
  1. Licenza aperta (Open Licence): L’opera deve essere disponibile sotto una licenza aperta.
  2. Accesso: L’opera deve essere disponibile nella sua interezza ed a un costo di riproduzione ragionevole, preferibilmente tramite il download gratuito via Internet (presente nella versione 1.0).
  3. Formato aperto: L’opera deve essere fornita in un formato modificabile in modo che non ci siano ostacoli tecnologici allo svolgimento delle attività secondo i diritti garantiti dalle licenze.  Nello specifico,  i dati devono essere leggibili dalle macchine, disponibili nella loro interezza e in un formato aperto, o almeno, che possano essere elaborati con software libero, open source. Ciò può essere conseguito mediante la messa a disposizione dell’opera in un formato aperto, vale a dire un formato le cui specifiche siano pubblicamente e liberamente disponibili e che non imponga nessuna restrizione economica o di altro tipo al suo utilizzo.
  • E’ stato incluso un processo di approvazione della licenza per facilitare i creatori di licenze nel meccanismo di controllo di conformità con la Open definition e incoraggiare il riutilizzo delle licenze aperte preesistenti.

Informazioni aggiuntive

Qui trovate il Github repository di Open definition.

Qui trovate i blog post in inglese sulla Open Definition rielaborati in questa versione italiana.

Qui trovate la versione italiana della Open Definition 1.0 dal quale abbiamo estratto alcuni riferimenti.

 

     

    #OpenData Story of the Day: Agenzia delle Entrate, perché non uscite?

    Francesca De Chiara - 07/07/2014 in Open data

    In vista di uno scoppiettante OKFestival 2014 a Berlino (a proposito il contingente italiano quest’anno è ben rappresentato, stay tuned!) rilancio qui su Open Knowledge Foundation Italy il post bomba del nostro ambassador Maurizio Napolitano che stamattina risuona come l‘Italian Open Data Story of the Day! La versione originale la trovate qui.

     

    path3050-300x243

    Il duomo di Messina attraversato da una strada sul sito Agenzia delle Entrate

    Fra i tanti momenti condivisi con Simone parlando di OpenStreetMap ricordo ancora con piacere il viso incredulo di un ragazzo che lo stava ascoltando con queste parole “Vedi! Il giardino di casa mia ha un paio di alberi, dei percorsi ed un laghetto. Tutte cose private che non ho problemi a nascondere e che ho rappresentato su OpenStreetMap. Non c’è nessuna mappa al mondo che lo ha”. Viso incredulo ma anche soddisfatto che portò il ragazzo ad essere un nuovo mapper. A distanza di molto tempo, quella “insolita” mappa, ha dato vita ad un nuovo progetto fra AndreaCristian, Simone, Stefano e me. Il tutto nasce visitando il sito dell’Osservatorio del Mercato Immobiliare (OMI)dell’Agenzia delle Entrate, dove, il giardino di Simone, ma anche molti altri dettagli che la comunità di OpenStreetMap è solita raccogliere, sono presenti su quella mappa online. I colori scelti per la mappa sono anche accattivanti, ed anche le etichette sono ben piazzate.

     

    Visitando qua e là, e conoscendo il proprio territorio, ci si accorge però che quelle mappe sono dannatamente uguali a quelle di OpenStreetMap.

    Scavi di Pompei su sito dell’ Agenzia delle Entrate

    Appaiono però diversi particolari degli scavi di Pompei, e nomi di edifici un po’ bizzarri come Centro Servizi Culturali S. Chiara – Scuola di Musica “I Minipolifonici” (sede provvisoria).

    Le segnalazioni si sono moltiplicate da parte di Andrea e Stefano, e, cosi Cristian ha sviluppato un sistema per confrontare le aree, e il risultato è molto chiaro: l’Agenzia delle Entrate ha deciso di utilizzare gli oggetti di tipo poligonale presenti in OpenStreetMap sul proprio sito integrando poi con i dati di uno stradario (a giudicare da questo articolohttp://www.ilsole24ore.com/art/tecnologie/2010-10-21/tutta-italia-georeferenziata-064638.shtml si direbbero dati Navtech). Molta amarezza da parte di chi, nel progetto OpenStreetMap crede tantissimo, nel vedere questa assurda violazione di licenza. Ironia a denti stretti per chi invece si interroga sul ruolo dell’agenzia delle entrate visto che gestisce anche il catasto!
    Sitio Agenzie Delle Entrate

    Sito Agenzie Delle EntrateOpenStreetMapOpenStreetMap

    Ma come? L’ente che gestisce i dati catastali non è in grado di produrre una mappa con i propri dati, proprio quelli dell’edificato? Eppure GEOPoi è creato da una azienda come SOGEI, che di sicuro ha tutti i mezzi sviluppare software (lo dimostra anche il fatto che la logica di distribuzione delle loro mappe non segua degli standard che hanno reso quindi difficile anche la creazione del tool di comparazione).
    Da qui la campagna “AGENZIA USCITE!“, un gioco di parole, apparentemente poco originale, ma invece con molti messaggi:   AGENZIA delle entrate, USCITE dalla vostra logica difensiva e cominciate a collaborare AGENZIA delle entrate, USCITE con i dati del catasto in open data AGENZIA delle entrate, USCITE dal nascondere l’uso di openstreetmap e collaborate invece a questo bene comune. … tra l’altro il tool di Cristian ha pure creato una interfaccia più comoda per consultare le loro mappe :) A tutti gli amici e amiche invece l’invito è di navigare la mappa d’Italia e individuare le somiglianze segnalandole su mappa a e via twitter #agenziauscite   …. ed è molto divertente perchè poi si scoprono cose come questa e ci si domanda :  “Ma quella rotonda è stata costruita si o no?”

    ma_dove_sta_la_rotonda-1024x476

     

    Il resoconto degli Sports Hackdays di Milano

    Maurizio Napolitano - 06/04/2014 in Incontri, Open data

    Per chi non c’era ai primi Sports Hackadays del 23 e dell 24 maggio:

    • 120 tra sviluppatori, designer e data scientist che hanno accettato la sfida di mostrare cosa può essere fatto con i dati sportivi;
    • 3 città, Milano, Basilea e Sierre, che hanno ospitato in contemporanea e in collegamento tra loro gli Hackdays coprendo ognuna aspetti differenti del vasto mondo dei dati sportivi;
    • 36 tra fonti online e dataset, tra i quali dati ufficiali che per la prima volta venivano messi a disposizione di un largo pubblico;
    • il racconto, illuminante e inedito, di come i dati sportivi vengono raccolti e utilizzati da aziende leader come Deltatre e Technogym.

    Un’avventura in cui la venue di Milano ha avuto il compito d’indagare come vengono raccolti i dati sportivi, quali sono i modelli di valorizzazione del dato e quali gli ostacoli ad un’apertura dei dati da parte delle grandi federazioni internazionali. hackdays_mi

    All’evento milanese era presente Deltatre, l’azienda torinese che produce le statistiche e i dati di approfondimento mostrati sullo schermo durante la trasmissione di Olimpiadi, Mondiali di calcio e Champions League, che ci ha introdotto nelle misteriose, per i più, tecniche di raccolta dei dati in ambito calcistico (fatte di inviati, i cosiddetti “spotter”, che, dotati di controller per console appositamente modificati, raccolgono sul campo dati che vengono in tempo reale integrati con quelli provenienti da sistemi di tracking video, così da ottenere un completo strumento di match analysis) e nelle attuali politiche di condivisione del dato da parte delle grandi federazioni internazionali (FIFA, UEFA e CIO).

    C’è stata poi Technogym, che ha mostrato come utilizza i dati raccolti dalle proprie macchine e dai device che possono essere abbinate alla piattaforma Android sviluppata dall’azienda, offrendo l’occasione ai partecipanti di vedere svelate quali sono le reali applicazioni di business per dati a cavallo tra il Quantified Self e la performance analysis.

    Ma un hackathon è un hackthon e anche a Milano, come a Basilea e Sierre, i team hanno prototipato e sviluppato: protagonisti del lavoro dei team sono stati i dati del Tor de Géants, l’ultratrail valdostano considerato il più duro al mondo e i cui responsabili erano con noi a spiegarci le peculiarità di una corsa di 5 giorni in cui i dati di ogni singolo partecipante, per ragioni di sicurezza e logistiche, sono essenziali. Altri team si sono misurati con il sistema Technogym su base Android, prototipando app per la performance analysis in real­time.

    Il contributo di Milano si è aggiunto allo straordinario lavoro di Basilea, forte della presenza della comunità di Opendata.ch e di Sierre, in cui l’hackathon era ospitato dalla Haute Ecole de Gestion & Tourisme, che hanno contribuito con progetti di grande valore alla riuscita degli Sports Hackdays.

    Da queste due giornate, con OKF che sta lavorando per creare un working group sui dati sportivi e altre grosse iniziative all’orizzonte, ha ora preso il via un difficile ma interessantissimo percorso di avvicinamento tra due mondi distanti quali quello degli open data e quello dei dati sport.

    La partita è appena cominciata!

    nota: testo di carlo toccaceli blasi – promotore dell’iniziativa

    Al via gli Sport Hackdays

    Maurizio Napolitano - 05/23/2014 in events, Open data

    23-24 maggio più di 60 tra coder, designer e data scientist interessati a dare un contributo al mondo opendata, si incontreranno a Milano per gli Sports Hackdays, due giorni che daranno l’occasione a tutti i partecipanti di misurarsi con l’affascinante e complesso mondo dei dati sportivi.

    sprintGli Sports Hackdays sono il primo, grande hackathon internazionale sui dati dello sport. lanciato da OKF. Milano, Basilea, Vienna e Sierre ospiteranno in contemporanea due intensi giorni di Data Mining, Data Visualization e sviluppo di applicazione su dati di federazioni sportive, centri di ricerca e semplici tifosi ed appassionati. Performance atletiche, passaggi tra giocatori, dati biometrici, chilometri percorsi in bici: tantissime discipline sportive e tantissimi dati, molti dei quali verranno aperti in questa occasione. Il mondo dello sport è d’altronde un mondo di dati. Il più delle volte chiusi e costosi, i dati sportivi sono restati lontani dall’interesse dei più, appannaggio di pochi appassionati e di aziende del settore.

    Con quest’evento OKF Italia, che organizza gli Sports Hackdays Milano insieme a Tuxtax, startup di Data Visualization, vuole dimostrare il valore dell’opendata anche nello sport, ma soprattutto di far crescere un comunità che possa nel tempo lavorare attivamente su queste affascinanti tematiche.

    All’evento di Milano sarà presente Technogym, l’azienda italiana azienda leader mondiale nella realizzazione di attrezzature per il fitness, che porterà con sé attrezzature da allenamento equipaggiate con la nuova console UNITY basata su sistema Android, su cui i partecipanti all’hackhaton potranno lavorare e sperimentare. E ancora sarà a fianco dei partecipanti Deltatre, azienda torinese che cura le visualizzazioni dei maggiori eventi sportivi internazionali (tra cui Olimpiadi, Coppa del Mondo di Calcio, Champions League), per mostrare le peculiarità dello sviluppo di servizi informativi per lo sport. Un’importante occasione per far comprendere a due aziende leader mondiali nei propri settori, il valore aggiunto degli opendata.

    Per ogni informazione http://tuxtax.ch/sports-hackdays-milano.html Hashtag per seguire l’evento su twitter: #HackSports

    nota: testo di carlo toccaceli blasi – promotore dell’iniziativa

    Chi ha paura dell’openaccess ?

    raimondi - 04/04/2014 in Cultura, openaccess, Ricerca

    Nel numero di ottobre delle rivista Science John Bohannon pubblicava un articolo intitolato “Who’s afraid of Peer Review” con lo scopo di mostrare quando inefficiente fosse il controllo sulla qualità delle pubblicazioni Open Access. Le risposte non si fecero attendere. Il paper generò una moltitudine di post da parte di moltissimi ricercatori. Uno di questi, molto dettagliato, si intitolava altrettanto provocatoriamente “Who’s afraid of Open Access” e portava la firma di Ernesto Priego, direttore del corso di Electronic Publishing alla City University of London. Priego evidenziava con chiarezza le molte lacune nel metodo di  Bohannon.

    Non era presente un controllo comparativo tra le riviste openaccess e le più classiche subscription based. Non era presente un controllo orizzontale rispetto alle diverse discipline di ricerca, ad esempio le Humanities, rispetto al quale il controllo comparativo poteva essere pesato. Non erano presenti chiari criteri di selezione delle fake submissions che potessero rappresentare una solida base per sostenere l’ipotesi dell’articolo.

    Dal punto di vista prettamente scientifico il paper non forniva nessuna evidenza rispetto alla qualità delle pubblicazioni openaccess se non un banale risultato: c’è bisogno di un maggiore controllo sulla peer review. Un risultato che, d’altra parte, sembra comune a tutte le riviste, Science compresa. Da qui la provocazione di Priego:

    We are not afraid of peer review. Who’s afraid of open access? That is the question.”

    Era evidente che Science ne era uscita male dal confronto, facendo una chiara brutta figura. Niente di nuovo sotto il sole. La rivista, vale la pena ricordarlo, era già stata oggetto di simili eventi quando aveva pubblicato il falso articolo sulle forme di vita all’arsenico. Alla direzione editoriale probabilmente era sfuggito come Michael Eisen, biologo alla Berkley University e autore del paper incriminato, per sua stessa confessione avesse brillantemente adottato la stessa strategia per evidenziare le lacune denunciate da Bohannon sul loro prodotto editoriale.

    La comunità degli advocate non si raccapezzava proprio come Marcia McNutt, Editor-in-chief di Science, avesse valutato il paper prima di tesserne le lodi nella summary del numero di ottobre. L’approccio paternalistico della McNutt mancava proprio il bersaglio quando si trattava di fare quello che lei stessa raccomandava alla comunità dei ricercatori: porgere più attenzione sull’accuratezza e sulla valutazione dei metodi di revisione. Ipocrisia e malafede, due cose che di solito rovinano un buon ragionamento.

    Per questo la sfida di Priego, e di tutti quelli che hanno contribuito ad alzare la voce a difesa dell’openaccess, non deve rimanere chiusa nella semplice provocazione. Come ha scritto di recente David Eaves, opendata advocate in Canada, leggere le critiche è importante. Ci aiuta meglio a formulare i nostri argomenti, ci rende più intelligenti e migliori, perché più responsabili. La critica ci aiuta anche a conservare una memoria degli eventi, ma solo se da questi contribuiamo a creare argomenti di dibattito.

    In un paese come l’Italia, la ricerca è diventata un disvalore proprio perché, a poco a poco, il pensiero critico in ambito pubblico è diventato il peccato più grande.

    Ad alcuni mesi di distanza il polverone sollevato da Science può dare agli open advocate –chiunque si batta per la causa di una maggiore partecipazione nei processi fondamentali della società– almeno tre argomenti sui quali riflettere.

    Siate più critici – sostenere che ci sia qualcosa da aprire, in questo caso l’accesso alle pubblicazioni scientifiche, è una rivendicazione politica di interessi sociali. Di conseguenza va trattata come tale, dichiarandola apertamente e senza paura. Perché la trasparenza si fa anche e soprattutto scoprendo le carte e motivando in modo ragionevole perché è meglio decidere x piuttosto che y.  Nel caso di Science è normale essere contro l’openaccess perché si è a difesa del proprio modello di business. Ma la strategia del pavone non funziona se il tuo modello subscription based è già minato dalla presenza di framework nazionali e comunitari che impongono la pubblicazione open per ricerche finanziate con soldi pubblici. La qualità del meccanismo passa in secondo piano quando il punto è scegliere se cambiare il modello con il quale si produce e si distribuisce ricerca oppure no.

    Trasformate la tensione in coesione – all’interno dell’openaccess esiste una tensione reale. Concordiamo sulla necessità di accelerare il knowledge transfer in tutti i campi della ricerca –dalle scienze naturali alle umanistiche. D’altra parte c’è unanime disaccordo sul modello di business: per veicolare il valore dell’OA dobbiamo anche fornire un modello che non faccia ricadere i costi soltanto su uno degli attori e che dia  vantaggio a tutte le parti in gioco –editori, enti, ricercatori., lettori, investitori. Rendere la scelta politica permette di raggiungere un punto fondamentale: qualunque sia la soluzione proposta, se non è partecipata è destinata a fallire sul nascere. Se non si condivide il perché di un’azione nessuna azione può avere successo, perché mancherà di contributi reali.

    Abbattete muri – i problemi della ricerca non toccano i ricercatori finché i ricercatori non sono toccati dai problemi. E per esperienza, non fate mai arrabbiare un ricercatore. Ma sono tendenzialmente pigri, finché non trovano uno strumento per lottare. Qui ne propongo uno, facile, veloce, ed efficace. Si chiama “OpenAccessButton”, un bottone da aggiungere alla bookmark bar del proprio browser che permette di segnalare ogni qual volta ci si scontra con un paywall. Il paywall è la pagina che richiede il pagamento per la visione di una pubblicazione.  Il progetto, che è online da qualche mese, è in open source e permetterà di quantificare la domanda di accesso alle pubblicazioni chiuse. Insieme, anche di accrescere la consapevolezza all’interno della stessa comunità dalla quale la questione dell’Openaccess dovrebbe emergere con più forza.

     

    #invasionidigitali + #beniculturali con l’unione #liberiamolacultura

    luca corsato - 03/18/2014 in beniculturaliaperti, Cultura, Open data, OpenGLAM, openheritage, openknowledge

    Incontro_di_leone_magno_e_attila_01Ci si chiedeva “come mai non si ottengono risultati”

    Ci si chiedeva “come mai non si ottengono risultati”. Ci si chiede perché il movimentismo rumoreggia forte ma ottiene poco. In attesa di scoprire quali possano essere le risposte definitive, noi sperimentiamo se è ancora valido il concetto di l’unione fa la forza. Il progetto #beniculturaliaperti si fonde in #invasionidigitali.

    Nell’era di tutti connessi

    Nell’era di tutti connessi si ipotizza che il network possa essere contemporaneamente garanzia di individualismo e comunità, ma come sempre i concetti richiedono l’applicazione e questa deve tener conto dei contesti e delle persone. InvasioniDigitali sono innanzittuto persone che hanno trovato il modo di rappresentarsi in un’azione ovvero l’occupazione fisica dei luoghi. #beniculturaliaperti si è rappresentato in un concetto che considera i dati dell’arte un elemento fondante di conservazione, ricerca scientifica, evoluzione professionale. Quindi i due progetti sono assolutamente complementari: perché non fondersi?

    http://youtu.be/hYyLH9l4_EM

    Oggi siamo davvero felici di darvi questa notizia!

    Oggi siamo davvero felici di darvi questa notizia! Per questo #‎invasionidigitali‬ e ‪#‎beniculturaliaperti‬ sono lieti di annunciare la loro fusione in un’unica invasione: allegramente come si è sempre fatto entreremo nei luoghi che abbiamo ereditato e che vogliamo vivere in ogni loro aspetto. Quello in cui crediamo lo trovate nel nostro manifesto “rinforzato”, mentre il motivo che ci ha spinto a convolare a giusta unione è presto detto: quando si hanno intenti comuni è fondamentale unire le forze e concentrarsi sull’obiettivo. Noi invadiamo e sappiamo che solo la forza d’urto della banda può portare trasformazione e quindi siamo disinteressati al chi e ci concentriamo sul quanti e come, perché la forza non sta nei nomi ma nella condivisione delle idee, degli obiettivi, del divertimento e siamo pronti ad abbracciare chiunque voglia venire a fare con-fusione con noi!

    1920605_472859749509522_1145539967_n

    Il Manifesto: Crediamo che

    Il Manifesto: Crediamo che l’applicazione al settore dei beni culturali delle nuove forme di comunicazione partecipata e della multimedialità, sia da considerare una occasione irrinunciabile per garantire la trasformazione delle istituzioni culturali in piattaforme aperte di divulgazione, scambio e produzione di valore, in grado di consentire una comunicazione attiva con il proprio pubblico, e una fruizione del patrimonio culturale priva di confini geografici e proiettata verso un futuro nel quale la condivisione e il modello dell’open access saranno sempre maggiori.

    Crediamo in nuove forme di conversazione e divulgazione del patrimonio artistico non più autoritarie, conservatrici, ma aperte, libere, accoglienti ed innovative.

    Crediamo in un nuovo rapporto fra il museo e il visitatore basato sulla partecipazione di quest’ultimo alla produzione, creazione e valorizzazione della cultura attraverso la condivisione di dati e immagini.

    Crediamo che il riuso dei dati e delle immagini dell’arte attraverso le piattaforme che mettono in connessione fra loro visitatori, esperti, studiosi, appassionati, possa attivare la produzione di contenuti personali UGC (User Generated Content), a beneficio di processi co-creativi di valore culturale ed economico per tutti.

    Crediamo in nuove esperienze di visita dei siti culturali, non più passive, ma attive, dove la conoscenza non viene solo trasmessa ma anche costruita, dove il visitatore è coinvolto ed è in grado di produrre egli stesso forme d’arte.

    Crediamo che internet ed i social media siano una grande opportunità per la comunicazione culturale, un modo per coinvolgere nuovi soggetti, abbattere ogni tipo di barriere, e favorire ulteriormente la creazione, la condivisione, la diffusione e valorizzazione del nostro patrimonio artistico.

    Crediamo che Internet sia in grado di innescare nuove modalità di gestione, conservazione, tutela, comunicazione e valorizzazione delle nostre risorse.

    Crediamo nella semplificazione delle norme per l’accesso e riuso dei dati dei Beni Culturali per incentivarne la digitalizzazione.

    Crediamo nella necessità di confronto fra tutti gli attori dei beni culturali perché le idee non rimangano isolate ma possano circolare e ispirare altri a migliorarle e renderle operative perché solo dallo scambio di conoscenze deriva altra conoscenza. Siamo convinti che questo scambio non debba limitarsi ai confini di un paese ma possa, e debba, essere internazionale.

    Crediamo che l’Arte diventi Conoscenza quando viene condivisa

     

    Contribuisci anche tu a #liberarelacultura, aderisci al manifesto e partecipa alle #invasionidigitali

    ‪#‎Liberiamolacultura‬

    immagine: http://upload.wikimedia.org/wikipedia/commons/f/f4/Incontro_di_leone_magno_e_attila_01.jpg

    “Open-washing” – La differenza fra aprire i dati e semplicemente rendenderli disponibili

    Maurizio Napolitano - 03/11/2014 in Open data

    (Questa è la versione italiano del post di blog inglese “Open-washing” – The difference between opening your data and simply making them available tradotto da Christian Villum dall’articolo originario in danese “Openwashing” – Forskellen mellem åbne data og tilgængelige data)
    La settimana scorsa, la rivista danese Computerworld, in un articolo intitolato Check-list per l’innovazione digitale: Queste sono le cose che dovete sapere, ha sottolineato come sempre più aziende stanno scoprendo che dare agli utenti l’accesso ai dati è una buona strategia di business. Fra le osservazioni pubblicate

    (traduzione dal danese) Secondo quanto dice Accenture per molte aziende innovative sta diventando sempre più chiaro che i propri dati debbano essere trattati come un’altra catena di distribuzione: dovrebbero essere fruibili facilmente e senza ostacoli attraverso l’intera organizzazione e forse anche fuori dal ecosistema interno – ad esempio attraverso API completamente aperte.

    Hanno quindi utilizzato Google Maps come esempio. Innanzitutto questo non è un esempio perfettamente calzante: come ha anche sottolineato il blogger Neogeografen, Google Maps non offre dati grezzi, ma solo una rappresentazione dei dati originari. Non si è poi autorizzati a scaricare e modificare i dati a farne uso su un proprio server.

    Inoltre non ritengo del tutto accurato evidenziare Google e il suo Maps come un esempio ottimale di scenario imprenditoriale che offre un flusso di dati senza ostacoli al pubblico. È vero che il servizio offre solo alcuni dati, ma solo con una modalità particolarmente limitata – e per niente open data – È corretto affermare che offrono alcuni dati, ma con una via particolarmente limitata – e con una modalità per niente open data – e quindi non in maniera progressiva come suggerisce l’articolo.

    Non vi è però alcuna ombra di dubbio che sia difficile accusare Google di non essere una azienda innovativa. L’articolo afferma come i dati di Google Maps sono utilizzati da oltre 800.000 applicazioni e aziende in tutto il mondo. Pertanto è vero, Google ha aperto parte del suo silo – ma solo in un modo molto controllato e limitato, che lascia queste 800.000 aziende dipendenti dal flusso continuo di dati da parte di Google senza permettere loro di controllare le stesse materie prime su cui stanno basando il loro stesso lavoro. Questa particolare modalità di rilascio dei dati mi porta sul problema che stiamo affrontando: Capire la differenza fra il rendere i dati disponibili e renderli aperti.

    Gli open data si caratterizzano non solo perché sono disponibili, ma perché sono sia aperti sul piano giuridico (cioè rilasciati sotto una licenza aperta che ne permetta il pieno riuso con al massimo l’obbligo di dare credito alla fonte e rilasciarli con la stessa licenza) che tecnicamente disponibili in massa attraverso formati machine readable – contrariamente a quanto offre Google Maps. Può essere che i loro dati siano disponibili, ma non sono aperti. Questa, tra l’altro, è una delle ragioni per cui la comunità globale che ruota attorno OpenStreetMap – l alternativa 100% open, – è in rapida crescita ed un numero sempre più crescente di aziende ha deciso di impostare invece i propri servizi su questa iniziativa aperta.

    Ma perché è importante che i dati siano aperti e non solo disponibili? Open data rafforza la società e costruisce una risorsa condivisa, con la quale tutti gli utenti, i cittadini e le imprese sono arricchiti e potenziati, non solo i collezionisti e gestori di dati. A questo punto ci si chiede “Ma perché le aziende dovrebbero spendere soldi per raccogliere dati e poi darli via?”. Aprire i dati e realizzare un profitto non sono due azioni che si escludono a vicenda. Facendo una rapida ricerca su Google si scopre che ci sono molte aziende che offrono dati aperti creando opportunità di business – e credo che siano queste quelle che dovrebbero essere evidenziate come di particolare interesse sugli articoli di innovazione come quello di Computerworld

    Un esempio è l’azienda inglese OpenCorporates , che offre il suo crescente repository di dati del registro delle imprese come dati aperti, e quindi si posiziona abilmente come una risorsa da seguire in quel campo. Questo approccio rafforza la possibilità di offrire servizi di consulenza, analisi dei dati e altri servizi personalizzati per imprese e il settore pubblico. Altre imprese sono invitati a utilizzare i dati, anche per uso agonistico o per creare altri servizi, ma solo sotto la stessa licenza di dati – e fornendo così una risorsa derivata utile per OpenCorporates. Qui c’è la vera innovazione e sostenibilità, rimuovendo in modo efficace i silos e la creazione di valore per la società, non solo per le imprese coinvolte. Open data crea crescita e innovazione nella nostra società – mentre il modo di Google di offrire i dati crea probabilmente crescita ma solo per … Google.

    Stiamo assistendo a una tendenza sempre crescente di ciò che può essere definito “open-washing” (ispirato a “greenwashing“), che significa che ci sono produttori di dati che sostengono che i loro dati sono aperti, anche quando non lo sono, e quindi li rendono disponibili attraverso termini di riuso limitanti. Se noi, in questo momento critico della società guidata dai dati, non siamo criticamente consapevoli della differenza, finiremo per mettere i nostri flussi di dati vitali in infrastrutture di silos di proprietà di società internazionali. Ma finiremo anche per elogiare e sostenere il modo sbagliato di realizzare uno sviluppo tecnologico sostenibile.

    Per saperne di più visita la pagina della open definition e questa introduzione al tema dei dati aperti da parte della Open Knowledge Foundation. Per esprimere la tua opinione unisciti alla mailing list di Open Knowledge Foundation.