Italia
Un mondo dove la conoscenza crea il potere per molti, non di pochi
Profile photo of Maurizio Napolitano Featured

Welcome

Maurizio Napolitano - 12/11/2013 in openknowledge

Open Knowledge è un network mondiale no-profit, nato nel 2004, di appassionati di openness, pronti a fare pressione, che fanno uso della tecnologia e della formazione per aprire informazioni e permettere così alle persone di creare e condividere conoscenza.

La nostra missione

Vogliamo vedere società illuminate in tutto il mondo, dove tutti hanno accesso a informazioni chiave e la capacità di usarle per comprendere e modellare la loro vita; dove le istituzioni potenti sono comprensibili e responsabili; e dove la ricerca di informazioni di vitale importanza che ci può aiutare a affrontare sfide come la povertà e il cambiamento climatico è a disposizione di tutti.

Immaginiamo un mondo in cui:

la conoscenza crea il potere per molti, non di pochi. i dati danno la possibilità di fare scelte informate su come viviamo, cosa compriamo e chi ottiene il nostro voto. le informazioni e gli approfondimenti sono accessibili – e apparente – a tutti. Questo è il mondo che scegliamo. Vogliamo vedere la conoscenza aperta come concetto di vitale importanza, e naturale e importante per la vita quotidiana di tutti i giorni.

Open Knowledge Italia

Open Knowledge Italia fa parte di questo network mondiale


 

Riutilizzo dell’informazione giuridica: il progetto JurisWiki

Francesco Minazzi - 05/21/2015 in interviste, Open data, openaccess, openknowledge, PSI, Riuso

Il fenomeno dell’open content si è soffermato principalmente sugli open data, poiché per certi versi consentono una maggiore semplicità di approccio rispetto ad altri tipi di informazioni. E’ il caso dell’informazione giuridica, che non è mai dato a sé stante, ma complesso articolato di espressioni linguistiche: leggi e decisioni dei giudici, nell’immaginario collettivo, non vengono facilmente associate all’openness, posto che la loro diffusione è soprattutto appannaggio delle case editrici in ambiti settoriali.

Tuttavia, l’apertura dei contenuti si è fatta strada anche in quest’ambito ed un esempio è costituito dal progetto JurisWiki, ideato dall’Avv. Simone Aliprandi, che abbiamo intervistato per averne una descrizione di prima mano.

  1. Simone, tu sei un avvocato esperto di diritto dell’informatica e divulgatore dei temi legati all’openness. In tale ambito hai lanciato il progetto Juriswiki: di che si tratta?

JurisWiki è un sito web collaborativo (sul modello wiki, appunto) che consente la raccolta, l’organizzazione sistematica e il commento dei provvedimenti giurisdizionali (sentenze, ordinanze, decreti). E’ quindi qualcosa in più di un semplice database, dato che è possibile un ruolo attivo degli utenti. Poi, ovviamente, essendo online da poco, gli utenti attivi sono ancora pochi e dunque ciò che più spicca sono le centinaia di migliaia di provvedimenti che abbiamo provveduto a caricare automaticamente prelevandoli dai siti delle massime corti italiane: Corte Costituzionale, Corte di Cassazione e Consiglio di Stato.

  1. Qual è la situazione delle banche dati giuridiche in Italia?

Attualmente quel mercato è composto innanzitutto da alcuni grandi player che fanno capo a importanti gruppi editoriali e che operano in una situazione sostanzialmente oligopolistica. Questi servizi sono indiscutibilmente i più completi e affidabili ma anche i più costosi; gli abbonamenti possono infatti arrivare a costare oltre il migliaio di euro all’anno, a seconda del pacchetto scelto, dunque è ovvio che solo gli studi professionali più solidi possono permettersi una spesa del genere. Dopo di che esiste una moltitudine di soggetti più piccoli che forniscono prodotti più limitati e rivolti ad un’utenza meno esigente, sempre sotto forma di abbonamento con accesso riservato via Internet. Infine vi sono moltissimi siti web che si occupano di informazione giuridica, che in molti casi riportano i testi delle sentenze più interessanti, ma non li organizzano sistematicamente sotto forma di vera e propria banca dati.

  1. Quindi in sostanza si tratta unicamente di servizi offerti da privati…

Da qualche anno a questa parte, anche i siti ufficiali delle corti (quanto meno delle principali) hanno reso disponibili liberamente buona parte dei provvedimenti, a partire dalla Corte Costituzionale che, in vera ottica open data, ha messo a disposizione tutto l’archivio delle decisioni e delle massime ufficiali (dal 1956 ad oggi) con licenza Creative Commons e con disponibilità dei file XML completi. La più recente è stata la Corte di Cassazione che ha reso disponibili più di 400mila decisioni, dal 2010 ad oggi. E’ proprio da queste fonti pubbliche e open by defualt che io ho attinto per iniziare ad alimentare il database di JurisWiki.

aliprandi-ha-vinto1

  1. Ritieni che Juriswiki inciderà sul mercato delle banche dati giuridiche?

Non lo so, è ancora molto presto per dirlo. Il modello di business di un progetto come JurisWiki è ancora tutto da definire, e non è certo un nodo di facile soluzione. Io stesso non sono ancora certo di farne una vera e propria attività imprenditoriale o di renderlo un progetto non-profit. Per ora si tratta di un’iniziativa sperimentale proposta autonomamente da un privato cittadino che di lavoro in realtà fa l’avvocato e il docente. Sicuramente, però, quando la piattaforma andrà a regime e inizierà ad avere un nucleo solido di utenti attivi (cioè utenti che non fruiscono solo del sito ma partecipano nel caricamento e commento dei contenuti), avremo davvero una sorta di Wikipedia della giurisprudenza, una grande database di informazione giuridica basato sul crowdsourcing. I giuristi inizieranno a capire che di fatto lì troveranno buona parte delle informazioni che servono e chiederanno sempre meno abbonamenti a servizi a pagamento. Allora sì che gli editori inizieranno a farsi qualche domanda.

  1. In occasione del lancio di Juriswiki, molti colleghi giuristi hanno alimentato da subito un dibattito sul tema della privacy: cosa ne è scaturito?

Quando in questi ultimi due anni ho iniziato a progettare JurisWiki ho avuto subito chiaro che i due nodi principali sarebbero stati quelli del copyright e della privacy. Il primo si è risolto abbastanza semplicemente grazie anche alle ultime evoluzioni in materia di “open by default”; il secondo invece è rimasto vivo fino all’ultimo, cioè fino a quando mi sono trovato a dover prendere una decisione di campo: andare online con una scatola vuota (come tra l’altro era nelle mie primissime intenzioni) e attendere che la giurisprudenza fornisse indicazioni più nette su come dovrebbe comportarsi il provider di un servizio del genere (e ciò avrebbe comportato un’attesa forse di qualche anno); oppure andare online con un sito già pieno di documenti prelevati dalle fonti ufficiali, assumendomi il rischio di prendere quasi subito una tirata d’orecchi da qualcuno, ma anche sapendo di fare una incisiva operazione di hacking civico che svegliasse qualche coscienza. Ho scelto la seconda delle due; e infatti è andata più o meno come avevo previsto. Infatti nel giro di pochi giorni dalla messa online ho ricevuto da parte di colleghi esperti di privacy e diritto delle nuove tecnologie sia messaggi di stima per il coraggio sia inviti alla prudenza vista la possibile responsabilità anche penale che può derivare dalla pubblicazione di dati sensibili.

  1. Cosa hai dovuto fare in concreto?

Non potendo individuare tempestivamente le sentenze sensibili in un database di 411 mila documenti, ho dovuto cautelativamente oscurarli tutti, pur con grande rammarico, dato che si trattava di quasi due terzi del mio database (e che il caricamento di questi contenuti mi era costato non poco).

Così si arrivava al paradosso per cui, se un utente cercava i documenti sul mio sito, si sentiva rispondere che erano stati momentaneamente oscurati, ma nel frattempo gli stessi documenti continuavano ad essere disponibili sul sito della Cassazione. Che è un po’ come dire, semplificando molto: “se una cosa la fa un cittadino è illecita; se la stessa cosa la fa un’autorità pubblica allora è legittima”. Secondo alcuni (ad esempio secondo l’ex Garante Privacy, che ho intercettato su Twitter) questa disparità di trattamento avrebbe una sua ratio giuridica ma io rimango tuttora perplesso.

  1. Quindi in sostanza avevi sottostimato il rischio?

Diciamo che, pur avendo messo in conto buona parte delle scocciature, non avevo certo messo in conto che un ente come la Cassazione avesse sbagliato ad anonimizzare alcune sentenze, come invece è emerso dopo la messa online di JurisWiki. Quei documenti erano online da molti mesi; e nonostante molti (tra cui anche l’attuale Garante Privacy) avessero fatto notare alla Cassazione che qualcosa non quadrava, essa ha sempre mostrato di essere convinta del suo operato. Chiunque avrebbe interpretato questo segnale come un “tranquilli, ci abbiamo pensato noi alla questione della privacy”. E invece, dagli sviluppi di questi giorni pare di capire che non sia così.

  1. Qualche giorno fa, dopo il lancio di Juriswiki, anche il sito della Cassazione ha deciso di oscurare molte sentenze “in attesa di valutazione per la privacy”: non è una strana coincidenza? simone aliprandi

Sì, davvero strano. In realtà non credo che sia tutto merito (o forse dovrei colpa) dell’uscita di JurisWiki, perché so che da tempo qualcuno stava cercando di portare il Garante Privacy ad occuparsi della faccenda più efficacemente di quanto fece l’anno scorso con la sua “lettera pubblica”. Quindi non so dire se sia stata una presa di coscienza autonoma dei piani alti della Suprema Corte o se qualcuno (ad esempio il Garante stesso) abbia alzato il telefono e spiegato al CED della Cassazione la serietà della situazione. Diciamo che comunque mi piace pensare che JurisWiki abbia in un certo senso accelerato i tempi di questo passaggio che si stava da troppi mesi trascinando nell’incertezza e nel tipico rimpallo di competenze tra enti dello Stato. Indubbiamente la mia iniziativa, con il discreto interesse mediatico raccolto (si veda ad esempio l’articolo uscito su CheFuturo!), è stata l’occasione di portare questi temi all’attenzione anche di coloro che normalmente non si interessano di tutela della privacy e diritto di Internet.

  1. Il rapporto tra open data e privacy è un tema nuovo e le tesi interpretative sono discordanti: per il momento che valutazione puoi darne?

Come è facile intuire, si tratta di due forze opposte che agiscono sullo stesso spazio: quello dell’informazione digitale. Da un lato c’è chi spinge per una massima possibilità di accesso e riutilizzo delle informazioni, specie quando provenienti dagli enti pubblici; dall’altro c’è chi alza barriere di protezione a tutela della riservatezza delle persone fisiche citate (anche indirettamente) nei vari documenti pubblici. E’ ovvio che un progetto come JurisWiki, occupandosi di sentenze (che in buona percentuale trattano di persone fisiche) e occupandose in ottica open si pone proprio in mezzo a questi due fuochi.

Conclusioni

Gli studiosi di informatica giuridica ben sanno che da moltissimo tempo si è argomentato, per lo più in sede accademica, del riutilizzo dell’informazioni giuridica. JurisWiki non è il primo progetto in tal senso. Già negli anni ’70, negli Stati Uniti, ma anche in Europa, si diffusero i primi sistemi di documentazione giuridica, seppur totalmente soggetti alla tutela autoriale: si pensi a Westlaw, Lexis, l’italiano Italgiure, il norvegese Noris. Più recentemente, si è posto l’accesso sulla distribuzione dell’informazione giuridica secondo standard condivisi, come avrebbe dovuto fare il progetto Norme in Rete (poi abbandonato e trasfuso nell’attuale portale Normattiva).

Pertanto, il tema del riutilizzo dei dati e dei contenuti giuridici è ancora in fase embrionale, soprattutto a livello di diffusione al di fuori della ristretta cerchia di studiosi specializzati nella materia. Ne deriva che bisogna riconoscere a JurisWiki il primato di aver creato un notevole precedente ed aver posto le basi per favorire la divulgazione di questi temi, non solo rispetto agli specialisti della materia, ma anche nei confronti di un pubblico indistinto.

Open budget data: un nuovo progetto per mapparne l’impatto

Francesca De Chiara - 03/04/2015 in Open data, Ricerca

Jonathan Gray annuncia che sta per partire un nuovo interessante progetto di ricerca che esaminerà l’impatto dei dati di bilancio aperti (open budget data). Open Knowledge è coinvolta insieme a Digital Methods Initiative dell’ Università di Amsterdam, con il supporto di Global Initiative for Financial Transparency (GIFT).  Un po’ di dettagli: il progetto includerà uno studio empirico che mapperà chi è attivo nell’ambito degli open budget data nel mondo, i temi principali, le opportunità e le sfide a partire dai differenti attori coinvolti. Sulla base di questa mappatura, verrà fatta una revisione di definizioni e concetti inerenti a open budget data, delle argomentazioni a supporto del perchè sono importanti, le migliori pratiche per la pubblicazione e il coinvolgimento, e inoltre,  una ricognizione puntuale sulle applicazioni e i risultati ottenuti nei diversi paesi in giro per il mondo. Facendo leva sulla grande esperienza acquisita da Open Knowledge nel campo dei dati di bilancio, open budget (attraverso progetti come OpenSpending), il progetto utilizzerà strumenti innovativi e metodologie sviluppati dall’Università di Amsterdam per sfruttare a pieno le risorse e i dati presenti sul web, social media e collezioni di documenti per informare e arrichire l’analisi. Open Knowledge ha lanciato per questo motivo una bibliografia collaborativa che conterrà letteratura e ricerche esistenti su open budget data e argomenti associati che potrà diventare un’utile risorsa anche per altre associazioni, ricercatori, attivisti, policymaker che lavorano in quest’area. Se avete suggerimenti su elementi o articoli da aggiungere, mantenetevi in contatto. Questo progetto segue altri progetti di ricerca che Open Knowledge ha condotto su questo tema – inclusi i lavori sui data standards per la trasparenza fiscale, sulla tecnologia per una finanza pubblica responsabile e la mappatura della comunità legata a Open Spending.

Financial Transparency by Open Knowledge

Financial transparency field network realizzata con Issuecrawler basata su analisi hyperlink partendo dai membri della Financial Transparency Coalition, 12 Gennaio 2015. Credits:Open Knowledge e Digital Methods Initiative

 

Potete aggiungere liberamente i materiali che desiderate su Zotero.

Questo post è la versione italiana riadattata di New research project to map the impact of open budget data di Jonathan Gray.

Aperto il programma di micro finanziamenti per chi organizza l’Open Data Day: presenta oggi la domanda!

anna - 01/29/2015 in events, Incontri, Open data

questo articolo è la versione italiana di Launching Open Data Day Coalition Micro-Grant Scheme: Apply Today!


OPEN DATA DAY 2015 è alle porte, e diversi partner si sono uniti per fornire un numero limitato di micro-finanziamenti destinati a sostenere le comunità che organizzano attività ODD in tutto il mondo!

L’Open Data Day (ODD) è uno degli eventi più interessanti dell’anno. Come un qualsiasi evento su base volontaria, con nessuna organizzazione alle spalle, l’Open Data Day offre l’opportunità perfetta per le comunità di tutto il mondo di convocare, celebrare e promuovere gli open data nelle modalità più pertinenti ai propri concittadini. Quest’anno, Open Data Day si svolgerà Sabato 21 Febbraio 2015, ed è stata costituita una coalizione di partnerper contribuire a rendere l’evento più grande (e si spera anche migliore) di quanto sia mai stato prima!

Nonostante l’Open Data Day sia sempre stata un’iniziativa condotta volontariamente, l’organizzazione di un evento, spesso risulta costosa, a partire dall’affitto del luogo dove si svolge l’evento stesso, alla necessità di fornire una connessione wifi adeguata, alla possibilità di offrire ristoro ai volontari, storyteller, esperti di dati (data wrangler), sviluppatori che mettono a disposizione il loro sabato per garantire che gli open data siano a disposizione dei cittadini delle loro comunità. Lo scopo è coprire i costi di gestione dell’evento.

La nostra coalizione Open Data Day è costituita da organizzazioni che si occupano di dati aperti, di conoscenza aperta e di open access e che sono interessate a fornire un sostegno alle comunità che organizzano attività ODD. Questa idea è nata da un evento che è si è svolto l’anno scorso in Kenya, durante questo evento un piccolo supporto economico ha aiutato gli organizzatori locali a far si che realizzassero un evento straordinario, facendo conoscere gli open data a nuove persone. Questo è esattamente ciò che stiamo cercando di realizzare con l’Open Data Day!

Seguendo quell’esempio, quest’anno, per la prima volta, siamo orgogliosi di annunciare la disponibilità di un numero limitato di piccole sovvenzioni, fino a 300 $, destinate a supportare le comunità che organizzano eventi straordinari, senza dover pesare sulle proprie tasche. La coalizione fornirà anche altri tipi di supporto in natura, sotto forma di tutoraggio e orientamento o semplicemente fornendo un elenco di attività da svolgere che si sono dimostrate efficaci nel coinvolgere nuove comunità!

La coalizione è composta dai seguenti organizzazioni (in ordine alfabetico): Caribbean Open Institute, Code for Africa, DAL, E-Democracy, ILDA, NDI, Open Access Button,>Open Coalition, Open Knowledge, Sunlight Foundation e Wikimedia UK.

Come partecipare? Read the rest of this entry →

open data global index: il dietro le quinte del censimento per l’Italia

Maurizio Napolitano - 12/12/2014 in Open data

Da qualche giorno, lato Open Knowledge core è stato lanciato l’annuncio dell’aggiornamento del Global Open Data Index, il censimento open data degli stati del mondo. Questa iniziativa ha avuto un ruolo molto importante nel 2013 in quanto, presentando una classifica, ha cominciato a far sensibilizzare sul tema le varie nazioni contribuendo così a spingere anche alla nascita della Open Data Charter del G8

Il censimento ruota intorno ad 10 indicatori considerati “bene comune”, ovvero quell’insieme di dati che ogni persona percepisce come naturalmente rilasciati in open data. Si tratta di bilanci statali, statistiche nazionali, risultati elettorali, leggi, spese di governo, emissioni degli inquinanti, registro delle imprese, codice di avviamento postale, tabelle di attesa degli orari di trasporto pubblico e mappe nazionali. Informazioni che ogni cittadino di ogni stato del mondo dovrebbe avere il diritto di conoscere e di accedervi. Portarle in open data vuol dire aumentarne il riuso, ma tutto questo è realmente open data? Per capirlo occorre che, ciascuna di queste variabili, abbia poi delle caratteristiche comuni: esistere, essere in un formato digitale, disponibile pubblicamente, gratuitamente e online, in un formato machine readable, in forma completa, accompagnato da una licenza aperta e aggiornato tempestivamente. Piccoli particolari che fanno però capire quanto quella risorsa esiste e sia realmente riusabile.

indexglobalita Il processo di raccolta avviene attraverso un gruppo di volontari che rispondono alle domande e danno le informazioni per verificarle. In Italia hanno contributo a risponde alle domande: Laura James, Stefano Bandera, Gianfranco Andriola, Andrea Raimondi, Oluseun Onigbinde, Tryggvi Björgvinsson, Maurizio Napolitano, Michele Barbera e Aurelio Cilia; mentre la verifica è stata fatta da Sander van der Waal e Maurizio Napolitano. Il risultato per il 2014 ha portato l’Italia sotto di 5 posizioni rispetto al 2013. Le motivazioni sono evidenziate nella sezioni “stories” del sito stesso con un commento di Maurizio Napolitano. Qui riportate in italiano Sono contento di vedere che, per questa edizione del Global Open Data Index, ci sono nuovi nomi di contributori. La posizione italiana è scesa però di qualche posto rispetto al 2013. Questo perché abbiamo deciso di essere più rigorosi su alcuni set di dati che sono stati rilasciati, ma non sono stati aggiornati e si è fatta maggiore attenzione a vedere quale è l’ente, che, da un punto di vista delle competenze, si occupa di quel rilascio. Non ci sono state evidenti miglioramenti. Nell’edizione del 2013 c’è stato un grande entusiasmo per un insieme di dati tipo geografico, ma questo non è poi stato aggiornato. L’adesione alla Carta Open Data del G8 dell’Italia ha fatto si che l’Agenzia per l’Italia Digitale desse vita ad una agenda per l’apertura di alcuni dataset chiave che rientrano poi nelle richieste del Global Index. Secondo l’agenda, molti di questi dati (es. i codici di avviamento postale), saranno rilasciati entro dicembre 2014. Se questo avverrà, sicuramente la posizione dell’Italia per il 2015 sarà in una posizione migliore. In termini di dati di trasporto pubblico, purtroppo la situazione non è ancora risolta: ci sono diverse agenzie che hanno aperto i dati ma molte altre non lo hanno fatto. Nell’anno precedente si era considerato come “trasporti pubblici”, gli orari di Trenitalia (che comunque non sono tutt’ora rilasciati come open data), quando invece la richiesta esplicita e sulle linee degli autobus urbani ed extra-urbani. Quello che lascia perplessi è vedere che ci sono molte agenzie che rilasciano i dati sulla piattaforma Google Transit, ma non sembrano voler fare il passaggio del rilascio in open data. Il ruolo del Global Open Data Index è estremamente importante – la classifica sempre aiutano a incoraggiarci a fare meglio la prossima volta. Partecipare al processo di revisione è anche un ottimo modo per prendere coscienza della situazione del proprio Paese. Dal mio punto di vista si tratta di un esercizio molto importante, e se si trova un buon numero di contributori, si può avviare un dibattito interessante per aiutare a migliorare il processo di apertura dei dati. È per questo motivo che incoraggio tutti a partecipare al processo di revisione del censimento open data delle città italiane – it-city.census.okfn.org/

Open Definition: versione 2.0

Francesca De Chiara - 11/09/2014 in Licenze, Open data, open definition, openknowledge, Riuso

Lo scorso 7 ottobre Open Knowledge in collaborazione con Open Definition Advisory Council ha annunciato il rilascio della versione 2.0 della Open Definition. In italiano trovate on line la traduzione della versione 1.0 qui. Nella Open Definition si dichiarano i principi di base che definiscono il significato di “openness”, apertura, in relazione a dati e contenuti. La Open Definition ha avuto un ruolo chiave di supporto nella crescita dell’ecosistema open data, come ribadisce Rufus Pollock in questo post. Il contributo in termini di concettualizzazione e sforzo definitorio portati a termine con Open Definition restano cruciali. Negli ultimi anni il numero di dataset rilasciati è cresciuto esponenzialmente, evidenziando i benefici connessi al riutilizzo. Avrete sentito sicuramente citare ampiamente le stime di McKinsey contenuto nel report di fine 2013 sul potenziale economico dei dati aperti.  Tuttavia, una riflessione sui rischi di open-washing, sull’importanza della distinzione tra dati “aperti” e dati “disponibili”, e della frammentazione nell’ecosistema open data a causa della crescente incompatibilità tra licenze aperte, resta necessaria. La Open Definition vuole eliminare questi rischi, mantenendo la funzione essenziale di “standard” di riferimento. Qualità, compatibilità e semplicità sono le tre parole chiave.

Open non significa solo disponibile -  Key Lock by im icons from The Noun Project

Open non significa solo disponibile 
Key Lock by im icons from The Noun Project

 

Qualità – Semplicità – Compatibilità : 3 elementi chiave della Open Definition

Quality Okay by Stephanie Wauters from The Noun Project

Qualità
Okay by Stephanie Wauters   from The Noun Project

Compatibilità Compatible by Michel Demers from The Noun Project

,,,,

Semplicità
Paper Plane by Daniel Pang from The Noun Project

 

Qualità: open data dovrebbe significare libertà per tutti di accedere, modificare e condividere quei dati. Tuttavia, senza uno standard ben definito che chiarisca in dettaglio cosa significa “open”, rischiamo di assistere a crescenti tentativi di confondere la natura dei dati da considerare davvero “aperti” . Open Definition, in questi termini, si concentra essenzialmente su controllo della qualità.

Compatibilità: senza una definizione condivisa diventa impossibile comprendere cosa sia realmente “open”. L’incompatibilità dovuta alle differenze nei termini d’uso possono di fatto impedire la libertà di riutilizzo e di combinazione dei dataset aperti, azzerando così i maggiori benefici offerti dall’open data. Il rischio di incompatibilità cresce perchè molti open data sono rilasciati sotto licenze create appositamente. Alcuni governi hanno scritto differenti versioni di licenze aperte, che potenzialmente rischiano di non essere mutualmente compatibili con altre licenze aperte preesistenti.

Semplicità: grande promessa implicita nell’open data è la semplicità e facililtà di utilizzo. Questo non significa soltanto che l’accesso ai dati è garantito senza costi, ma significa che non c’è più necessità di assumere un giurista per le licenze, che non devi pensare a cosa puoi fare e cosa non puoi fare, nella tua attività di impresa o  di ricerca, per esempio. Una chiara e condivisa definizione permette di eliminare qualsiasi timore rispetto alla complessità dei limiti imposti da termini d’uso o licenze, ma anche rispetto a modalità di riuso e condivisione.

La prima versione della Open Definition fu pubblicata nel 2005 da Open Knowledge, la nuova versione lanciata il 7 ottobre è stata aggiornata grazie all’impegno degli esperti di Open Knowledge Advisory Council. La nuova versione della Open Definition rappresenta la revisione più significativa fatta negli ultimi dieci anni.

Il processo di discussione e consultazione con la comunità ha richiesto più di un anno, se si includono gli input degli esperti coinvolti.  Sebbene non ci siano cambiamenti nei principi di base, la Open Definition è stata completamente rielaborata e riproposta con una nuova struttura, un nuovo testo e una revisione delle licenze.

Herb Lainchbury, Chair di Open Definition Advisory Council, ha dichiarato:

“la Open Definition descrive i principi che definiscono l’apertura, “openness”, in relazioni ai dati e ai contenuti, ed è utilizzata per valutare se una particolare licenza soddisfa quello standard. Un obiettivo fondamentale di questa nuova versione è rendere più facile valutare se il crescente numero di licenze aperte soddisfa realmente quei criteri. Aumentare il più possibile il livello di fiducia nel riutilizzo delle opere “aperte” ci permetterà anche di concentrarci su come estrarre valore da quelle opere.”

Rufus Pollock, Presidente e fondatore di Open Knowledge ribadisce:

“Da quando abbiamo creato la Open Definition nel 2005, essa ha giocato un ruolo chiave nella crescente comunità dell’open data e dell’open content. La Definition è come il “gold standard” per i dati e i contenuti aperti, garantendo qualità e prevenendo incompatibilità. Come standard, la Open Definition ha un ruolo fondamentale nel sostenere la “open knowledge economy” con un valore potenziale di centinaia di miliardi e più, in tutto il mondo.”

Le novità della versione 2.0 di Open definition:

La nuova versione è stata sviluppata in collaborazione con esperti coinvolti nelle comunità dell’open access, open culture, open data, open education, open government, open source e wiki.

Queste le novità contenute nella versione 2.0 della definizione:

  • I principi fondamentali sono stati completamente riscritti – conservando lo stesso significato ma usando un linguaggio più semplice e charificando aspetti chiave.
  • Viene introdotta una netta separazione della definizione di licenza aperta da quella di opera aperta (open work), con quest’ultima che dipende direttamente dalla prima. Questo non solo semplifica la struttura concettuale ma offre anche una definizione appropriata di licenza aperta rendendo più facile l’auto-valutazione delle licenze conformi alla Open Definition.
  • L’opera aperta viene definita secondo questo insieme di tre principi:
  1. Licenza aperta (Open Licence): L’opera deve essere disponibile sotto una licenza aperta.
  2. Accesso: L’opera deve essere disponibile nella sua interezza ed a un costo di riproduzione ragionevole, preferibilmente tramite il download gratuito via Internet (presente nella versione 1.0).
  3. Formato aperto: L’opera deve essere fornita in un formato modificabile in modo che non ci siano ostacoli tecnologici allo svolgimento delle attività secondo i diritti garantiti dalle licenze.  Nello specifico,  i dati devono essere leggibili dalle macchine, disponibili nella loro interezza e in un formato aperto, o almeno, che possano essere elaborati con software libero, open source. Ciò può essere conseguito mediante la messa a disposizione dell’opera in un formato aperto, vale a dire un formato le cui specifiche siano pubblicamente e liberamente disponibili e che non imponga nessuna restrizione economica o di altro tipo al suo utilizzo.
  • E’ stato incluso un processo di approvazione della licenza per facilitare i creatori di licenze nel meccanismo di controllo di conformità con la Open definition e incoraggiare il riutilizzo delle licenze aperte preesistenti.

Informazioni aggiuntive

Qui trovate il Github repository di Open definition.

Qui trovate i blog post in inglese sulla Open Definition rielaborati in questa versione italiana.

Qui trovate la versione italiana della Open Definition 1.0 dal quale abbiamo estratto alcuni riferimenti.

 

     

    #OpenData Story of the Day: Agenzia delle Entrate, perché non uscite?

    Francesca De Chiara - 07/07/2014 in Open data

    In vista di uno scoppiettante OKFestival 2014 a Berlino (a proposito il contingente italiano quest’anno è ben rappresentato, stay tuned!) rilancio qui su Open Knowledge Foundation Italy il post bomba del nostro ambassador Maurizio Napolitano che stamattina risuona come l‘Italian Open Data Story of the Day! La versione originale la trovate qui.

     

    path3050-300x243

    Il duomo di Messina attraversato da una strada sul sito Agenzia delle Entrate

    Fra i tanti momenti condivisi con Simone parlando di OpenStreetMap ricordo ancora con piacere il viso incredulo di un ragazzo che lo stava ascoltando con queste parole “Vedi! Il giardino di casa mia ha un paio di alberi, dei percorsi ed un laghetto. Tutte cose private che non ho problemi a nascondere e che ho rappresentato su OpenStreetMap. Non c’è nessuna mappa al mondo che lo ha”. Viso incredulo ma anche soddisfatto che portò il ragazzo ad essere un nuovo mapper. A distanza di molto tempo, quella “insolita” mappa, ha dato vita ad un nuovo progetto fra AndreaCristian, Simone, Stefano e me. Il tutto nasce visitando il sito dell’Osservatorio del Mercato Immobiliare (OMI)dell’Agenzia delle Entrate, dove, il giardino di Simone, ma anche molti altri dettagli che la comunità di OpenStreetMap è solita raccogliere, sono presenti su quella mappa online. I colori scelti per la mappa sono anche accattivanti, ed anche le etichette sono ben piazzate.

     

    Visitando qua e là, e conoscendo il proprio territorio, ci si accorge però che quelle mappe sono dannatamente uguali a quelle di OpenStreetMap.

    Scavi di Pompei su sito dell’ Agenzia delle Entrate

    Appaiono però diversi particolari degli scavi di Pompei, e nomi di edifici un po’ bizzarri come Centro Servizi Culturali S. Chiara – Scuola di Musica “I Minipolifonici” (sede provvisoria).

    Le segnalazioni si sono moltiplicate da parte di Andrea e Stefano, e, cosi Cristian ha sviluppato un sistema per confrontare le aree, e il risultato è molto chiaro: l’Agenzia delle Entrate ha deciso di utilizzare gli oggetti di tipo poligonale presenti in OpenStreetMap sul proprio sito integrando poi con i dati di uno stradario (a giudicare da questo articolohttp://www.ilsole24ore.com/art/tecnologie/2010-10-21/tutta-italia-georeferenziata-064638.shtml si direbbero dati Navtech). Molta amarezza da parte di chi, nel progetto OpenStreetMap crede tantissimo, nel vedere questa assurda violazione di licenza. Ironia a denti stretti per chi invece si interroga sul ruolo dell’agenzia delle entrate visto che gestisce anche il catasto!
    Sitio Agenzie Delle Entrate

    Sito Agenzie Delle EntrateOpenStreetMapOpenStreetMap

    Ma come? L’ente che gestisce i dati catastali non è in grado di produrre una mappa con i propri dati, proprio quelli dell’edificato? Eppure GEOPoi è creato da una azienda come SOGEI, che di sicuro ha tutti i mezzi sviluppare software (lo dimostra anche il fatto che la logica di distribuzione delle loro mappe non segua degli standard che hanno reso quindi difficile anche la creazione del tool di comparazione).
    Da qui la campagna “AGENZIA USCITE!“, un gioco di parole, apparentemente poco originale, ma invece con molti messaggi:   AGENZIA delle entrate, USCITE dalla vostra logica difensiva e cominciate a collaborare AGENZIA delle entrate, USCITE con i dati del catasto in open data AGENZIA delle entrate, USCITE dal nascondere l’uso di openstreetmap e collaborate invece a questo bene comune. … tra l’altro il tool di Cristian ha pure creato una interfaccia più comoda per consultare le loro mappe :) A tutti gli amici e amiche invece l’invito è di navigare la mappa d’Italia e individuare le somiglianze segnalandole su mappa a e via twitter #agenziauscite   …. ed è molto divertente perchè poi si scoprono cose come questa e ci si domanda :  “Ma quella rotonda è stata costruita si o no?”

    ma_dove_sta_la_rotonda-1024x476

     

    Il resoconto degli Sports Hackdays di Milano

    Maurizio Napolitano - 06/04/2014 in Incontri, Open data

    Per chi non c’era ai primi Sports Hackadays del 23 e dell 24 maggio:

    • 120 tra sviluppatori, designer e data scientist che hanno accettato la sfida di mostrare cosa può essere fatto con i dati sportivi;
    • 3 città, Milano, Basilea e Sierre, che hanno ospitato in contemporanea e in collegamento tra loro gli Hackdays coprendo ognuna aspetti differenti del vasto mondo dei dati sportivi;
    • 36 tra fonti online e dataset, tra i quali dati ufficiali che per la prima volta venivano messi a disposizione di un largo pubblico;
    • il racconto, illuminante e inedito, di come i dati sportivi vengono raccolti e utilizzati da aziende leader come Deltatre e Technogym.

    Un’avventura in cui la venue di Milano ha avuto il compito d’indagare come vengono raccolti i dati sportivi, quali sono i modelli di valorizzazione del dato e quali gli ostacoli ad un’apertura dei dati da parte delle grandi federazioni internazionali. hackdays_mi

    All’evento milanese era presente Deltatre, l’azienda torinese che produce le statistiche e i dati di approfondimento mostrati sullo schermo durante la trasmissione di Olimpiadi, Mondiali di calcio e Champions League, che ci ha introdotto nelle misteriose, per i più, tecniche di raccolta dei dati in ambito calcistico (fatte di inviati, i cosiddetti “spotter”, che, dotati di controller per console appositamente modificati, raccolgono sul campo dati che vengono in tempo reale integrati con quelli provenienti da sistemi di tracking video, così da ottenere un completo strumento di match analysis) e nelle attuali politiche di condivisione del dato da parte delle grandi federazioni internazionali (FIFA, UEFA e CIO).

    C’è stata poi Technogym, che ha mostrato come utilizza i dati raccolti dalle proprie macchine e dai device che possono essere abbinate alla piattaforma Android sviluppata dall’azienda, offrendo l’occasione ai partecipanti di vedere svelate quali sono le reali applicazioni di business per dati a cavallo tra il Quantified Self e la performance analysis.

    Ma un hackathon è un hackthon e anche a Milano, come a Basilea e Sierre, i team hanno prototipato e sviluppato: protagonisti del lavoro dei team sono stati i dati del Tor de Géants, l’ultratrail valdostano considerato il più duro al mondo e i cui responsabili erano con noi a spiegarci le peculiarità di una corsa di 5 giorni in cui i dati di ogni singolo partecipante, per ragioni di sicurezza e logistiche, sono essenziali. Altri team si sono misurati con il sistema Technogym su base Android, prototipando app per la performance analysis in real­time.

    Il contributo di Milano si è aggiunto allo straordinario lavoro di Basilea, forte della presenza della comunità di Opendata.ch e di Sierre, in cui l’hackathon era ospitato dalla Haute Ecole de Gestion & Tourisme, che hanno contribuito con progetti di grande valore alla riuscita degli Sports Hackdays.

    Da queste due giornate, con OKF che sta lavorando per creare un working group sui dati sportivi e altre grosse iniziative all’orizzonte, ha ora preso il via un difficile ma interessantissimo percorso di avvicinamento tra due mondi distanti quali quello degli open data e quello dei dati sport.

    La partita è appena cominciata!

    nota: testo di carlo toccaceli blasi – promotore dell’iniziativa

    Al via gli Sport Hackdays

    Maurizio Napolitano - 05/23/2014 in events, Open data

    23-24 maggio più di 60 tra coder, designer e data scientist interessati a dare un contributo al mondo opendata, si incontreranno a Milano per gli Sports Hackdays, due giorni che daranno l’occasione a tutti i partecipanti di misurarsi con l’affascinante e complesso mondo dei dati sportivi.

    sprintGli Sports Hackdays sono il primo, grande hackathon internazionale sui dati dello sport. lanciato da OKF. Milano, Basilea, Vienna e Sierre ospiteranno in contemporanea due intensi giorni di Data Mining, Data Visualization e sviluppo di applicazione su dati di federazioni sportive, centri di ricerca e semplici tifosi ed appassionati. Performance atletiche, passaggi tra giocatori, dati biometrici, chilometri percorsi in bici: tantissime discipline sportive e tantissimi dati, molti dei quali verranno aperti in questa occasione. Il mondo dello sport è d’altronde un mondo di dati. Il più delle volte chiusi e costosi, i dati sportivi sono restati lontani dall’interesse dei più, appannaggio di pochi appassionati e di aziende del settore.

    Con quest’evento OKF Italia, che organizza gli Sports Hackdays Milano insieme a Tuxtax, startup di Data Visualization, vuole dimostrare il valore dell’opendata anche nello sport, ma soprattutto di far crescere un comunità che possa nel tempo lavorare attivamente su queste affascinanti tematiche.

    All’evento di Milano sarà presente Technogym, l’azienda italiana azienda leader mondiale nella realizzazione di attrezzature per il fitness, che porterà con sé attrezzature da allenamento equipaggiate con la nuova console UNITY basata su sistema Android, su cui i partecipanti all’hackhaton potranno lavorare e sperimentare. E ancora sarà a fianco dei partecipanti Deltatre, azienda torinese che cura le visualizzazioni dei maggiori eventi sportivi internazionali (tra cui Olimpiadi, Coppa del Mondo di Calcio, Champions League), per mostrare le peculiarità dello sviluppo di servizi informativi per lo sport. Un’importante occasione per far comprendere a due aziende leader mondiali nei propri settori, il valore aggiunto degli opendata.

    Per ogni informazione http://tuxtax.ch/sports-hackdays-milano.html Hashtag per seguire l’evento su twitter: #HackSports

    nota: testo di carlo toccaceli blasi – promotore dell’iniziativa

    Chi ha paura dell’openaccess ?

    raimondi - 04/04/2014 in Cultura, openaccess, Ricerca

    Nel numero di ottobre delle rivista Science John Bohannon pubblicava un articolo intitolato “Who’s afraid of Peer Review” con lo scopo di mostrare quando inefficiente fosse il controllo sulla qualità delle pubblicazioni Open Access. Le risposte non si fecero attendere. Il paper generò una moltitudine di post da parte di moltissimi ricercatori. Uno di questi, molto dettagliato, si intitolava altrettanto provocatoriamente “Who’s afraid of Open Access” e portava la firma di Ernesto Priego, direttore del corso di Electronic Publishing alla City University of London. Priego evidenziava con chiarezza le molte lacune nel metodo di  Bohannon.

    Non era presente un controllo comparativo tra le riviste openaccess e le più classiche subscription based. Non era presente un controllo orizzontale rispetto alle diverse discipline di ricerca, ad esempio le Humanities, rispetto al quale il controllo comparativo poteva essere pesato. Non erano presenti chiari criteri di selezione delle fake submissions che potessero rappresentare una solida base per sostenere l’ipotesi dell’articolo.

    Dal punto di vista prettamente scientifico il paper non forniva nessuna evidenza rispetto alla qualità delle pubblicazioni openaccess se non un banale risultato: c’è bisogno di un maggiore controllo sulla peer review. Un risultato che, d’altra parte, sembra comune a tutte le riviste, Science compresa. Da qui la provocazione di Priego:

    We are not afraid of peer review. Who’s afraid of open access? That is the question.”

    Era evidente che Science ne era uscita male dal confronto, facendo una chiara brutta figura. Niente di nuovo sotto il sole. La rivista, vale la pena ricordarlo, era già stata oggetto di simili eventi quando aveva pubblicato il falso articolo sulle forme di vita all’arsenico. Alla direzione editoriale probabilmente era sfuggito come Michael Eisen, biologo alla Berkley University e autore del paper incriminato, per sua stessa confessione avesse brillantemente adottato la stessa strategia per evidenziare le lacune denunciate da Bohannon sul loro prodotto editoriale.

    La comunità degli advocate non si raccapezzava proprio come Marcia McNutt, Editor-in-chief di Science, avesse valutato il paper prima di tesserne le lodi nella summary del numero di ottobre. L’approccio paternalistico della McNutt mancava proprio il bersaglio quando si trattava di fare quello che lei stessa raccomandava alla comunità dei ricercatori: porgere più attenzione sull’accuratezza e sulla valutazione dei metodi di revisione. Ipocrisia e malafede, due cose che di solito rovinano un buon ragionamento.

    Per questo la sfida di Priego, e di tutti quelli che hanno contribuito ad alzare la voce a difesa dell’openaccess, non deve rimanere chiusa nella semplice provocazione. Come ha scritto di recente David Eaves, opendata advocate in Canada, leggere le critiche è importante. Ci aiuta meglio a formulare i nostri argomenti, ci rende più intelligenti e migliori, perché più responsabili. La critica ci aiuta anche a conservare una memoria degli eventi, ma solo se da questi contribuiamo a creare argomenti di dibattito.

    In un paese come l’Italia, la ricerca è diventata un disvalore proprio perché, a poco a poco, il pensiero critico in ambito pubblico è diventato il peccato più grande.

    Ad alcuni mesi di distanza il polverone sollevato da Science può dare agli open advocate –chiunque si batta per la causa di una maggiore partecipazione nei processi fondamentali della società– almeno tre argomenti sui quali riflettere.

    Siate più critici – sostenere che ci sia qualcosa da aprire, in questo caso l’accesso alle pubblicazioni scientifiche, è una rivendicazione politica di interessi sociali. Di conseguenza va trattata come tale, dichiarandola apertamente e senza paura. Perché la trasparenza si fa anche e soprattutto scoprendo le carte e motivando in modo ragionevole perché è meglio decidere x piuttosto che y.  Nel caso di Science è normale essere contro l’openaccess perché si è a difesa del proprio modello di business. Ma la strategia del pavone non funziona se il tuo modello subscription based è già minato dalla presenza di framework nazionali e comunitari che impongono la pubblicazione open per ricerche finanziate con soldi pubblici. La qualità del meccanismo passa in secondo piano quando il punto è scegliere se cambiare il modello con il quale si produce e si distribuisce ricerca oppure no.

    Trasformate la tensione in coesione – all’interno dell’openaccess esiste una tensione reale. Concordiamo sulla necessità di accelerare il knowledge transfer in tutti i campi della ricerca –dalle scienze naturali alle umanistiche. D’altra parte c’è unanime disaccordo sul modello di business: per veicolare il valore dell’OA dobbiamo anche fornire un modello che non faccia ricadere i costi soltanto su uno degli attori e che dia  vantaggio a tutte le parti in gioco –editori, enti, ricercatori., lettori, investitori. Rendere la scelta politica permette di raggiungere un punto fondamentale: qualunque sia la soluzione proposta, se non è partecipata è destinata a fallire sul nascere. Se non si condivide il perché di un’azione nessuna azione può avere successo, perché mancherà di contributi reali.

    Abbattete muri – i problemi della ricerca non toccano i ricercatori finché i ricercatori non sono toccati dai problemi. E per esperienza, non fate mai arrabbiare un ricercatore. Ma sono tendenzialmente pigri, finché non trovano uno strumento per lottare. Qui ne propongo uno, facile, veloce, ed efficace. Si chiama “OpenAccessButton”, un bottone da aggiungere alla bookmark bar del proprio browser che permette di segnalare ogni qual volta ci si scontra con un paywall. Il paywall è la pagina che richiede il pagamento per la visione di una pubblicazione.  Il progetto, che è online da qualche mese, è in open source e permetterà di quantificare la domanda di accesso alle pubblicazioni chiuse. Insieme, anche di accrescere la consapevolezza all’interno della stessa comunità dalla quale la questione dell’Openaccess dovrebbe emergere con più forza.

     

    #invasionidigitali + #beniculturali con l’unione #liberiamolacultura

    luca corsato - 03/18/2014 in beniculturaliaperti, Cultura, Open data, OpenGLAM, openheritage, openknowledge

    Incontro_di_leone_magno_e_attila_01Ci si chiedeva “come mai non si ottengono risultati”

    Ci si chiedeva “come mai non si ottengono risultati”. Ci si chiede perché il movimentismo rumoreggia forte ma ottiene poco. In attesa di scoprire quali possano essere le risposte definitive, noi sperimentiamo se è ancora valido il concetto di l’unione fa la forza. Il progetto #beniculturaliaperti si fonde in #invasionidigitali.

    Nell’era di tutti connessi

    Nell’era di tutti connessi si ipotizza che il network possa essere contemporaneamente garanzia di individualismo e comunità, ma come sempre i concetti richiedono l’applicazione e questa deve tener conto dei contesti e delle persone. InvasioniDigitali sono innanzittuto persone che hanno trovato il modo di rappresentarsi in un’azione ovvero l’occupazione fisica dei luoghi. #beniculturaliaperti si è rappresentato in un concetto che considera i dati dell’arte un elemento fondante di conservazione, ricerca scientifica, evoluzione professionale. Quindi i due progetti sono assolutamente complementari: perché non fondersi?

    http://youtu.be/hYyLH9l4_EM

    Oggi siamo davvero felici di darvi questa notizia!

    Oggi siamo davvero felici di darvi questa notizia! Per questo #‎invasionidigitali‬ e ‪#‎beniculturaliaperti‬ sono lieti di annunciare la loro fusione in un’unica invasione: allegramente come si è sempre fatto entreremo nei luoghi che abbiamo ereditato e che vogliamo vivere in ogni loro aspetto. Quello in cui crediamo lo trovate nel nostro manifesto “rinforzato”, mentre il motivo che ci ha spinto a convolare a giusta unione è presto detto: quando si hanno intenti comuni è fondamentale unire le forze e concentrarsi sull’obiettivo. Noi invadiamo e sappiamo che solo la forza d’urto della banda può portare trasformazione e quindi siamo disinteressati al chi e ci concentriamo sul quanti e come, perché la forza non sta nei nomi ma nella condivisione delle idee, degli obiettivi, del divertimento e siamo pronti ad abbracciare chiunque voglia venire a fare con-fusione con noi!

    1920605_472859749509522_1145539967_n

    Il Manifesto: Crediamo che

    Il Manifesto: Crediamo che l’applicazione al settore dei beni culturali delle nuove forme di comunicazione partecipata e della multimedialità, sia da considerare una occasione irrinunciabile per garantire la trasformazione delle istituzioni culturali in piattaforme aperte di divulgazione, scambio e produzione di valore, in grado di consentire una comunicazione attiva con il proprio pubblico, e una fruizione del patrimonio culturale priva di confini geografici e proiettata verso un futuro nel quale la condivisione e il modello dell’open access saranno sempre maggiori.

    Crediamo in nuove forme di conversazione e divulgazione del patrimonio artistico non più autoritarie, conservatrici, ma aperte, libere, accoglienti ed innovative.

    Crediamo in un nuovo rapporto fra il museo e il visitatore basato sulla partecipazione di quest’ultimo alla produzione, creazione e valorizzazione della cultura attraverso la condivisione di dati e immagini.

    Crediamo che il riuso dei dati e delle immagini dell’arte attraverso le piattaforme che mettono in connessione fra loro visitatori, esperti, studiosi, appassionati, possa attivare la produzione di contenuti personali UGC (User Generated Content), a beneficio di processi co-creativi di valore culturale ed economico per tutti.

    Crediamo in nuove esperienze di visita dei siti culturali, non più passive, ma attive, dove la conoscenza non viene solo trasmessa ma anche costruita, dove il visitatore è coinvolto ed è in grado di produrre egli stesso forme d’arte.

    Crediamo che internet ed i social media siano una grande opportunità per la comunicazione culturale, un modo per coinvolgere nuovi soggetti, abbattere ogni tipo di barriere, e favorire ulteriormente la creazione, la condivisione, la diffusione e valorizzazione del nostro patrimonio artistico.

    Crediamo che Internet sia in grado di innescare nuove modalità di gestione, conservazione, tutela, comunicazione e valorizzazione delle nostre risorse.

    Crediamo nella semplificazione delle norme per l’accesso e riuso dei dati dei Beni Culturali per incentivarne la digitalizzazione.

    Crediamo nella necessità di confronto fra tutti gli attori dei beni culturali perché le idee non rimangano isolate ma possano circolare e ispirare altri a migliorarle e renderle operative perché solo dallo scambio di conoscenze deriva altra conoscenza. Siamo convinti che questo scambio non debba limitarsi ai confini di un paese ma possa, e debba, essere internazionale.

    Crediamo che l’Arte diventi Conoscenza quando viene condivisa

     

    Contribuisci anche tu a #liberarelacultura, aderisci al manifesto e partecipa alle #invasionidigitali

    ‪#‎Liberiamolacultura‬

    immagine: http://upload.wikimedia.org/wikipedia/commons/f/f4/Incontro_di_leone_magno_e_attila_01.jpg