Risultati
193 risultati
-
italia
Piano di sviluppo DAF
Indice dei contenuti ...
-
italia
Implementazione e fruizione Dataset Chiave
Caso applicativo. Implementazione Dataset Chiave Ambito Mobilità e Trasporti. PA coinvolte. TaskForce OpenData, Motorizzazione Civile, ACI. Dataset utilizzati. Statici: Lista Parcheggi, Parco Macchine, Perimetro, varchi e orari ZTL, Patenti Attive, Incidenti Stradali. Real Time: Traffico e viabilità in tempo reale, stato dei parcheggi in tempo reale. Roadmap. Entro dicembre 2017. Stato. In attesa dei dataset. Note. In lavorazione la documentazione relativa alla struttura dei dati per ogni dataset chiave, le pipeline di trasformazione dal dato grezzo in quello Open Data, le procedure di ingestion automatiche dei dati necessari per produrre i dataset chiave menzionati. Caso applicativo. Implementazione Dataset Chiave Ambito Economia e Finanze. PA coinvolte. UnionCamere, Agenzia delle Entrate. Dataset utilizzati. Statici: Registro delle Imprese (dati anagrafici e bilanci), punti fiduciari, comuni d’Italia e stati esteri, dati statistici su immobili per comune, statistiche su transazioni immobiliari. Roadmap. Entro dicembre 2017. Stato. In attesa di via libera di UnionCamere per contenuto che sarà possibile rendere open. In attesa di apertura dati Agenzia Entrate. Note. In lavorazione la documentazione relativa alla struttura dei dati per ogni dataset chiave, le pipeline di trasformazione dal dato grezzo in quello Open Data, le procedure di ingestion automatiche dei dati necessari per produrre i dataset chiave menzionati. Caso applicativo. Implementazione Dataset Chiave Ambito Cultura e Turismo. PA coinvolte. MIBACT, TaskForce OpenData. Dataset utilizzati. Statici: Istituti e luoghi della cultura, eventi culturali, altri eventi assimilabili, catalogo dei beni culturali, cammini e percorsi, altri percorsi assimilabili, strutture ricettive, guide turistiche. Roadmap. Entro dicembre 2017. Stato. In lavorazione. Note. In lavorazione la documentazione relativa alla struttura dei dati per ogni dataset chiave, le pipeline di trasformazione dal dato grezzo in quello Open Data, le procedure di ingestion automatiche dei dati necessari per produrre i dataset chiave menzionati ...
-
italia
Servizi di accesso ad eventi di interesse pubblico
Caso applicativo. Servizio notifica dei trasporti pubblici. PA coinvolte. MIT, Task Force DatiPubblici. Dataset utilizzati. Dataset direttamente forniti da PA che collaborano attivamente alla sperimentazione e dataset già disponibili sotto forma di open-data. Roadmap. In fase di studio. Stato. Marzo 2017. Note. Il dominio dei trasporti pubblici è particolarmente favorevole alla conduzione di attività sperimentali perché ci sono un numero significativo di dati già pubblicati come opendata utilizzando formati che rappresentano standard de-facto di dominio (es. gtfs, gtfs-realtime) ...
-
italia
Strumenti di monitoraggio automatico
Caso applicativo. Strumenti di supporto al monitoraggio del Piano Triennale. PA coinvolte. AgID, Team Digitale. Dataset utilizzati. IPA, altre datasource da identificare insieme ad AgID. Roadmap. Entro dicembre 2017. Stato. In attesa della definizione degli indicatori del Piano Triennale. Note. Il team di data scientist ed AgID verificheranno quali indicatori del piano triennale si prestano ad essere misurati in modo automatico per mezzo del DAF. Caso applicativo. Monitoraggio canali social delle PA. PA coinvolte. Team Digitale. Dataset utilizzati. Dati provenienti da uno o più social network. Roadmap. Marzo 2018. Stato. In fase di studio. Note. L’output minimo è un dashboard che offre misurazioni sull’uso dei social network da parte delle PA (es. Classifiche delle PA più attive, PA più seguite, ecc). Sarà inoltre valutata la possibilità di realizzare cruscotti utili a monitorare in tempo reale gli argomenti più trattati sui canali della PA, in modo da offrire uno strumento utile a velocizzare l’individuazione delle esigenze dei cittadini ...
-
italia
Nome caso d’uso
Caso applicativo. …. PA coinvolte. …. Dataset utilizzati. …. Roadmap. …. Stato. …. Note. … … … ...
-
italia
Strumenti di Analisi & Dashboard Self Service
Caso applicativo. Sperimentazione di Analytics & Dashboarding. PA coinvolte. Elenco aperto, correntemente rapporti avviati con Milano, Torino. Dataset utilizzati. In fase di definizione. Roadmap. Dicembre 2017 - Marzo 2018. Stato. In fase di avvio lavori. Note. Si lavorerà insieme alle PA selezionate per guidarle nell’utilizzo degli strumenti messi a disposizione, capirne sul campo i relativi bisogni e realizzare insieme a loro dei PoC esemplificativi ...
-
italia
Verifica della qualità delle informazioni delle base di dati
Caso applicativo. Indice delle Pubbliche Amministrazione (IPA). PA coinvolte. AgID, Team digitale. Dataset utilizzati. IPA. Roadmap. Entro dicembre 2017. Stato. In fase di pianificazione. Note. In IPA sono memorizzate informazioni che si prestano a una serie di verifiche/controlli automatici come, ad esempio le URL, gli indirizzi email, gli indirizzi PEC. Una volta importato IPA nel DAF e avviato un flusso utile al suo aggiornamento, si abilita un flusso di dati per l’aggiornamento periodico e si sviluppa un programma batch che periodicamente verifica la qualità e la completezza dei dati. Il batch produce in modo automatico un report su tutto l’IPA e può inviare via email a ciascun referente IPA la sezione del report che lo riguarda ...
-
italia
Pubblicazione Open Data “certificati” in SaaS (Certified ODaaS)
Caso applicativo. Sperimentazione con Comune di Milano. PA coinvolte. Comune di Milano. Dataset utilizzati. In fase di definizione da parte del Comune. Roadmap. In fase di avvio lavori. Stato. Entro dicembre 2017. Note. Output del progetto è di utilizzare le pipeline di ingestion per creazione di dataset standard nel DAF, da cui far partire pipeline di trasformazione degli stessi in dataset Open Data con relativa pubblicazione nella homepage di Milano all’interno del Dataportal ...
-
italia
Data Applications
Caso applicativo. Algoritmo di network analysis e collocation mining applicato al registro delle imprese. PA coinvolte. Unioncamere - InfoCamere. Dataset utilizzati. Registro delle imprese, altri dataset da identificare. Roadmap. Entro Dicembre 2017. Stato. In fase di studio. Note. Al momento lo studio sarà effettuato sul campione di imprese identificato da InfoCamere. L’obiettivo è di fornire uno strumento utile a capire i collegamenti tra imprese (network analysis) e zone con concentrazione di attività vs indicatori di profittabilità relativi. Caso applicativo. Mappa Interattiva Sicurezza Urbana. PA coinvolte. Comune di Torino. Dataset utilizzati. Dataset su segnalazioni da parte dei cittadini al call center della Polizia Municipale. Roadmap. Entro Dicembre 2017. Stato. In fase di studio. Note. Il deliverable è una mappa in cui visualizzare le segnalazioni, con indicazioni di quali sono le zone più a rischio della città; una dashboard per la visualizzazione dei dati relativi. Caso applicativo. Analisi e monitoraggio sinistri stradali. PA coinvolte. Comune di Torino. Dataset utilizzati. Dataset sui sinistri stradali. Roadmap. Entro Dicembre 2017. Stato. In fase di studio. Note. Il deliverable è una mappa in cui visualizzare i sinistri, con indicazioni di quali sono le zone più a rischio della città; una dashboard per la visualizzazione dei dati relativi. Caso applicativo. Analisi per ottimizzazione politiche su pianificazione asili. PA coinvolte. Comune di Milano. Dataset utilizzati. Dataset su popolazione residente, elenco asili, elenco servizi, e altro da identificare. Roadmap. Entro Dicembre 2017. Stato. In fase di studio. Note. Il deliverable è un modello che aiuta ad identificare le aree dove è ottimale l’apertura di nuovi asili ...
-
italia
Data & Analytics Framework (DAF) - Developer Documentation
This documentation refers to the Alpha version of the DAF (released in October 2017) and it is daily updated and improved. For comments and enhancement requests about the documentation please open an issue on GitHub. The Data & Analytics Framework (DAF, in short) is an open source project developed in the context of the activities planned by the Italian Three-Year Plan for ICT in Public Administration 2017 - 2019, approved by the Italian Government in 2017. The DAF project is an attempt to establish a central Chief Data Officer (CDO) for the Government and Public Administration. Its main goal is to promote data exchange among Italian Public Administrations (PAs), to support the diffusion of open data, and to enable data-driven policies. The framework is composed by three building blocks:. A Team of Data Experts (Data Scientists and Data Engineers), able to manage and evolve the platform and to provide support to PA on their analytics and data management activities in a consultancy fashion. A Regulatory Framework, that institutionalizes this activity at government level, and gives the proper mandate to the PA that will manage the DAF, in compliance with privacy policy. This documentation is focused on the Big Data Platform, and we’ll refer to it as DAF for the sake of simplicity. The Italian instance of the DAF is developed and maintained by the DAF Team (part of the Digital Transformation Team of the Italian Government), composed by data scientists and data engineers, which uses and evolves the framework: to analyze data, to create machine learning models and to build data applications/visualization products. The DAF is designed to be easily re-usable in other countries and other application domains. It exposes the following data management and analytics functionalities:. a catalog of open-data datasets based on CKAN;. a content management system for data stories, which are a kind of blog post that integrates interactive charts (made using the DAF) with a narrative description of the analysis made;. community tools to collaborate and learn how to use the platform;. a Private Dataportal, a web application with the following features:. a catalog of all datasets the user can access;. an ingestion form to govern (insert, edit, delete) datasets information and setup ingestion procedures;. data visualization and dashboard tools;. a data science notebook;. a Hadoop Cluster with typical applications to centralize and store, manipulate and standardize and re-distribute data and insights;. a Multi-tenant architecture, based on Kerberos and LDAP. The DAF is under development. This is a snapshot of the roadmap:. By December 2017: Alpha 2 release. By January 2018: Alpha 3 release. All contributions are welcome!. Contents ...
-
italia
Installation Guide
This section provides installation information for all the components of DAF, except for the Big Data Platform. Based on your development needs, you will be able to install only the individual components you require for your task. Almost every component has dependencies on other components–this will be documented in the installation guide of each component. In general, components developed internally are available via GitHub repositories, meanwhile external ones have been dockerized with all needed dependencies and configurations. Several components are dependent on LDAP and/or FreeIPA. In this case, we offer you three alternatives: a dockerized LDAP, a remote FreeIPA test server, or a dockerized FreeIPA (working with Linux only at the moment). All of them will have test accounts already created for you. The best way to have everything installed and properly configured is to use the Virtual Machine. See the Local Installation guide to know how to configure the Virtual Machine or, if you want to run only a few components, please follow the component installation guide you find at the links below ...
-
italia
Dataportal-public
Before proceeding with the installation steps, you need to install and run the following external components:. Basic Dependencies. There are no basic dependencies needed. Features Enabling Dependencies. Connection with DataStories:. daf-dataportal-backend. Installation Steps. First of all, clone the following GitHub repository:. > $ git clone https://github.com/italia/daf-dataportal-backend. Start in Debug Mode:. > npm install > npm start. Start with mock server:. > npm run mock. Start in Production Mode:. > npm run build > npm install -g serve > serve -s build ...