Risultati
175 risultati
-
italia
Linee guida per il sistema di misurazione e valutazione della performance
L’obiettivo di questo capitolo è fornire elementi di riferimento per il sistema di misurazione e valutazione relativamente alla performance individuale. Per definire il sistema di misurazione e valutazione della performance individuale, si distingue tra:. gli elementi di riferimento, che includono indicazioni su cosa e chi misura e valuta;. il processo, che ripercorre le fasi in cui si articola il ciclo della performance individuale dalla programmazione alla valutazione. Elementi di riferimento per la misurazione e valutazione della performance individuale. La performance individuale, anche ai sensi dell’art. 9 del d.lgs. 150/2009, è l’insieme dei risultati raggiunti e dei comportamenti realizzati dall’individuo che opera nell’organizzazione, in altre parole, il contributo fornito dal singolo al conseguimento della performance complessiva dell’organizzazione. Le dimensioni che compongono la performance individuale sono:. risultati, riferiti agli obiettivi annuali inseriti nel Piano della performance o negli altri documenti di programmazione; essi sono a loro volta distinguibili, in base a quanto l’amministrazione indica nel proprio SMVP, in:. risultati raggiunti attraverso attività e progetti di competenza dell’unità organizzativa di diretta responsabilità o appartenenza;. risultati dell’amministrazione nel suo complesso o dell’unità organizzativa sovraordinata cui il valutato contribuisce;. risultati legati ad eventuali obiettivi individuali specificamente assegnati;. comportamenti, che attengono al “come” un’attività viene svolta da ciascuno, all’interno dell’amministrazione; nell’ambito della valutazione dei comportamenti dei dirigenti/responsabili di unità organizzative, una specifica rilevanza viene attribuita alla capacità di valutazione dei propri collaboratori. La figura 7 illustra le dimensioni che compongono la performance individuale e la relazione con la performance organizzativa di cui al paragrafo 4.1. La parte gialla racchiude la performance individuale legata ai comportamenti e ai risultati annuali delle componenti declinate sopra. La performance individuale contribuisce alla performance organizzativa complessiva (in blu) che si completa con i risultati degli obiettivi specifici triennali. Per alcuni esempi concreti di come possano essere declinate le diverse dimensioni in varie situazioni si rinvia al box 8. Figura 7 – La schematizzazione della performance individuale e della relazione con la performance organizzativa. Nel proprio SMVP ciascuna amministrazione deve specificare quali sono le dimensioni tenute in considerazione ai fini della misurazione e valutazione della performance individuale e quali siano i rispettivi pesi. Il peso attribuito alle dimensioni della performance Individuale varia in relazione alle attività e responsabilità assegnate all’individuo, ossia con la sua posizione all’interno della struttura organizzativa. Per la costruzione e il funzionamento del sistema di misurazione e valutazione della performance individuale, la mappatura dei diversi ruoli organizzativi all’interno dell’amministrazione è quindi un elemento fondamentale. In particolare essa consente di individuare cluster omogenei di ruoli organizzativi (vedi box 7), posizionandoli rispetto al sistema gerarchico e operativo. I paragrafi 5.1.1 e 5.1.2 entrano nel dettaglio delle dimensioni della performance individuale. Nel SMVP, inoltre, devono essere specificate le modalità con le quali l’intero processo viene formalizzato, per esempio prevedendo la compilazione, in più fasi successive, di apposite schede di valutazione individuali (eventualmente personalizzabili per ciascun livello gerarchico/cluster) nelle quali annotare: gli obiettivi assegnati e corrispondenti set di indicatori con relativi target, i comportamenti che saranno oggetto di valutazione e, successivamente, gli esiti della misurazione e della valutazione. Box 7 – Come utilizzare i sistemi di ponderazione. Un passaggio importante e delicato, nella fase di impostazione del sistema di valutazione della performance individuale, è la determinazione dei pesi attribuiti alle diverse dimensioni della performance individuale. Ciò richiede una riflessione sui seguenti aspetti:. la scelta dei pesi è guidata dalla mappatura dei ruoli organizzativi presenti nell’amministrazione, tenendo conto della struttura organizzativa, della linea gerarchica e della tipologia di attività svolta;. la scelta dei pesi orienta l’azione delle persone e dei gruppi in quanto momento di “comunicazione” delle aspettative. In relazione a questo secondo aspetto si sottolinea che l‘attribuzione dei pesi deve essere quanto più possibile contestualizzata e rispondente ai criteri di specificità e coerenza con la strategia dell’amministrazione. L’utilizzo delle ponderazioni infatti veicola messaggi specifici. Ad esempio:. prevedere un peso significativo per i risultati dell’organizzazione comunica alle persone che si intende sollecitare uno sforzo comune verso traguardi collettivi, incentivando la collaborazione e il lavoro di gruppo;. assegnare invece un peso significativo a obiettivi individuali comunica che lo sforzo della persona deve essere innanzitutto diretto al contesto lavorativo di sua diretta responsabilità;. dare un peso elevato ai comportamenti pone enfasi sul “come” vengono svolte le attività. I risultati. Come già accennato anche nelle linee guida n. 1/2017, appare opportuno che i risultati considerati ai fini della performance individuale siano riferiti agli obiettivi annuali inseriti nel Piano della performance. Nel caso in cui l’amministrazione abbia adottato un piano selettivo, la definizione dei risultati individuali deve essere riferita anche agli altri documenti di programmazione di cui al paragrafo 3. Le linee guida n. 1/2017 hanno infatti introdotto la possibilità per le amministrazioni di avere un Piano selettivo, ossia che non copra tutte le attività e progetti svolti dall’amministrazione. è opportuno precisare che invece i SMVP devono essere completi; le amministrazioni devono quindi prevedere le specifiche modalità di assegnazione, misurazione e valutazione degli obiettivi (sia organizzativi che individuali) a tutte le unità organizzative e a tutto il personale, dirigente e non. Come accennato nel paragrafo precedente, l’amministrazione indica nel proprio SMVP, quali sono i risultati che, per ciascun livello gerarchico/cluster, sono tenuti in considerazione per la misurazione e valutazione della performance individuale. Si sottolinea, inoltre, l’importanza che le amministrazioni si dotino di modalità operative ed organizzative adeguate per la misurazione degli indicatori legati ai risultati onde assicurare l’attendibilità dei dati utilizzati e la coerenza con la performance organizzativa (vedi par. 4.2). L’OIV contribuisce a verificare che anche a livello individuale siano rispettati i requisiti del sistema di indicatori. Il box 8 illustra alcuni esempi di come possono essere definite le dimensioni della performance individuale per i diversi ruoli organizzativi. Box 8 – Le dimensioni della performance individuale. Esempio n. 1- Dirigente apicale (Segretario Generale o Capo Dipartimento), la performance individuale può essere composta da:. risultati:. risultati legati agli obiettivi annuali assegnati all’unità organizzativa di diretta responsabilità (ufficio dirigenziale di livello generale). risultati del ministero nel suo complesso;. eventuali risultati relativi ad altri obiettivi individuali assegnati al Dirigente apicale;. comportamenti. Esempio n. 2 – Direttore generale, la performance individuale può essere composta da:. risultati:. risultati legati agli obiettivi annuali assegnati all’unità organizzativa di diretta responsabilità (ufficio dirigenziale di livello generale);. risultati del ministero nel suo complesso o del dipartimento cui afferisce la direzione generale;. eventuali risultati relativi ad altri obiettivi individuali assegnati al Direttore generale;. comportamenti. Esempio n. 3 – Dirigente di ufficio di livello non generale, la performance individuale può essere composta da:. risultati:. risultati legati agli obiettivi annuali assegnati all’unità organizzativa di diretta responsabilità (ufficio dirigenziale di livello non generale);. risultati della direzione generale e/o dipartimento di appartenenza;. eventuali risultati relativi ad altri obiettivi individuali assegnati al dirigente;. comportamenti. Esempio n. 4 – Personale non dirigente, la performance individuale può essere composta da:. Caso a). risultati dell’ufficio/gruppo di lavoro di appartenenza;. comportamenti;. (non vengono considerati i risultati individuali). Caso b). risultati:. risultati individuali legati a obiettivi relativi ad attività e progetti di specifica competenza del dipendente;. risultati dell’ufficio/gruppo di lavoro di appartenenza;. comportamenti. I comportamenti. I comportamenti sono azioni osservabili che l’individuo mette in atto per raggiungere un risultato. Questa componente che attiene al “come” viene resa la prestazione lavorativa, spesso viene trascurata; è invece importante che sin dalla fase di programmazione, insieme all’assegnazione degli obiettivi di risultato, il valutatore comunichi e formalizzi anche i comportamenti attesi. Per garantire un’adeguata omogeneità metodologica devono essere adottati cataloghi (o dizionari o framework) di riferimento. I cataloghi sono documenti in cui si individuano i comportamenti attesi per ciascun cluster di ruolo organizzativo. I cataloghi descrivono elementi utili a rendere esplicito, sia al valutato che al valutatore, quali comportamenti sono ritenuti determinanti per lo svolgimento dei compiti legati allo specifico ruolo ricoperto. La costruzione del catalogo presuppone un’analisi delle caratteristiche dei diversi ruoli all’interno dell’organizzazione che consenta di individuare i comportamenti chiave, pervenendo ad una conseguente personalizzazione. In mancanza di questa personalizzazione si rischia, da un lato, che si perda la funzione di orientamento e stimolo nei confronti del valutato e che quest’ultimo non percepisca l’effettiva portata della valutazione e, dall’altro, che il valutatore effettui valutazioni eccessivamente soggettive in quanto non ancorate a parametri predefiniti. Pur incentivando la personalizzazione dei cataloghi, in queste linee guida si delineano alcuni requisiti minimi da formalizzare e utilizzare nel SMVP:. associazione tra comportamenti e mappa dei ruoli organizzativi: è importante chiarire quali comportamenti sono utilizzabili per ciascun cluster di posizione. Ad esempio se l’amministrazione ha nel proprio catalogo la leadership come comportamento, questo sarà tipicamente utilizzabile per il personale di livello dirigenziale generale mentre potrebbe essere poco utile utilizzarlo per la valutazione del personale delle aree; in alternativa al medesimo comportamento potrebbero essere associati descrittori diversi (vedi punto successivo) in corrispondenza dei diversi cluster, per tener conto delle specificità di ciascuno di essi;. descrittori dei comportamenti: per ciascun comportamento (ad esempio: capacità di gestire le risorse umane) si descrivono una serie di azioni osservabili considerate significative per illustrare il comportamento atteso. Per la capacità di gestire le risorse umane, ad esempio, si possono declinare le azioni quali “coinvolge il gruppo nel lavoro, spiega cosa fare, come e perché”; “conduce le riunioni interne promuovendo la comunicazione e la partecipazione”; “distribuisce i carichi di lavoro sulla base delle specifiche competenze/capacità dei singoli e alla disponibilità di tempo che i soggetti hanno in quel determinato momento”, etc. I descrittori sono utili sia al valutatore che al valutato per chiarire i comportamenti attesi. è utile avere descrittori diversi in corrispondenza delle diverse scale di giudizio: ciò chiarisce a valutatore e valutato i comportamenti in relazione ai diversi gradi di valutazione. Infine si suggerisce di includere anche azioni ritenute inadeguate e non solo positive;. scale di valutazione: per definire il livello di adeguatezza o meno del comportamento realizzato dal singolo, i cataloghi possono utilizzare scale di giudizio o di valutazione che consentano di “quantificare” in che misura (ad esempio, da eccellente a inadeguato o in una scala numerica da 1 a 5) o con quale frequenza (sempre, spesso, solo a volte, mai) un soggetto ha manifestato e dimostrato, nello svolgimento dei suoi compiti lavorativi, di possedere determinate caratteristiche. Chi valuta la performance individuale. La valutazione della performance individuale è di responsabilità del superiore gerarchico, che può effettuarla con diverse modalità:. valutazione del solo superiore gerarchico: è la modalità più classica di valutazione, la cui logica risiede nel fatto che il superiore, oltre a essere responsabile di tutte le attività dei collaboratori, dovrebbe essere la persona che ha tutte le competenze e informazioni per valutare;. valutazione del superiore gerarchico preceduta da autovalutazione: è la modalità che prevede una fase iniziale di autovalutazione. Gli esiti dell’autovalutazione potranno essere utilizzati, durante i colloqui di valutazione, come ulteriore elemento di confronto e apprendimento tra valutato e valutatore;. valutazione del superiore gerarchico e altre parti: in alcune situazioni il superiore gerarchico può non avere la possibilità di monitorare con continuità le prestazioni dei singoli individui; lo stesso avviene nel caso di collaboratori che svolgono attività molto specialistiche o che richiedano conoscenze e strumenti molto specifici (come quelle svolte nei centri di ricerca, oppure valutazione di collaboratori che utilizzino conoscenze e strumenti molto specifici). In queste situazioni può essere utile che il superiore gerarchico amplii le informazioni in suo possesso per la valutazione coinvolgendo anche figure intermedie a condizione che abbiano diretta visibilità sulla prestazione del valutato. Il processo di programmazione, misurazione e valutazione della performance individuale. Definiti gli elementi di riferimento per la performance individuale, il modello viene attuato attraverso un processo che parte dalla fine dell’anno N-1 (novembre/dicembre) per chiudersi all’inizio dell’anno N+1 (febbraio/marzo). Il processo, in tutte le sue fasi, è un percorso di sviluppo dell’organizzazione e delle persone, i cui attori principali sono i dirigenti e il personale non dirigenziale con funzioni direttive. Per agevolare lo svolgimento del processo di programmazione, le amministrazioni devono predisporre un adeguato supporto, ad esempio, assicurando un’idonea tempistica dei colloqui; fornendo le informazioni rilevanti per i colloqui; raccogliendo a valle le schede di esito; raccogliendo i dati rilevanti per la valutazione delle due componenti di risultato (organizzativa ed individuale). L’OIV verifica che l’intero processo sia svolto in modo conforme al SMVP e che i risultati e i comportamenti attesi siamo coerenti con gli obiettivi organizzativi. Di seguito si illustrano le fasi del processo. Programmazione. Nella fase di programmazione vengono definiti i comportamenti e i risultati attesi (individuali e organizzativi). Stabiliti gli obiettivi annuali, la definizione della performance individuale attesa avviene attraverso un colloquio tra il singolo e il suo superiore gerarchico. La fase di programmazione della performance individuale si concretizza nella formalizzazione da parte del valutatore di tutti gli obiettivi e comportamenti attesi assegnati a ciascun individuo (per esempio mediante l’utilizzo di apposite schede individuali). Misurazioni e colloqui intermedi. Durante l’anno i valutatori e i rispettivi valutati analizzano i risultati intermedi raggiunti e i comportamenti messi in atto. Questo confronto è spesso continuo e informale, ma è opportuno che siano previsti anche colloqui intermedi formali di confronto. L’amministrazione, anche attraverso le misure organizzative citate in precedenza, assicura che siano messe a disposizione preliminarmente le informazioni necessarie ai valutatori relativamente ai risultati organizzativi e individuali. La presenza di questi momenti di interazione intermedi favorisce il coordinamento organizzativo, permette il confronto sulle motivazioni di eventuali scostamenti dalla performance attesa, consente il riallineamento a fronte di cambiamenti sostanziali del contesto di riferimento. Valutazione conclusiva. La fase di valutazione conclusiva si articola in almeno tre momenti distinti:. valutazione da parte dei valutatori (risultati e comportamenti), ricercando la massima trasparenza e dialogo nell’espressione della valutazione stessa. Soprattutto per quanto riguarda i comportamenti, la valutazione viene talvolta condizionata dalla relazione complessiva tra valutato e valutatore, dai fatti accaduti nell’ultima parte dell’anno, da fattori individuali, etc. È necessario che i valutatori siano consapevoli di queste possibili deviazioni e le controbilancino opportunamente. Anche in questo caso è opportuno che siano rese preliminarmente disponibili per i valutatori, anche attraverso le modalità organizzative citate in precedenza, le informazioni relative ai risultati organizzativi e individuali conseguiti;. colloquio di feedback e presa visione delle valutazioni da parte dei valutati, che deve essere gestito non solo come un momento di chiarificazione sulla prestazione del valutato, ma anche come momento di dialogo in cui valutatore e valutato individuano le modalità e le azioni di sviluppo organizzativo e professionale che consentano il miglioramento della prestazione stessa. Le finalità della valutazione sono infatti molteplici. Lo stesso d.lgs. 150/2009 enfatizza l’importanza della valutazione per i percorsi di progressione economica e di carriera, per il conferimento degli incarichi di responsabilità al personale, per il conferimento degli incarichi dirigenziali e relative proroghe. La valutazione, inoltre, può essere presupposto per l’implementazione di interventi formativi ad hoc o per modifiche organizzative che incidano positivamente sulle prestazioni;. eventuale attivazione delle procedure di conciliazione. Box 9 - I colloqui di feedback. Al fine di favorire una gestione strategica delle risorse umane, si raccomanda di prevedere sempre dei momenti di feedback attraverso la possibilità di svolgere dei colloqui intermedi fra valutatore e valutato aventi ad oggetto la possibilità concreta di raggiungere gli obiettivi, il proprio ruolo nella organizzazione, i margini di miglioramento individuale, il management della performance. Oltre ai momenti di confronto previsti in sede di definizione degli obiettivi (colloquio iniziale), revisione (colloquio intermedio), valutazione conclusiva (colloquio finale) le amministrazioni possono prevedere ulteriori momenti di confronto per un’analisi più mirata di eventuali criticità. Sempre allo scopo di dare voce ai valutati, è utile prevedere la somministrazione periodica di questionari sulla percezione del sistema di performance management da parte di tutto il personale. Nella gestione del processo è molto significativo il supporto qualificato che viene dalla Direzione del personale anche nella predisposizione di sistemi informativi, con modelli e format standard, che riducano la produzione cartacea ed incrementino la efficienza del processo. Il processo di valutazione è l’elemento chiave della valutazione individuale, il cui attore, e responsabile, principale è la dirigenza. Il processo, e in particolare i colloqui tra valutato e valutatore, consentono di chiarire le attese, evidenziare i punti di miglioramento a fronte di problemi, ma anche di fornire riscontri positivi in modo diretto. Le amministrazioni hanno già sistemi di valutazione della performance individuale; spesso, però, nella pratica il processo non è coerente con quello sopradescritto, diminuendo la rilevanza della valutazione individuale nel processo di sviluppo delle risorse umane. L’OIV ricopre un ruolo importante nella valutazione individuale a due livelli. Innanzitutto l’OIV effettua una verifica metodologica di adeguatezza del sistema di valutazione rispetto alla tipologia di amministrazione, alla sua storia ed evoluzione. In secondo luogo verifica il corretto svolgimento dei processi di misurazione e valutazione, il cui output è la valutazione del personale. È infatti evidente che il corretto svolgimento dell’attività di valutazione è influenzato in primo luogo dalle modalità con cui sono stati selezionati ed assegnati gli obiettivi, dall’adeguatezza degli indicatori prescelti e dall’affidabilità delle fonti dei dati che li alimentano. Compito dell’OIV, quindi, è quello di assicurare in tutte le fasi del ciclo, ed in particolare in fase di pianificazione e assegnazione degli obiettivi, il proprio supporto metodologico, segnalando all’amministrazione le criticità riscontrate ed i suggerimenti utili per il miglioramento del sistema. L’OIV deve infine effettuare la proposta di valutazione dei dirigenti di vertice in base alle modalità operative definite dall’amministrazione nel proprio SMVP. Nello svolgimento di tale attività, deve garantire un’adeguata partecipazione dei valutati al processo di valutazione nonché la trasparenza e la tracciabilità dell’intero processo. Molto rilevante, come più volte evidenziato, è l’esigenza che l’amministrazione assicuri il supporto al processo di programmazione e controllo mediante adeguate misure organizzative. A tale scopo, in assenza di una struttura dedicata, potrebbe essere opportuno prevedere l’individuazione di appositi gruppi di lavoro trasversali o di una “rete” di referenti presso le varie strutture in cui si articola l’amministrazione che facilitino la comunicazione ed il coordinamento tra tutte le fasi del processo. In questa prospettiva, risulta molto utile anche il coinvolgimento delle strutture che si occupano della gestione delle risorse umane. Per una maggiore efficienza del processo è opportuno, infatti, che queste strutture offrano il proprio qualificato e coordinato contributo nelle seguenti attività:. coordinamento ed indirizzo di tutto il processo della valutazione (predisposizione format delle schede individuali, calendarizzazione dei colloqui, eventuale gestione di piattaforme digitali, verifica del rispetto della tempistica, etc.);. gestione degli incontri di calibrazione di tutti i livelli dirigenziali;. gestione informatizzata del dossier personale dei dipendenti. La differenziazione delle valutazioni e la condivisione delle metodologie. La differenziazione delle valutazioni costituisce una condizione di efficacia di tutto il sistema di misurazione e valutazione della performance, nonché un obbligo esplicitamente sancito a carico di tutti i valutatori dal d.lgs. 150/2009. Se un sistema funziona bene, le valutazioni risultano necessariamente differenziate perché riflettono le diversità dei livelli di performance presenti nel mondo reale. Al fine di assicurare la differenziazione occorre, in primo luogo, garantire la presenza dei presupposti necessari per la corretta applicazione del sistema. In particolare:. gli elementi di riferimento per la misurazione e valutazione della performance individuale (risultati e comportamenti) devono essere chiari, costruiti secondo le modalità descritte in precedenza (vedi par. 5.1), comunicati in modo efficace e nei tempi previsti;. i dati che alimentano gli indicatori devono, per quanto possibile, provenire da sistemi informativi centralizzati;. il processo deve essere gestito correttamente da parte dei valutatori, soprattutto nelle fasi di definizione degli obiettivi e di monitoraggio; in questa ultima fase, in particolare, è necessario che i valutatori mantengano traccia scritta degli elementi utili a dare sostanza alla valutazione (eventi particolarmente significativi, situazioni critiche, etc.);. deve essere svolta un’appropriata comunicazione e formazione sul sistema di valutazione per la creazione di una cultura manageriale in grado di utilizzare correttamente gli strumenti, anche negli aspetti concreti. Occorre che la differenziazione diventi espressione di un orientamento organizzativo da condividere, in primo luogo, tra i soggetti valutatori e, in un momento successivo, con tutti gli altri attori presenti nel processo. Molto utile in tal senso può essere anche la previsione di incontri destinati alla calibrazione degli approcci valutativi (vedi box 10) poiché lo sforzo di promuovere una condivisione metodologica attraverso l’interazione fra i valutatori incrementa l’attenzione sul sistema, favorisce un controllo incrociato sia sulla programmazione che sui risultati e contribuisce a prevenire il prodursi di distorsioni nel processo di valutazione. Box 10 - Gli incontri di calibrazione. I SMVP possono prevedere dei momenti di confronto fra valutatori dello stesso livello organizzativo, finalizzati ad assicurare una maggiore equità e solidità dei sistemi. Tali momenti di condivisione metodologica possono essere previsti tanto nella fase iniziale della programmazione, quanto in quella finale della valutazione, attraverso incontri di calibrazione. Nel primo caso, gli incontri di calibrazione servono a garantire una ponderazione degli obiettivi in modo che dirigenti dello stesso livello abbiano lo stesso carico di responsabilità nel raggiungimento della performance organizzativa. Nel secondo caso, gli incontri di calibrazione servono a ponderare le valutazioni finali all’interno della stessa amministrazione o articolazione organizzativa. In questo modo i dirigenti possono confrontarsi sugli stili di valutazione e su standard trasversali, con il fine di favorire una differenziazione dei giudizi e neutralizzare quegli effetti distorsivi tipici del processo valutativo. In questi contesti, gli strumenti che consentono di mitigare il rischio di valutazioni fondate su metodologie disomogenee, sono in parte gli stessi che vengono utilizzati per ottenere una migliore qualità delle valutazioni, ma quello che aiuta maggiormente nel rendere omogenee le metodologie si realizza mediante la costruzione di una visione d’insieme e la realizzazione di confronti delle distribuzioni delle valutazioni assegnate. Questa visione d’insieme, generalmente di competenza degli uffici responsabili della gestione delle risorse umane, si traduce in pratica nella raccolta delle valutazioni per aggregati omogenei. Ad esempio: tutte le valutazioni effettuate da diversi valutatori dello stesso livello organizzativo; oppure tutte le valutazioni attribuite alla stessa figura professionale da valutatori diversi, oppure in contesti territoriali diversi, etc. Raffrontando le distribuzioni statistiche emergono talvolta delle tendenze ricorrenti che possono rappresentare una “spia accesa” della presenza di disomogeneità, sulle quali è opportuno intervenire. In questi casi, si può prevedere che siano gli uffici di gestione delle risorse umane a dare un feedback diretto al valutatore, fornendogli una serie di informazioni di confronto (sostanzialmente dei benchmark) sulle valutazioni di diretta responsabilità, inducendolo a una eventuale revisione (migliorativa o peggiorativa) delle valutazioni stesse. In alternativa, i punti critici possono essere portati agli incontri di calibrazione, dove i valutatori si confrontano sulla omogeneità metodologica e sull’obiettivo della differenziazione. Questa seconda opzione, di grande utilità sotto il profilo della crescita della cultura della valutazione, dipende dal grado di maturità organizzativa; si richiede, infatti, una certa apertura mentale da parte dei valutatori, la disponibilità a scambiare informazioni sui propri collaboratori che normalmente verrebbero tenute riservate, nonché la consapevolezza di essere condizionati da altri nelle proprie valutazioni. In entrambi i casi l’OIV deve presidiare il corretto svolgimento dei processi di misurazione e valutazione della performance. [1]. Come già indicato nelle linee guida n. 1/2017 il Dipartimento della Funzione Pubblica e la Commissione tecnica per la performance hanno attivato dei laboratori con sei ministeri (Ministero dell’economia e delle finanze, Ministero per i beni e le attività culturali e il turismo, Ministero per l’istruzione, l’università e la ricerca, Ministero per le infrastrutture e i trasporti, Ministero per il lavoro e le politiche sociali e Ministero dello sviluppo economico). Il confronto con le amministrazioni e l’attività di accompagnamento lungo tutto il processo di pianificazione, misurazione e valutazione della performance consente di condividere buone pratiche ed individuare criticità comuni da affrontare. [2]. La conoscenza dello stato delle risorse umane favorisce una migliore pianificazione dei fabbisogni di profili professionali, in coerenza con il recente superamento della dotazione organica e la nuova disciplina del reclutamento del personale secondo fabbisogni programmati. La misurazione dello stato delle risorse umane, vista la sua importanza nelle amministrazioni, richiede l’utilizzo di sistemi informativi a supporto. [3]. I valori definiti in fase di programmazione non sono mai delle previsioni esatte, è quindi normale avere degli scostamenti tra target e consuntivo, è utile concentrare l’attenzione su scostamenti significativi ...
-
italia
Modello di governance
Durante la fase sperimentale la governance del DAF è in carico al Team Digitale che ha il compito di gestire attivamente la fase di sviluppo concettuale e implementativo dell’infrastruttura, insieme a tutte le fasi del ciclo di vita del dato, dall’ingestione all’analisi e sviluppo di applicazioni. Il Team Digitale si farà anche carico di ingaggiare i rapporti con le PA coinvolte nella fase di sperimentazione e lavorerà insieme a loro per lo sviluppo di casi d’uso indicati nella roadmap. Parallelamente, il Team Digitale, in stretta collaborazione con le istituzioni competenti, lavorerà per l’individuazione di una PA che prenderà in carico il progetto. Il Team Digitale e la PA selezionata lavoreranno in sinergia durante la fase di messa in produzione del DAF, durante la quale si effettueranno i passaggi di consegna e training ...
-
italia
Casi d’uso della fase sperimentale
A seguire un elenco di casi d’uso già individuati dal team di data scientist del DAF e su cui sono in corso attività di sviluppo e sperimentazione a best effort. Questo elenco è da considerarsi dinamico e pertanto sarà arricchito/modificato nel tempo sulla base delle attività concordate con le PA che partecipano alla fase sperimentale. All’interno delle schede di dettaglio sono indicate delle date di scadenza suscettibili a variazioni perché calcolate secondo le informazioni attualmente in nostro possesso. Esse devono infatti essere verificate con le PA coinvolte nelle singole sperimentazioni sulla base dei tempi necessari a queste ultime per fornire i dati o implementare i meccanismi di ingestion. L’elenco dei casi d’uso è il seguente: ...
-
italia
Roadmap di evoluzione
Lo sviluppo del DAF prevede due fasi principali:. Fase 2: Messa in produzione. La prima fase, le cui attività sono concentrate nel secondo semestre 2017, è finalizzata alla realizzazione della piattaforma tecnologica e alla sua sperimentazione sulla base di casi d’uso individuati in collaborazione con alcune PA selezionate. Sarà inoltre avviata una collaborazione con il Garante della Privacy per definire le modalità attraverso le quali le PA potranno formalizzare il rapporto con l’ente al quale, terminata la fase di sperimentazione, sarà affidata la gestione del DAF. In tal senso saranno anche stabilite le regole che, nel rispetto delle norme sulla privacy, definiranno le modalità di caricamento e di analisi dei dati sul DAF, nonché della diffusione dei dati e dei risultati delle analisi stesse. Nella fase successiva, che andrà a regime dopo che sarà ufficializzato l’ente a cui sarà affidata l’operatività e l’evoluzione del DAF e avviati gli opportuni interventi normativi, il Team Digitale ed AgID predisporranno le procedure atte a rendere operativo quanto prodotto durante la fase sperimentale. Di seguito una roadmap di alto livello, redatta in base alle informazioni e disponibilità delle PA con cui si è attualmente in contatto, e che potrà essere soggetta a cambiamenti e integrazioni in base ai futuri sviluppi. Entro Ottobre 2017: definizione delle PA centrali e locali coinvolte nella fase di sperimentazione. Si pubblicherà un elenco delle PA aderenti, con aggiornamento continuo. Entro Novembre 2017: rilascio secondo MVP del Dataportal che recepisce indicazioni degli utenti sulla base dell’utilizzo del primo MVP. Entro Dicembre 2017: Completamento onboarding delle PA coinvolte nella fase di sperimentazione. Entro Dicembre 2017: Rilascio della prima release del Dataportal. Entro Dicembre 2017: Definizione della governance a tendere del DAF e individuazione della PA che avrà in gestione il progetto. Da Gennaio 2018: passaggio di consegne e training verso la PA che gestirà il DAF. Attivazione processo di onboarding per le PA non ancora aderenti al DAF, sia centrali che locali. Entro Marzo 2018: sviluppo e rilascio dei casi d’uso elencati nel documento, con modalità best effort ...
-
italia
Benefici e Funzionalità per la PA
Il DAF fornisce un sistema di big data management e strumenti di analisi e utilizzo dei dati in modalità SaaS/PaaS, con l’obiettivo di sgravare il più possibile le PA da attività di gestione operativa e tecnica. Inoltre, esse avranno accesso al team di data scientist e data engineer che supporterà le PA nell’utilizzo delle funzionalità del DAF, e potrà prendere in carico richieste di analisi e sviluppo specifiche, da valutare caso per caso. Il DAF mette a disposizione di ciascuna PA aderente:. Un tool per generare dashboard e report. Un notebook per effettuare analisi sui dati presenti nel DAF a cui l’utente ha accesso. L’accesso a un insieme di dati utili per l’elaborazione di analytics. Di seguito, un elenco non esaustivo dei dati che a tendere saranno presenti nel DAF:. Dati delle basi di dati d’interesse nazionale: basi di dati autoritative rispetto alle “entità” che gestiscono (ad es. ANPR è autoritativa per l’”entità” residente). Nel DAF è possibile trovare una copia sempre aggiornata dei dati in esse contenute, fatte salve le eccezioni di norme e regolamenti, e in accordo con il Garante per la Privacy. Dati delle PA: le PA sincronizzeranno (cfr. Piano triennale) una copia dei dati utili a svolgere il proprio mandato istituzionale nonché i dati generati dai propri sistemi informatici (es. log). Tali dati sono accessibili da parte di tutte le PA, ad eccezione di quei dati sui cui vigono norme in materia di protezione dei dati personali. Open data standard: il DAF promuove la creazione di standard per la diffusione di open-data su temi di diffuso interesse pubblico (es. Mobilità, trasporti, turismo, eventi, ecc.). Grazie a tali standard un dataset può essere popolato in modo collaborativo da più PA. Dati di interesse pubblico di terze parti: il DAF raccoglie e mette a disposizione di tutte le PA dati di terze parti di potenziale interesse pubblico (es. dati provenienti dai social networks, dati forniti da aziende, ecc.). un servizio di pubblicazione di open-data di qualità: poiché il DAF ospita copie aggiornate dei dati presenti nelle basi di dati delle PA, ciascuna PA può decidere di abilitare un servizio per la pubblicazione dei propri open-data direttamente tramite apposite API esposte dal DAF. un insieme di data application che implementano casi d’uso di interesse per interi cluster di PA (es. Monitoraggio incidenti stradali e individuazione zone a rischio, Servizio per la verifica della qualità delle informazioni contenuti nelle basi di dati della PA, previsionali per i comuni, sentiment analysis, ecc.). servizi di accesso a best effort di eventi real-time (egestion) su flussi, eventualmente arricchiti e/o normalizzati, di dati veicolati verso il DAF e potenzialmente utili per la realizzazione di servizi non critici. Oltre a quanto messo a disposizione dalla piattaforma, attraverso il team di data scientist, il DAF offre un supporto alle PA per la costruzione di modelli di interconnessione delle diverse sorgenti dati, l’analisi dei dati, lo sviluppo di modelli di machine learning, il coordinamento dello sviluppo di data application e l’organizzazione di “competizioni” scientifiche su tematiche di interesse per la PA ...
-
italia
Cos’è il DAF
Il Data & Analytics Framework (DAF) è una delle attività atte a valorizzare il patrimonio informativo pubblico nazionale approvata dal Governo italiano nell’ambito del Piano Triennale per l’Informatica nella PA 2017-2019. L’obiettivo principale del DAF è di abbattere le barriere esistenti nell’interscambio dei dati pubblici tra PA e promuoverne l’utilizzo a supporto del decision making pubblico, ottimizzare i processi di analisi dati e generazione di sapere, standardizzare e promuovere la diffusione degli open data, promuovere e supportare iniziative di ricerca scentifica favorendo la collaborazione con Università ed enti di ricerca. Il DAF si compone di:. Nel data lake vengono memorizzati, nel rispetto delle normative in materia di protezione dei dati personali, dati di potenziale interesse quali, ad esempio: le basi di dati che le PA generano per svolgere il proprio mandato istituzionale; i dati generati dai sistemi informatici delle Pubbliche Amministrazioni come log e dati di utilizzo che non rientrano nella definizione precedente; i dati autorizzati provenienti dal web e dai social network di potenziale interesse della Pubblica Amministrazione;. big data engine utile ad armonizzare ed elaborare, sia in modalità batch che real-time, i dati grezzi memorizzati nel data lake e a implementare modelli di machine learning;. strumenti per l’interscambio dei dati, utili a favorire la fruizione dei dati elaborati da parte dei soggetti interessati, anche attraverso API che espongono dati e funzionalità ad applicazioni terze;. strumenti di analisi e visualizzazione dei dati offerti in modalità self-service agli utilizzatori del DAF. Un Dataportal, che rappresenta l’interfaccia utente per l’utilizzo delle funzionalità implementate nel DAF. In particolare, il dataportal si compone di:. un catalogo dei dataset basato su CKAN, che gestisce i metadati relativi sia ai dati contenuti nel DAF che agli open data harvestati dai siti delle PA;. interfacce utente per accedere ai tool di analisi e data visualization menzionati sopra;. un modulo riservato alle PA per gestire il processo di ingestion e gestione dei dati e metadati nel DAF;. un modulo per data stories, attraverso il quale gli utenti possono pubblicare le proprie analisi e collaborare con altri utenti. Da un team di esperti di dati, composto da data scientist, data engineer e big data architect che provvedono al disegno e all’evoluzione concettuale della piattaforma big data, alla costruzione di modelli di interconnessione delle diverse sorgenti dati, all’analisi dei dati, allo sviluppo di modelli di machine learning, al coordinamento dello sviluppo di data application e all’incentivazione della ricerca scientifica su tematiche di interesse per la PA. Si rimanda al capitolo 9 del Piano Triennale per maggiori informazioni ...
-
italia
A chi si rivolge
I principali utenti del DAF sono le Pubbliche Amministrazioni, che a seconda dei casi possono utilizzare il DAF per:. sviluppare nuovi servizi non critici rivolti ai cittadini e alle imprese utilizzando i dati e le funzionalità esposte dal DAF;. sviluppare data application utili per migliorare i servizi erogati e i propri processi interni;. utilizzare i servizi offerti dal DAF per automatizzare il processo di generazione e pubblicazione di Open Data, in modalità SaaS. Alle PA si aggiungono le seguenti categorie di utenti:. cittadini che ricercano informazioni desumibili dagli strumenti di visualizzazione e dalle data stories pubblicate dal team di datascientist e dalla community sulla base dei dati e strumenti di analisi collegati al DAF;. community di civic hacker, sviluppatori e aziende che fanno uso degli opendata per creare applicazioni e servizi a valore aggiunto;. il mondo della ricerca e dell’innovazione. Grazie al DAF sarà, infatti, possibile promuovere iniziative atte a coinvolgere il mondo della ricerca e dell’innovazione su tematiche di interesse pubblico. Il DAF si poggia su un sistema di sicurezza, gestione di accessi e data separation che permette di gestire i permessi di accesso ai dati. In questo modo, tutte le funzionalità del DAF saranno esposte a tutte le tipologie di utenti sopra indicate, che potranno accedere ai dati per cui il relativo profilo utente ha diritto di accesso ...
-
italia
Piano di sviluppo DAF
Indice dei contenuti ...
-
italia
Implementazione e fruizione Dataset Chiave
Caso applicativo. Implementazione Dataset Chiave Ambito Mobilità e Trasporti. PA coinvolte. TaskForce OpenData, Motorizzazione Civile, ACI. Dataset utilizzati. Statici: Lista Parcheggi, Parco Macchine, Perimetro, varchi e orari ZTL, Patenti Attive, Incidenti Stradali. Real Time: Traffico e viabilità in tempo reale, stato dei parcheggi in tempo reale. Roadmap. Entro dicembre 2017. Stato. In attesa dei dataset. Note. In lavorazione la documentazione relativa alla struttura dei dati per ogni dataset chiave, le pipeline di trasformazione dal dato grezzo in quello Open Data, le procedure di ingestion automatiche dei dati necessari per produrre i dataset chiave menzionati. Caso applicativo. Implementazione Dataset Chiave Ambito Economia e Finanze. PA coinvolte. UnionCamere, Agenzia delle Entrate. Dataset utilizzati. Statici: Registro delle Imprese (dati anagrafici e bilanci), punti fiduciari, comuni d’Italia e stati esteri, dati statistici su immobili per comune, statistiche su transazioni immobiliari. Roadmap. Entro dicembre 2017. Stato. In attesa di via libera di UnionCamere per contenuto che sarà possibile rendere open. In attesa di apertura dati Agenzia Entrate. Note. In lavorazione la documentazione relativa alla struttura dei dati per ogni dataset chiave, le pipeline di trasformazione dal dato grezzo in quello Open Data, le procedure di ingestion automatiche dei dati necessari per produrre i dataset chiave menzionati. Caso applicativo. Implementazione Dataset Chiave Ambito Cultura e Turismo. PA coinvolte. MIBACT, TaskForce OpenData. Dataset utilizzati. Statici: Istituti e luoghi della cultura, eventi culturali, altri eventi assimilabili, catalogo dei beni culturali, cammini e percorsi, altri percorsi assimilabili, strutture ricettive, guide turistiche. Roadmap. Entro dicembre 2017. Stato. In lavorazione. Note. In lavorazione la documentazione relativa alla struttura dei dati per ogni dataset chiave, le pipeline di trasformazione dal dato grezzo in quello Open Data, le procedure di ingestion automatiche dei dati necessari per produrre i dataset chiave menzionati ...
-
italia
Servizi di accesso ad eventi di interesse pubblico
Caso applicativo. Servizio notifica dei trasporti pubblici. PA coinvolte. MIT, Task Force DatiPubblici. Dataset utilizzati. Dataset direttamente forniti da PA che collaborano attivamente alla sperimentazione e dataset già disponibili sotto forma di open-data. Roadmap. In fase di studio. Stato. Marzo 2017. Note. Il dominio dei trasporti pubblici è particolarmente favorevole alla conduzione di attività sperimentali perché ci sono un numero significativo di dati già pubblicati come opendata utilizzando formati che rappresentano standard de-facto di dominio (es. gtfs, gtfs-realtime) ...
-
italia
Strumenti di monitoraggio automatico
Caso applicativo. Strumenti di supporto al monitoraggio del Piano Triennale. PA coinvolte. AgID, Team Digitale. Dataset utilizzati. IPA, altre datasource da identificare insieme ad AgID. Roadmap. Entro dicembre 2017. Stato. In attesa della definizione degli indicatori del Piano Triennale. Note. Il team di data scientist ed AgID verificheranno quali indicatori del piano triennale si prestano ad essere misurati in modo automatico per mezzo del DAF. Caso applicativo. Monitoraggio canali social delle PA. PA coinvolte. Team Digitale. Dataset utilizzati. Dati provenienti da uno o più social network. Roadmap. Marzo 2018. Stato. In fase di studio. Note. L’output minimo è un dashboard che offre misurazioni sull’uso dei social network da parte delle PA (es. Classifiche delle PA più attive, PA più seguite, ecc). Sarà inoltre valutata la possibilità di realizzare cruscotti utili a monitorare in tempo reale gli argomenti più trattati sui canali della PA, in modo da offrire uno strumento utile a velocizzare l’individuazione delle esigenze dei cittadini ...
-
italia
Nome caso d’uso
Caso applicativo. …. PA coinvolte. …. Dataset utilizzati. …. Roadmap. …. Stato. …. Note. … … … ...