Strumenti
statistici per la valutazione dell'efficienza e dell’efficacia
degli Enti locali
ANDREA MANCINI
Dirigente del servizio
Pubbliche
Amministrazioni ISTAT
1. La funzione di programmazione e controllo
nelle pubbliche amministrazioni
La più recente norma di livello nazionale, emanata con riguardo allo sviluppo della funzione di controllo interno nelle amministrazioni pubbliche, è costituita dal D.lgs n. 286 del 1999. Esso si applica alle amministrazioni statali, ma si può considerare un punto di riferimento rilevante anche per l’organizzazione della funzione di controllo e valutazione nell’ambito delle amministrazioni locali. Sotto il profilo tecnico, economico e statistico, considero i contenuti del decreto positivi, perché segnano un momento di chiarificazione nell’applicazione della riforma dei controlli amministrativi nel sistema italiano. Non c’è tempo per entrare, qui, nel merito delle quattro funzioni che il decreto legislativo individua come centrali, né delle soluzioni che esso adotta riguardo alla separazione degli organi interni che devono essere preposti allo sviluppo e realizzazione delle quattro funzioni. Nondimeno è evidente che per due di queste, e segnatamente per quella del controllo di gestione e per quella della valutazione e controllo strategico, diviene da un lato importante stabilire le tecniche di misurazione da utilizzare e, dall’altro lato, costruire sistemi informativi che consentano le applicazioni tecniche necessarie a pervenire agli indicatori per la valutazione.
Da questo punto di vista è importante considerare che l’art. 9 del decreto stabilisce che “il sistema di controllo di gestione e il sistema di valutazione e controllo strategico (…) si avvalgono di un sistema informativo-statistico unitario, idoneo alla rilevazione di grandezze quantitative a carattere economico finanziario”. L’importanza di questo richiamo non è, ovviamente dal nostro punto di vista, nel suo valore di obbligo a fare, quanto nel suo valore di richiamo metodologico. Affinché le amministrazioni pubbliche siano in grado di autocontrollare ed autovalutare la propria azione amministrativa, nel senso dell’efficienza economica nella produzione dei servizi e dell’efficacia economico-sociale nella predisposizione ed attuazione delle politiche pubbliche, la costruzione di un sistema informativo interno costituisce un passo obbligato. E mi riferisco non tanto agli aspetti tecnologici connessi all’impianto informatico del sistema, che pure sono importanti, quanto piuttosto alla creazione di un sistema di flussi informativi sui principali fatti gestionali interni al sistema del governo, anche di quello a scala locale.
1. Il sistema informativo per misurare e
valutare
È soprattutto importante che il sistema informativo per il controllo e la valutazione sia costruito in modo da rendere la massima integrazione delle diverse fonti che lo alimentano e la massima flessibilità nell’uso di dati in esso archiviati, al fine di garantire la possibilità di analizzare e valutare i fatti gestionali interni a ciascun ente e, dunque, produrre ex ante i documenti programmatici ed i rapporti di gestione che, nel loro insieme, costituiscono il prodotto specifico della funzione di programmazione, controllo e valutazione.
Ora la situazione dei sistemi informativi interni alle amministrazioni si può considerare alquanto problematica, se valutata sotto il profilo della loro capacità a rendere informazioni e dati pertinenti agli scopi delle valutazioni di efficienza ed efficacia. In generale essi appaiono caratterizzati da incompletezza nella rappresentazione dei fatti gestionali interni, scarsamente adatti a dare supporto informativo alle tecniche di analisi e valutazione.
Di solito i sistemi esistenti si fondano su parti nate nel tempo per sopperire a necessità amministrative di gestione della contabilità finanziaria e di amministrazione del personale dipendente. Le informazioni contenute sono sicuramente utili ai fini della valutazione e controllo dei fatti gestionali, ma non sempre sono organizzate in modo tale da permettere l’integrazione dei dati a livelli di analisi diversi da quelli per i quali sono nati. Ad esempio i sistemi informativi contabili ricalcano la struttura del bilancio per funzioni e categorie economiche di spesa, mentre non sono in generale costruiti per rappresentare i centri di costo per la produzione di individuati servizi finali. Un altro esempio può essere citato con riferimento ai sistemi informativi del personale, che spesso sono costruiti per rendere conto della gestione amministrativa dei dipendenti, ma non per estrarre dati inerenti i flussi di lavoro utilizzati nei centri di costo per la produzione di individuati servizi. Ne consegue che, in generale, i sistemi informativi esistenti non sono sufficienti a produrre le informazioni di base necessarie ad alimentare la funzione di programmazione e controllo interna alle amministrazioni.
Vi è, in primo luogo, una scarsa chiarezza nelle nomenclature, definizioni e classificazioni adottate per le varie parti del sistema informativo, le quali dovrebbero consentire di integrare i dati provenienti dalle fonti interne alle singole amministrazioni. Sotto questo profilo la prima criticità discende dal prevalente uso di criteri propri della contabilità di tipo finanziario, che non consente:
· di misurare i costi di produzione dei servizi, siano essi finali o intermedi; a tal fine serve l’impianto di una contabilità economica da affiancare a quella finanziaria, superando le genericità implicite nella limitatissima applicazione connessa alla predisposizione del prospetto generale di conciliazione tra contabilità finanziaria ed economica richiesto dal DPR n.194 del gennaio 1996 per la predisposizione del conto di bilancio degli enti locali;
· di applicare i criteri della contabilità analitica, ovvero di imputare i costi a specificati centri di servizio, individuati sulla base dell’omogeneità dei prodotti offerti, di distinguere fra centri di servizi intermedi e centri di servizi finali, di ribaltare sui secondi i costi diretti imputabili ai primi, i quali dovrebbero così azzerare i propri conti.
La seconda criticità discende dalle difficoltà che si incontrano nel definire, individuare e misurare il prodotto di servizi non venduti sul mercato. Gli strumenti di contabilità, sia economica che finanziaria, permettono di rilevare quanto si è speso per l’acquisto dei fattori della produzione, ma in ambito pubblico non consentono di rappresentare i ricavi. Infatti, dal lato delle entrate vengono contabilizzate le risorse destinate a finanziare la produzione dei servizi, le quali derivano largamente da imposte, tasse e trasferimenti, mentre i proventi dei servizi non possono essere considerati alla stessa stregua dei prezzi di mercato, in quanto la determinazione delle tariffe tiene conto solo in parte dei livelli di domanda e dei costi di produzione. In queste condizioni la misurazione del valore della produzione non può essere effettuata su base monetaria ed aggregata, mentre è necessario ricorrere a misurazioni extra contabili che, per ciascun servizio offerto si debbono fondare sull’individuazione di unità di misura, espresse in termini fisici, sia della domanda che dell’offerta e della produzione.
Vi è poi un terzo elemento di criticità che si connette non tanto alla costruzione di un sistema informativo statistico, quanto piuttosto alle possibilità tecniche di effettuare significative analisi e valutazioni di efficienza ed efficacia sulla base dei dati raccolti nel sistema. Questa terza criticità è costituita dalla possibilità di individuare degli standard di efficienza ed efficacia cui commisurare gli indicatori calcolati con riferimento ai vari servizi offerti da uno specifico ente locale. Si tratta, in altri termini, della valutazione comparativa tra enti locali o loro partizioni organizzative interne che svolgono funzioni e compiti similari o che offrono servizi omogenei.
La valutazione comparativa costituisce attualmente la frontiera dell’innovazione in materia di controllo di gestione, poiché sono ormai ricche, seppure non diffuse, le esperienze di controllo che si limitano ad osservare i risultati della gestione nell’ambito di singole amministrazioni. E nondimeno ciò limita le valutazioni a quelle ottenibili da confronti temporali. Questi possono al più consentire la valutazione della dinamica della produttività, senza permettere l’espressione di giudizi circa il livello di efficienza ed efficacia degli interventi o servizi offerti. Al contrario, l’applicazione delle tecniche di valutazione comparativa consente di effettuare confronti spaziali che, nell’ambito del controllo gestionale e della valutazione strategica danno l’opportunità di:
- verificare l’efficienza relativa di diverse forme gestionali dei servizi locali;
- individuare soluzioni organizzative di miglioramento dell’efficienza ed efficacia;
- determinare standard di efficienza ed efficacia relativa, da assumere come obiettivi di riferimento all’interno di ciascun ente locale.
Quest’ultima possibilità è particolarmente rilevante, poiché punta ad innescare, attraverso la comparabilità spaziale degli indicatori, processi di competizione emulativa tra amministrazioni che possono dare luogo all’introduzione di innovazioni gestionali dirette a migliorare la qualità dei servizi, a semplificare le procedure, a governare l’allocazione delle risorse umane, a recuperare efficienza e diminuire i costi unitari di produzione. In questo senso la valutazione comparativa diviene strumento di autovalutazione nell’ambito dei processi di controllo interno e può essere considerata un’applicazione del benchmarking alla realtà delle amministrazioni pubbliche locali.
Se si vuole operare in questa direzione, è però necessario rendere compatibili le tecniche di misurazione. Si devono stabilire le definizioni delle variabili rilevanti e gli insiemi di indicatori, nonché le tecniche di determinazione degli standard.
2.
Le esperienze di misurazione dell’Istat
Per contribuire alla soluzione dei
problemi metodologici connessi alle tre criticità ora illustrate, durante gli
ultimi cinque anni l’Istat ha realizzato varie esperienze di misurazione
dell’efficienza e dell’efficacia degli enti locali e dei servizi da essi
offerti alla cittadinanza. Nel fare ciò l’Istituto ha sempre assunto un’ottica
di forte attenzione ai problemi della valutazione comparativa e, dunque, ai
metodi di misurazione più adatti a determinare in prospettiva gli standard di performance, corrispondendo in questo
modo al proprio ruolo istituzionale nel campo della produzione di metodi,
definizioni e classificazioni adatte a garantire la confrontabilità dei dati
rilevati presso insiemi di unità di osservazione.
Allo scopo di illustrare sinteticamente i
problemi di misurazione incontrati e le relative soluzioni adottate, ritengo
opportuno fare specifico riferimento a due esperienze. La prima ha avuto come
obiettivo la misurazione dell’efficienza e dell’efficacia di alcuni servizi
comunali secondo criteri che garantiscono la valutazione comparativa tra i
risultati ottenuti da vari enti. La seconda tendeva, invece, ad impostare una
misurazione della soddisfazione dei cittadini rispetto alla qualità di alcuni
servizi comunali, sempre in un’ottica di confronto spaziale.
3.1.
Efficienza ed efficacia dei servizi comunali
Nel corso del 1998 questa prima
esperienza è stata realizzata da ricercatori dell’Istat in collaborazione con
gli uffici di statistica o con gli uffici del controllo di gestione di circa 20 comuni di medie
dimensioni, localizzati in varie regioni settentrionali. Alla riuscita
dell’esperienza ha giovato molto la collaborazione promozionale ed organizzativa
di alcune rappresentanze regionali dell’ANCI. Tutti i comuni hanno partecipato
su base assolutamente volontaria, spinti dall’esigenza di confrontare i propri
risultati con quelli ottenuti da altri enti similari. I servizi oggetto di
misurazione sono stati sette, tra cui gli asili nido che vorrei prendere a
riferimento per illustrare alcuni risultati ottenibili dall’applicazione dei
metodi seguiti.
Uno dei principali indicatori di
efficienza è costituito dal costo per unità di prodotto. Per pervenire ad un
indicatore di questo tipo, rispettando i criteri di omogeneità nella
rilevazione, è necessario disporre dei dati relativi ad una variabile
rappresentativa del costo totale di produzione e di una variabile
rappresentativa della quantità di prodotto. Con riferimento alla variabile del
primo tipo, il costo totale effettivo (tabella 1) è stato determinato da
ciascun comune applicando i criteri della contabilità analitica per centro di
costo. Ciò ha implicato la ricostruzione delle quantità dei diversi fattori
della produzione direttamente utilizzati per l’erogazione del servizio asili
nido. Queste quantità sono poi state valorizzate con i rispettivi prezzi di
acquisto e tra loro sommate per ottenere il costo totale. In questa operazione
particolare rilevanza ha assunto la determinazione del costo annuo di
ammortamento degli immobili, impianti ed attrezzature che è stata effettuata in
modo semplificato, applicando coefficienti di ammortamento fiscale a valori dei
cespiti ad uso durevole alternativamente desunti dagli inventari o stimati in
base a valori medi di mercato (ad esempio immobili).
Quanto poi alla variabile posta a
denominatore dell’indicatore di efficienza, è stato adottato il numero dei
posti disponibili. Si tratta indubbiamente di una unità di misura molto povera,
che esprime la capacità di offerta piuttosto che il livello di produzione
realizzato nel corso dell’anno di riferimento. Che tale capacità corrisponda
poi all’offerta reale e, soprattutto, alla produzione realizzata del servizio
dovrebbe essere provato con la rilevazione di altre variabili più sofisticate
(bambini iscritti, bambini frequentanti o, più opportunamente, bambini/giorno
mediamente presenti), che implicano, tuttavia, una comune impostazione dei
sistemi interni di rilevazione extracontabile, impossibile da realizzare quando,
come nel caso in esame, la misurazione viene effettuata con riferimento ad un
periodo temporale pregresso.
Tabella 1 - Indici di efficienza (relI)
ed inefficienza (1 - relI)
relativa del servizio Asili nido
Comuni |
Posti disponibili |
Costo totale effettivo (mln) |
Costo totale atteso (mln) |
Costo totale per posto (mln) |
relI |
1 - relI |
|
|
|
|
|
|
|
Carpi |
339 |
5.252.515 |
3.652.796 |
15.494 |
0,70 |
0,30 |
Cesena |
333 |
5.039.059 |
3.588.145 |
15.132 |
0,71 |
0,29 |
Correggio |
143 |
1.890.142 |
1.540.855 |
13.218 |
0,82 |
0,18 |
Forlì |
465 |
7.593.348 |
5.010.473 |
16.330 |
0,66 |
0,34 |
Imola |
330 |
5.047.095 |
3.555.820 |
15.294 |
0,70 |
0,30 |
Maranello |
71 |
906.613 |
765.040 |
12.769 |
0,84 |
0,16 |
Modena |
876 |
13.041.064 |
9.439.085 |
14.887 |
0,72 |
0,28 |
Piacenza |
336 |
4.894.245 |
3.620.471 |
14.566 |
0,74 |
0,26 |
Rimini |
314 |
4.013.029 |
3.383.416 |
12.780 |
0,84 |
0,16 |
Scandiano |
123 |
1.343.955 |
1.325.351 |
10.926 |
0,99 |
0,01 |
Sassuolo |
185 |
1.993.414 |
1.993.414 |
10.775 |
1 |
0 |
Vignola |
84 |
1.478.069 |
905.118 |
17.596 |
0,61 |
0,39 |
Brescia |
455 |
7.496.330 |
4.902.721 |
16.475 |
0,65 |
0,35 |
Gorizia |
72 |
1.338.995 |
775.815 |
18.597 |
0,58 |
0,42 |
Monfalcone |
40 |
810.322 |
431.008 |
20.258 |
0,53 |
0,47 |
Pordenone |
90 |
1.510.468 |
969.769 |
16.783 |
0,64 |
0,36 |
Thiene |
94 |
1.314.073 |
1.012.870 |
13.980 |
0,77 |
0,23 |
Trento |
481 |
12.932.605 |
5.182.876 |
26.887 |
0,40 |
0,60 |
Varese |
312 |
4.244.119 |
3.361.866 |
13.603 |
0,79 |
0,21 |
Vicenza |
439 |
6.040.316 |
4.730.318 |
13.759 |
0,78 |
0,22 |
|
|
|
|
|
|
|
Figura
1 - Valutazione
comparativa dell’efficienza del servizio Asili nido: costo totale effettivo e
costo totale atteso
Il confronto tra costi totali per posto
disponibile, osservati per ciascun comune consente di individuare l’ente che
realizza la migliore performance. Tra
i casi osservati nella tabella 1 questa è stata realizzata dal Comune di
Sassuolo, con un importo unitario pari a 10,7 milioni di lire. Se si assume
come standard questo valore unitario minimo, è possibile ricalcolare per
ciascun comune osservato il costo totale atteso, moltiplicando lo standard per
il corrispondente numero di posti disponibili. Gli indicatori di efficienza
relativa (rispetto allo standard) possono quindi essere calcolati come rapporto
tra costo totale atteso e costo totale effettivo. Nel caso esaminato, il Comune
di Sassuolo è lo standard e, quindi, ha indicatore pari a 1, mentre tutti gli
altri si distribuiscono sotto questa frontiera, che è graficamente visualizzata
nella figura 1. In questa la distanza verticale tra ciascuna osservazione in
termini di costo totale effettivo e il corrispondente punto sulla retta indica
il grado di inefficienza relativa di ciascun comune osservato e corrisponde
alla misurazione numerica riportata nell’ultima colonna della tabella 1.
Analoghe operazioni sono state effettuate per definire standard di efficacia e pervenire ad indicatori che consentono un confronto diretto tra enti. In questo caso, si è utilizzata la popolazione residente in età di frequentazione degli asili nido come variabile che esprime la domanda potenziale del servizio. I posti effettivamente disponibili sono stati utilizzati come unità di misura dell’offerta. Il numero dei posti disponibili per residente in età di frequentazione degli asili nido è stato utilizzato come indicatore di efficacia che consente di commisurare l’offerta comunale del servizio alla sua domanda potenziale. Anche in questo caso si tratta di un indicatore assai semplice che non permette di valutare altri importanti aspetti dell’efficacia e, in particolare, l’entità della domanda espressa e delle conseguenti possibili liste di attesa. Queste, sotto il profilo della valutazione economica applicata ai servizi pubblici, sono molto importanti, perché di fatto, in presenza di vincoli di offerta pubblica nel breve periodo, rappresentano la principale modalità di razionamento della domanda usata dalle amministrazioni pubbliche per mantenere l’equilibrio tra la domanda e l’offerta dei propri servizi.
Pur con la limitata significatività attribuibile
all’indicatore riferito ai posti disponibili ed alla popolazione in età, la
valutazione può essere condotta ponendo a confronto i due valori relativi a
ciascuno dei comuni considerati. Lo standard viene stabilito in corrispondenza
del valore più alto dell’indicatore. Come si può desumere dai valori ordinati
nella quarta colonna della tabella 2, la migliore performance è in questo caso
quella dimostrata dal Comune di Correggio, con un rapporto tra posti disponibili
e popolazione in età pari a32%. Assumendo questo valore come standard per
ciascuno degli altri comuni osservati, si ricalcola il numero dei posti attesi.
Questo viene poi posto a denominatore di un rapporto che vede al numeratore i
corrispondenti posto effettivi. Si ottiene così un indicatore di efficacia
relativa, i cui valori sono riportati per ciascun comune nella quinta colonna
della tabella 2. Il Comune di Correggio, essendo stato individuato come termine
di confronto, ha un indicatore pari a 1, mentre tutti gli altri hanno
indicatori inferiori che si distribuiscono al disotto di un’ideale frontiera
graficamente visualizzata nella figura 2. In questa la distanza verticale tra
ciascuna osservazione in termini di posti effettivi e il corrispondente punto
sulla retta indica il grado di inefficienza relativa di ciascun comune
considerato e corrisponde alla misurazione numerica riportata nell’ultima
colonna della tabella 2.
Misurazioni e indicatori analoghi a questi illustrati sono stati realizzati per altri servizi degli stessi comuni, anche tenendo conto delle diverse forme gestionali da essi adottate. La semplicità degli indicatori e i connessi limiti di significatività rispetto a più completi obiettivi di valutazione dell’efficienza e dell’efficacia sono certamente connessi alla sperimentalità dell’indagine, ma possono essere superati in una prospettiva di sviluppo della valutazione comparativa soprattutto arricchendo ed uniformando le rilevazioni interne ai singoli enti locali e i loro sistemi informativi per la programmazione e il controllo dei servizi.
Tavola 2 - Indici di efficacia (relI) ed inefficacia
(1 - relI) relativa del servizio Asili nido
Comuni |
Popolazione 0-2 anni |
Posti effettivi |
Posti attesi |
Posti per residente |
relIeff |
1 - relIeff |
|
|
|
|
|
|
|
Carpi |
1.299 |
339 |
416 |
0,26 |
0,81 |
0,19 |
Cesena |
1.957 |
333 |
627 |
0,17 |
0,53 |
0,47 |
Correggio |
446 |
143 |
143 |
0,32 |
1 |
0 |
Imola |
1.507 |
330 |
483 |
0,22 |
0,68 |
0,32 |
Maranello |
420 |
71 |
135 |
0,17 |
0,53 |
0,47 |
Modena |
4.072 |
876 |
1.306 |
0,22 |
0,67 |
0,33 |
Parma |
2.639 |
832 |
846 |
0,32 |
0,98 |
0,02 |
Piacenza |
2.080 |
336 |
667 |
0,16 |
0,50 |
0,50 |
Rimini |
3.122 |
314 |
1.001 |
0,10 |
0,31 |
0,69 |
Scandiano |
547 |
123 |
175 |
0,22 |
0,70 |
0,30 |
Sassuolo |
1.170 |
185 |
375 |
0,16 |
0,49 |
0,51 |
Vignola |
272 |
84 |
87 |
0,31 |
0,96 |
0,04 |
Brescia |
4.467 |
455 |
1.432 |
0,10 |
0,32 |
0,68 |
Monfalcone |
534 |
40 |
171 |
0,07 |
0,23 |
0,77 |
Pordenone |
1.053 |
90 |
338 |
0,09 |
0,27 |
0,73 |
Thiene |
510 |
94 |
164 |
0,18 |
0,57 |
0,43 |
Trento |
1.915 |
481 |
614 |
0,25 |
0,78 |
0,22 |
Vicenza |
2.677 |
439 |
858 |
0,16 |
0,51 |
0,49 |
|
|
|
|
|
|
|
Figura 2 - Valutazione comparativa dell’efficacia del servizio Asili nido: numero
effettivo e numero atteso di posti disponibili
3.2
La qualità dei servizi e la soddisfazione dei cittadini
La seconda esperienza di cui vorrei
illustrare i metodi e i principali risultati è stata condotta dall’Istat in
collaborazione con 6 comuni umbri e 5 comuni sardi, tutti di piccole dimensioni
e limitrofi tra loro nelle due distinte aree geografiche.
I servizi analizzati sono stati in tutti i comuni la “raccolta rifiuti” e la “manutenzione delle strade”. L’intento della sperimentazione era quello di predisporre strumenti standardizzati di rilevazione, elaborazione ed analisi riproducibili in contesti istituzionali simili, contrassegnati da una forte limitazione di risorse interne da assegnare allo sviluppo della funzione di controllo interno.
In questo approccio il fattore chiave su cui si basa la valutazione della soddisfazione dell’utenza è rappresentato dalla distinzione tra qualità percepita e qualità attesa. Quest’ultima svolge un ruolo rilevante nel giudizio che sarà dato sui servizi forniti e discende dal grado di rilevanza che ogni singolo utente attribuisce al servizio nel suo complesso, nonché ai singoli aspetti che lo caratterizzano. Le aspettative individuali si formano sulla base di vari fattori: le informazioni che l’utente ottiene da altri; le preferenze personali e i bisogni specifici che derivano da sua caratteristiche o condizioni personali; l’esperienza passata relativa a precedenti occasioni di fruizione del servizio; le comunicazioni esterne da parte del fornitore del servizio. Per altro verso il giudizio sulla qualità percepita si forma sulla base delle esperienze dirette di fruizione del servizio. Il modello ipotizza che l’utente valuti la qualità del servizio attraverso una serie di criteri riconducibili a cinque dimensioni della qualità:
- aspetti tangibili (aspetto esteriore delle strutture; disponibilità di attrezzature, ecc.);
- affidabilità (precisione nell’espletamento; continuità dell’offerta);
- capacità di risposta (disponibilità ad aiutare l’utente);
- capacità di rassicurazione (competenza e cortesia degli addetti; loro capacità di ispirare fiducia);
-
empatia
(assistenza continua e personalizzata nella fruizione del servizio).
A ciascuna dimensione della
qualità corrispondono diverse modalità qualitative caratterizzanti ogni specifico
servizio e denominate attributi. Il modello prevede che l’utente attribuisca a
ciascuna dimensione un peso indicante il livello soggettivo di importanza
relativa. Successivamente, per ogni attributo di ciascuna dimensione l’utente
esprime il giudizio riguardo alle proprie aspettative e alle proprie
percezioni, utilizzando una scala predefinita di valori. In questo modo è
possibile costruire degli indicatori sia semplici che ponderati, a livello
individuale e, per aggregazioni successive, anche a livello medio per ciascuna
delle cinque dimensioni della qualità. Ciascun indicatore è costruito come
differenza numerica (scarto) tra coppie di valori che rappresentano
sinteticamente i giudizi espressi sulle aspettative e sulle percezioni per
ciascuna dimensione della qualità.
Nella Tabella 1 sono
riportati i livelli medi di importanza assegnati, attraverso la ripartizione di
un massimo di 100 punti, alle cinque dimensioni della qualità dai cittadini che
hanno costituito il campione nei diversi comuni dell’Umbria. Si può notare che
gli utenti di tutti i comuni coinvolti hanno risposto in modo piuttosto
uniforme: nessuna delle dimensioni della qualità prevale nettamente sulle
altre, posizionandosi tutti i punteggi intorno al valore medio pari a 20. Anche
gli indici di dispersione delle dichiarazioni individuali sono risultati molto
bassi, a conferma di un forte addensamento delle preferenze individuali attorno
al valore medio di 20 punti.
Nella Tabella 2 sono
riportati i risultati sintetici ottenuti a seguito delle elaborazioni relative
al Servizio “Raccolta rifiuti”. Si può così notare l’alto livello delle
aspettative medie espresse dai cittadini nei confronti di tutti gli aspetti di
tale Servizio: nella scala di punteggio adottata, compresa tra 0 e 10, si è riscontrata un’aspettativa media sempre
superiore a 9. La misurazione delle percezioni ha messo in luce valori medi più
bassi rispetto a quelli registrati per le aspettative, oltre ad una maggiore
variabilità delle risposte individuali. Gli indicatori di sintesi sono
riportati nelle ultime due colonne della Tabella 2. Il punteggio SERVQUAL (SQ)
è costruito come media degli scarti tra valori dichiarati per le aspettative e
per le percezioni. Il punteggio SERVQUAL PONDERATO (SQP) è costruito come media
degli stessi scarti, ma ponderati con i livelli di importanza dichiarata
rispetto a ciascuna delle cinque dimensioni della qualità del Servizio.
Entrambi mostrano una diffusa insoddisfazione tra i cittadini dei comuni.
Grafico 2 - Dimensioni della qualità per SQP e livello medio di importanza
Allo scopo di individuare
le dimensioni più critiche sulle quali agire prioritariamente in termini di
interventi correttivi da parte delle amministrazioni, è stata effettuata
un’analisi congiunta del livello di importanza e dell’indice SERVQUAL PONDERATO
per ciascuna dimensione della qualità. I risultati possono essere visualizzati
nel Grafico 1. Ad esempio, livelli elevati di insoddisfazione abbinati a
livelli di importanza superiori alla media individuano situazioni di emergenza,
poiché il comune non è in grado di soddisfare le attese corrispondenti ad
aspetti del servizio giudicati molto importanti dai cittadini. Al contrario, le
posizioni comprese nell’area contrassegnata dalla lettera E rappresentano
situazioni di eccesso di attenzione da parte delle amministrazioni, poiché gli
elevati livelli di soddisfazione degli utenti riguardano aspetti qualitativi
del servizio cui essi non attribuiscono importanza rilevante. Le situazioni di
eccellenza sono quelle corrispondenti all’area contrassegnata dalla lettera
C, cui corrispondono elevati punteggi
abbinati a dimensioni giudicate importanti dagli stessi utenti. Infine, bassi
livelli di soddisfazione collegati a livelli di importanza inferiori alla
media individuano situazioni da tenere
sotto controllo. Sempre con riferimento al Servizio Raccolta rifiuti nei comuni
dell’Umbria, la Tabella 3 riporta i risultati sintetici. In particolare si
nota, per tutte le dimensioni della qualità, l’assenza di situazioni di
eccellenza o di dispendio di attenzione da parte delle amministrazioni. Si
nota, inoltre uniformità di situazioni per almeno tre dimensioni della qualità
(aspetti tangibili; affidabilità; capacità di risposta). L’affidabilità
costituisce la dimensione più critica, collocandosi per quasi tutti i comuni
considerati nell’area dell’emergenza.
Tabella 1- Livelli di importanza: valori medi
|
DIMENSIONI DELLA
QUALITA' |
||||
COMUNE |
Aspetti tangibili |
Affidabilità |
Capacità di risposta |
Capacità di rassicurazione |
Empatia |
|
|||||
Castel
Ritaldi |
19,02 |
20,81 |
20,37 |
19,49 |
20,31 |
Cerreto
di Spoleto |
19,60 |
19,31 |
21,28 |
19,41 |
20,40 |
Giano
dell'Umbria |
18,36 |
22,21 |
23,25 |
18,23 |
17,95 |
Massa
Martana |
17,33 |
20,94 |
20,64 |
20,04 |
21,05 |
Montefalco |
18,00 |
21,10 |
22,59 |
19,13 |
19,18 |
Trevi |
17,15 |
21,10 |
21,74 |
18,50 |
21,51 |
COMUNE |
Aspettativa |
Percezione |
SQ |
SQP |
|
||||
Castel
Ritaldi |
9,62 |
7,09 |
-2,53 |
-2,51 |
Cerreto
di Spoleto |
9,77 |
7,83 |
-1,94 |
-1,92 |
Giano
dell'Umbria |
9,11 |
6,28 |
-2,83 |
-2,74 |
Massa
Martana |
9,36 |
6,82 |
-2,54 |
-2,51 |
Montefalco |
9,61 |
7,62 |
-1,99 |
-1,94 |
Trevi |
9,35 |
7,01 |
-2,35 |
-2,31 |
Tabella 3 - Dimensioni della qualità per SQP
e livello di importanza: livelli di criticità
|
DIMENSIONI DELLA
QUALITA' |
||||
COMUNE |
Aspetti tangibili |
Affidabilità |
Capacità di risposta |
Capacità di
rassicurazione |
Empatia |
|
|||||
Castel
Ritaldi |
D |
A |
B |
D |
A |
Cerreto
di Spoleto |
D |
D |
B |
D |
A |
Giano
dell'Umbria |
D |
A |
B |
D |
D |
Massa
Martana |
D |
A |
B |
B |
A |
Montefalco |
D |
A |
B |
D |
D |
Trevi |
D |
A |
B |
D |
A |
Su questi risultati si possono fare
alcune riflessioni sull’uso degli indicatori di qualità e soddisfazione
nell’ambito dei sistemi di controllo interno degli enti locali. Rilevazioni del
tipo di quella ora illustrata consentono di formare una base informativa per
individuare gli aspetti della qualità dei servizi, che assumono maggiore
rilievo ai fini della complessiva soddisfazione degli utenti. Ciò consente di
stabilire standard di qualità dell’offerta non viziati da autoreferenzialità
dei produttori, ma - al contrario - tarati su scale di giudizio desunte da
valutazioni rese dai soggetti di domanda esterna. Gli standard così determinati
possono essere recepiti nel sistema di obiettivi della programmazione interna e
nel sistema di controlli periodici sul grado di loro realizzazione. Inoltre,
queste rilevazioni consentono di verificare gli effetti sulla soddisfazione
degli utenti, conseguenti a specifici interventi di riorganizzazione e
innovazione delle modalità di offerta. Infine, queste rilevazioni prefigurano
possibili utilizzazioni delle misurazioni della qualità nell’ambito delle
analisi di efficienza nella produzione dei servizi.
La questione assume connotati particolari in ambito pubblico, perché le misure dell’output che vengono normalmente utilizzate per la costruzione di indicatori di produttività o di efficienza sono quasi sempre espresse in termini fisici, senza considerare le modalità qualitative. Può così accadere che per identici livelli di output, riferiti ad osservazioni distinte nel tempo o nello spazio, si ottengano indicatori di efficienza migliori per l’amministrazione con livello di qualità dell’output più basso, se questo implica un minor utilizzo di risorse e, conseguentemente, costi di produzione più contenuti. Ogni valutazione comparativa, nel tempo e nello spazio, viene così inficiata dalla mancata considerazione degli aspetti qualitativi del servizio nella misurazione dell’output. Questo problema potrebbe essere risolto ricorrendo a metodi di ponderazione delle misure dell’output espresse in termini fisici, in modo da tenere conto dei risultati delle rilevazioni della qualità. I pesi potrebbero essere costruiti ricorrendo ad indicatori oggettivi di qualità, ma anche ai risultati delle rilevazioni sulla soddisfazione degli utenti. Ad esempio, l’indicatore SERVQUAL PONDERATO, illustrato in precedenza con riferimento ai comuni dell’Umbria, potrebbe essere utilizzato per calcolare un coefficiente moltiplicativo o demoltiplicativo da applicare alla misura quantitativa dell’output del servizio “Raccolta rifiuti”.
I problemi di valutazione della qualità dei servizi pubblici sono complessi, ma non insormontabili. Essi, però, non possono essere affrontati in maniera episodica o locale, perché la loro corretta soluzione richiede confronti sistematici sui metodi e sui risultati delle rilevazioni.