Strumenti statistici  per  la valutazione  dell'efficienza  e dell’efficacia degli Enti locali

 

 

 

ANDREA MANCINI          

Dirigente del servizio

Pubbliche Amministrazioni ISTAT

 

 

1.      La funzione di programmazione e controllo nelle pubbliche amministrazioni

 

La più recente norma di livello nazionale, emanata con riguardo allo sviluppo della funzione di controllo interno nelle amministrazioni pubbliche, è costituita dal D.lgs n. 286 del 1999. Esso si applica alle amministrazioni statali, ma si può considerare un punto di riferimento rilevante anche per l’organizzazione della funzione di controllo e valutazione nell’ambito delle amministrazioni locali. Sotto il profilo tecnico, economico e statistico, considero i contenuti del decreto positivi, perché segnano un momento di chiarificazione nell’applicazione della riforma dei controlli amministrativi nel sistema italiano. Non c’è tempo per entrare, qui, nel merito delle quattro funzioni che il decreto legislativo individua come centrali, né delle soluzioni che esso adotta riguardo alla separazione degli organi interni che devono essere preposti allo sviluppo e realizzazione delle quattro funzioni. Nondimeno è evidente che per due di queste, e segnatamente per quella del controllo di gestione e per quella della valutazione e controllo strategico, diviene da un lato importante stabilire le tecniche di misurazione da utilizzare e, dall’altro lato, costruire sistemi informativi che consentano le applicazioni tecniche necessarie a pervenire agli indicatori per la valutazione.

Da questo punto di vista è importante considerare che l’art. 9 del decreto stabilisce che “il sistema di controllo di gestione e il sistema di valutazione e controllo strategico (…) si avvalgono di un sistema informativo-statistico unitario, idoneo alla rilevazione di grandezze quantitative a carattere economico finanziario”. L’importanza di questo richiamo non è, ovviamente dal nostro punto di vista, nel suo valore di obbligo a fare, quanto nel suo valore di richiamo metodologico. Affinché le amministrazioni pubbliche siano in grado di autocontrollare ed autovalutare la propria azione amministrativa, nel senso dell’efficienza economica nella produzione dei servizi e dell’efficacia economico-sociale nella predisposizione ed attuazione delle politiche pubbliche, la costruzione di un sistema informativo interno costituisce un passo obbligato. E mi riferisco non tanto agli aspetti tecnologici connessi all’impianto informatico del sistema, che pure sono importanti, quanto piuttosto alla creazione di un sistema di flussi informativi sui principali fatti gestionali interni al sistema del governo, anche di quello a scala locale.

 

 

1.      Il sistema informativo per misurare e valutare

 

È soprattutto importante che il sistema informativo per il controllo e la valutazione sia costruito in modo da rendere la massima integrazione delle diverse fonti che lo alimentano e la massima flessibilità nell’uso di dati in esso archiviati, al fine di garantire la possibilità di analizzare e valutare i fatti gestionali interni a ciascun ente e, dunque, produrre ex ante i documenti programmatici ed i rapporti di gestione che, nel loro insieme, costituiscono il prodotto specifico della funzione di programmazione, controllo e valutazione.

Ora la situazione dei sistemi informativi interni alle amministrazioni si può considerare alquanto problematica, se valutata sotto il profilo della loro capacità a rendere informazioni e dati pertinenti agli scopi delle valutazioni di efficienza ed efficacia. In generale essi appaiono caratterizzati da incompletezza nella rappresentazione dei fatti gestionali interni, scarsamente adatti a dare supporto informativo alle tecniche di analisi e valutazione.

Di solito i sistemi esistenti si fondano su parti nate nel tempo per sopperire a necessità amministrative di gestione della contabilità finanziaria e di amministrazione del personale dipendente. Le informazioni contenute sono sicuramente utili ai fini della valutazione e controllo dei fatti gestionali, ma non sempre sono organizzate in modo tale da permettere l’integrazione dei dati a livelli di analisi diversi da quelli per i quali sono nati. Ad esempio i sistemi informativi contabili ricalcano la struttura del bilancio per funzioni e categorie economiche di spesa, mentre non sono in generale costruiti per rappresentare i centri di costo per la produzione di individuati servizi finali. Un altro esempio può essere citato con riferimento ai sistemi informativi del personale, che spesso sono costruiti per rendere conto della gestione amministrativa dei dipendenti, ma non per estrarre dati inerenti i flussi di lavoro utilizzati nei centri di costo per la produzione di individuati servizi. Ne consegue che, in generale, i sistemi informativi esistenti non sono sufficienti a produrre le informazioni di base necessarie ad alimentare la funzione di programmazione e controllo interna alle amministrazioni.

Vi è, in primo luogo, una scarsa chiarezza nelle nomenclature, definizioni e classificazioni adottate per le varie parti del sistema informativo, le quali dovrebbero consentire di integrare i dati provenienti dalle fonti interne alle singole amministrazioni. Sotto questo profilo la prima criticità discende dal prevalente uso di criteri propri della contabilità di tipo finanziario, che non consente:

·  di misurare i costi di produzione dei servizi, siano essi finali o intermedi; a tal fine serve l’impianto di una contabilità economica da affiancare a quella finanziaria, superando le genericità implicite nella limitatissima applicazione connessa alla predisposizione del prospetto generale di conciliazione tra contabilità finanziaria ed economica richiesto dal DPR n.194 del gennaio 1996 per la predisposizione del conto di bilancio degli enti locali;

·  di applicare i criteri della contabilità analitica, ovvero di imputare i costi a specificati centri di servizio, individuati sulla base dell’omogeneità dei prodotti offerti, di distinguere fra centri di servizi intermedi e centri di servizi finali, di ribaltare sui secondi i costi diretti imputabili ai primi, i quali dovrebbero così azzerare i propri conti.

La seconda criticità discende dalle difficoltà che si incontrano nel definire, individuare e misurare il prodotto di servizi non venduti sul mercato. Gli strumenti di contabilità, sia economica che finanziaria, permettono di rilevare quanto si è speso per l’acquisto dei fattori della produzione, ma in ambito pubblico non consentono di rappresentare i ricavi. Infatti, dal lato delle entrate vengono contabilizzate le risorse destinate a finanziare la produzione dei servizi, le quali derivano largamente da imposte, tasse e trasferimenti, mentre i proventi dei servizi non possono essere considerati alla stessa stregua dei prezzi di mercato, in quanto la determinazione delle tariffe tiene conto solo in parte dei livelli di domanda e dei costi di produzione. In queste condizioni la misurazione del valore della produzione non può essere effettuata su base monetaria ed aggregata, mentre è necessario ricorrere a misurazioni extra contabili che, per ciascun servizio offerto si debbono fondare sull’individuazione di unità di misura, espresse in termini fisici, sia della domanda che dell’offerta e della produzione.

Vi è poi un terzo elemento di criticità che si connette non tanto alla costruzione di un sistema informativo statistico, quanto piuttosto alle possibilità tecniche di effettuare significative analisi e valutazioni di efficienza ed efficacia sulla base dei dati raccolti nel sistema. Questa terza criticità è costituita dalla possibilità di individuare degli standard di efficienza ed efficacia cui commisurare gli indicatori calcolati con riferimento ai vari servizi offerti da uno specifico ente locale. Si tratta, in altri termini, della valutazione comparativa tra enti locali o loro partizioni organizzative interne che svolgono funzioni e compiti similari o che offrono servizi omogenei.

La valutazione comparativa costituisce attualmente la frontiera dell’innovazione in materia di controllo di gestione, poiché sono ormai ricche, seppure non diffuse, le esperienze di controllo che si limitano ad osservare i risultati della gestione nell’ambito di singole amministrazioni. E nondimeno ciò limita le valutazioni a quelle ottenibili da confronti temporali. Questi possono al più consentire la valutazione della dinamica della produttività, senza permettere l’espressione di giudizi circa il livello di efficienza ed efficacia degli interventi o servizi offerti. Al contrario, l’applicazione delle tecniche di valutazione comparativa consente di effettuare confronti spaziali che, nell’ambito del controllo gestionale e della valutazione strategica danno l’opportunità di:

-   verificare l’efficienza relativa di diverse forme gestionali dei servizi locali;

-   individuare soluzioni organizzative di miglioramento dell’efficienza ed efficacia;

-   determinare standard di efficienza ed efficacia relativa, da assumere come obiettivi di riferimento all’interno di ciascun ente locale.

Quest’ultima possibilità è particolarmente rilevante, poiché punta ad innescare, attraverso la comparabilità spaziale degli indicatori, processi di competizione emulativa tra amministrazioni che possono dare luogo all’introduzione di innovazioni gestionali dirette a migliorare la qualità dei servizi, a semplificare le procedure, a governare l’allocazione delle risorse umane, a recuperare efficienza e diminuire i costi unitari di produzione. In questo senso la valutazione comparativa diviene strumento di autovalutazione nell’ambito dei processi di controllo interno e può essere considerata un’applicazione del benchmarking alla realtà delle amministrazioni pubbliche locali.

Se si vuole operare in questa direzione, è però necessario rendere compatibili le tecniche di misurazione. Si devono stabilire le definizioni delle variabili rilevanti e gli insiemi di indicatori, nonché le tecniche di determinazione degli standard.

 

 

2.      Le esperienze di misurazione dell’Istat

 

Per contribuire alla soluzione dei problemi metodologici connessi alle tre criticità ora illustrate, durante gli ultimi cinque anni l’Istat ha realizzato varie esperienze di misurazione dell’efficienza e dell’efficacia degli enti locali e dei servizi da essi offerti alla cittadinanza. Nel fare ciò l’Istituto ha sempre assunto un’ottica di forte attenzione ai problemi della valutazione comparativa e, dunque, ai metodi di misurazione più adatti a determinare in prospettiva gli standard di performance, corrispondendo in questo modo al proprio ruolo istituzionale nel campo della produzione di metodi, definizioni e classificazioni adatte a garantire la confrontabilità dei dati rilevati presso insiemi di unità di osservazione.

Allo scopo di illustrare sinteticamente i problemi di misurazione incontrati e le relative soluzioni adottate, ritengo opportuno fare specifico riferimento a due esperienze. La prima ha avuto come obiettivo la misurazione dell’efficienza e dell’efficacia di alcuni servizi comunali secondo criteri che garantiscono la valutazione comparativa tra i risultati ottenuti da vari enti. La seconda tendeva, invece, ad impostare una misurazione della soddisfazione dei cittadini rispetto alla qualità di alcuni servizi comunali, sempre in un’ottica di confronto spaziale.

 

 

3.1. Efficienza ed efficacia dei servizi comunali

 

Nel corso del 1998 questa prima esperienza è stata realizzata da ricercatori dell’Istat in collaborazione con gli uffici di statistica o con gli uffici del controllo  di gestione di circa 20 comuni di medie dimensioni, localizzati in varie regioni settentrionali. Alla riuscita dell’esperienza ha giovato molto la collaborazione promozionale ed organizzativa di alcune rappresentanze regionali dell’ANCI. Tutti i comuni hanno partecipato su base assolutamente volontaria, spinti dall’esigenza di confrontare i propri risultati con quelli ottenuti da altri enti similari. I servizi oggetto di misurazione sono stati sette, tra cui gli asili nido che vorrei prendere a riferimento per illustrare alcuni risultati ottenibili dall’applicazione dei metodi seguiti.

Uno dei principali indicatori di efficienza è costituito dal costo per unità di prodotto. Per pervenire ad un indicatore di questo tipo, rispettando i criteri di omogeneità nella rilevazione, è necessario disporre dei dati relativi ad una variabile rappresentativa del costo totale di produzione e di una variabile rappresentativa della quantità di prodotto. Con riferimento alla variabile del primo tipo, il costo totale effettivo (tabella 1) è stato determinato da ciascun comune applicando i criteri della contabilità analitica per centro di costo. Ciò ha implicato la ricostruzione delle quantità dei diversi fattori della produzione direttamente utilizzati per l’erogazione del servizio asili nido. Queste quantità sono poi state valorizzate con i rispettivi prezzi di acquisto e tra loro sommate per ottenere il costo totale. In questa operazione particolare rilevanza ha assunto la determinazione del costo annuo di ammortamento degli immobili, impianti ed attrezzature che è stata effettuata in modo semplificato, applicando coefficienti di ammortamento fiscale a valori dei cespiti ad uso durevole alternativamente desunti dagli inventari o stimati in base a valori medi di mercato (ad esempio immobili).

Quanto poi alla variabile posta a denominatore dell’indicatore di efficienza, è stato adottato il numero dei posti disponibili. Si tratta indubbiamente di una unità di misura molto povera, che esprime la capacità di offerta piuttosto che il livello di produzione realizzato nel corso dell’anno di riferimento. Che tale capacità corrisponda poi all’offerta reale e, soprattutto, alla produzione realizzata del servizio dovrebbe essere provato con la rilevazione di altre variabili più sofisticate (bambini iscritti, bambini frequentanti o, più opportunamente, bambini/giorno mediamente presenti), che implicano, tuttavia, una comune impostazione dei sistemi interni di rilevazione extracontabile, impossibile da realizzare quando, come nel caso in esame, la misurazione viene effettuata con riferimento ad un periodo temporale pregresso.

 

 

Tabella 1 - Indici di efficienza (relI) ed inefficienza (1 - relI) relativa del servizio Asili nido

 

Comuni

Posti disponibili

Costo totale effettivo (mln)

Costo totale atteso (mln)

Costo totale per posto (mln)

relI

1 - relI

 

 

 

 

 

 

 

Carpi

339

5.252.515

3.652.796

15.494

0,70

0,30

Cesena

333

5.039.059

3.588.145

15.132

0,71

0,29

Correggio

143

1.890.142

1.540.855

13.218

0,82

0,18

Forlì

465

7.593.348

5.010.473

16.330

0,66

0,34

Imola

330

5.047.095

3.555.820

15.294

0,70

0,30

Maranello

71

906.613

765.040

12.769

0,84

0,16

Modena

876

13.041.064

9.439.085

14.887

0,72

0,28

Piacenza

336

4.894.245

3.620.471

14.566

0,74

0,26

Rimini

314

4.013.029

3.383.416

12.780

0,84

0,16

Scandiano

123

1.343.955

1.325.351

10.926

0,99

0,01

Sassuolo

185

1.993.414

1.993.414

10.775

1

0

Vignola

84

1.478.069

905.118

17.596

0,61

0,39

Brescia

455

7.496.330

4.902.721

16.475

0,65

0,35

Gorizia

72

1.338.995

775.815

18.597

0,58

0,42

Monfalcone

40

810.322

431.008

20.258

0,53

0,47

Pordenone

90

1.510.468

969.769

16.783

0,64

0,36

Thiene

94

1.314.073

1.012.870

13.980

0,77

0,23

Trento

481

12.932.605

5.182.876

26.887

0,40

0,60

Varese

312

4.244.119

3.361.866

13.603

0,79

0,21

Vicenza

439

6.040.316

4.730.318

13.759

0,78

0,22

 

 

 

 

 

 

 

 

 

 

Figura 1 - Valutazione comparativa dell’efficienza del servizio Asili nido: costo totale effettivo e costo totale atteso

 

 

 

Il confronto tra costi totali per posto disponibile, osservati per ciascun comune consente di individuare l’ente che realizza la migliore performance. Tra i casi osservati nella tabella 1 questa è stata realizzata dal Comune di Sassuolo, con un importo unitario pari a 10,7 milioni di lire. Se si assume come standard questo valore unitario minimo, è possibile ricalcolare per ciascun comune osservato il costo totale atteso, moltiplicando lo standard per il corrispondente numero di posti disponibili. Gli indicatori di efficienza relativa (rispetto allo standard) possono quindi essere calcolati come rapporto tra costo totale atteso e costo totale effettivo. Nel caso esaminato, il Comune di Sassuolo è lo standard e, quindi, ha indicatore pari a 1, mentre tutti gli altri si distribuiscono sotto questa frontiera, che è graficamente visualizzata nella figura 1. In questa la distanza verticale tra ciascuna osservazione in termini di costo totale effettivo e il corrispondente punto sulla retta indica il grado di inefficienza relativa di ciascun comune osservato e corrisponde alla misurazione numerica riportata nell’ultima colonna della tabella 1.

Analoghe operazioni sono state effettuate per definire standard di efficacia e pervenire ad indicatori che consentono un confronto diretto tra enti. In questo caso, si è utilizzata la popolazione residente in età di frequentazione degli asili nido come variabile che esprime la domanda potenziale del servizio. I posti effettivamente disponibili sono stati utilizzati come unità di misura dell’offerta. Il numero dei posti disponibili per residente in età di frequentazione degli asili nido è stato utilizzato come indicatore di efficacia che consente di commisurare l’offerta comunale del servizio alla sua domanda potenziale. Anche in questo caso si tratta di un indicatore assai semplice che non permette di valutare altri importanti aspetti dell’efficacia e, in particolare, l’entità della domanda espressa e delle conseguenti possibili liste di attesa. Queste, sotto il profilo della valutazione economica applicata ai servizi pubblici, sono molto importanti, perché di fatto, in presenza di vincoli di offerta pubblica nel breve periodo, rappresentano la principale modalità di razionamento della domanda usata dalle amministrazioni pubbliche per mantenere l’equilibrio tra la domanda e l’offerta dei propri servizi.

Pur con la limitata significatività attribuibile all’indicatore riferito ai posti disponibili ed alla popolazione in età, la valutazione può essere condotta ponendo a confronto i due valori relativi a ciascuno dei comuni considerati. Lo standard viene stabilito in corrispondenza del valore più alto dell’indicatore. Come si può desumere dai valori ordinati nella quarta colonna della tabella 2, la migliore performance è in questo caso quella dimostrata dal Comune di Correggio, con un rapporto tra posti disponibili e popolazione in età pari a32%. Assumendo questo valore come standard per ciascuno degli altri comuni osservati, si ricalcola il numero dei posti attesi. Questo viene poi posto a denominatore di un rapporto che vede al numeratore i corrispondenti posto effettivi. Si ottiene così un indicatore di efficacia relativa, i cui valori sono riportati per ciascun comune nella quinta colonna della tabella 2. Il Comune di Correggio, essendo stato individuato come termine di confronto, ha un indicatore pari a 1, mentre tutti gli altri hanno indicatori inferiori che si distribuiscono al disotto di un’ideale frontiera graficamente visualizzata nella figura 2. In questa la distanza verticale tra ciascuna osservazione in termini di posti effettivi e il corrispondente punto sulla retta indica il grado di inefficienza relativa di ciascun comune considerato e corrisponde alla misurazione numerica riportata nell’ultima colonna della tabella 2.

Misurazioni e indicatori analoghi a questi illustrati sono stati realizzati per altri servizi degli stessi comuni, anche tenendo conto delle diverse forme gestionali da essi adottate. La semplicità degli indicatori e i connessi limiti di significatività rispetto a più completi obiettivi di valutazione dell’efficienza e dell’efficacia sono certamente connessi alla sperimentalità dell’indagine, ma possono essere superati in una prospettiva di sviluppo della valutazione comparativa soprattutto arricchendo ed uniformando le rilevazioni interne ai singoli enti locali e i loro sistemi informativi per la programmazione e il controllo dei servizi.


Tavola 2 - Indici di efficacia (relI) ed inefficacia (1 - relI) relativa del servizio Asili nido

 

Comuni

Popolazione 0-2 anni

Posti effettivi

Posti attesi

Posti per residente

relIeff

1 - relIeff

 

 

 

 

 

 

 

Carpi

1.299

339

416

0,26

0,81

0,19

Cesena

1.957

333

627

0,17

0,53

0,47

Correggio

446

143

143

0,32

1

0

Imola

1.507

330

483

0,22

0,68

0,32

Maranello

420

71

135

0,17

0,53

0,47

Modena

4.072

876

1.306

0,22

0,67

0,33

Parma

2.639

832

846

0,32

0,98

0,02

Piacenza

2.080

336

667

0,16

0,50

0,50

Rimini

3.122

314

1.001

0,10

0,31

0,69

Scandiano

547

123

175

0,22

0,70

0,30

Sassuolo

1.170

185

375

0,16

0,49

0,51

Vignola

272

84

87

0,31

0,96

0,04

Brescia

4.467

455

1.432

0,10

0,32

0,68

Monfalcone

534

40

171

0,07

0,23

0,77

Pordenone

1.053

90

338

0,09

0,27

0,73

Thiene

510

94

164

0,18

0,57

0,43

Trento

1.915

481

614

0,25

0,78

0,22

Vicenza

2.677

439

858

0,16

0,51

0,49

 

 

 

 

 

 

 

 

 

 

Figura 2 - Valutazione comparativa dell’efficacia del servizio Asili nido: numero effettivo e numero atteso di posti disponibili

 

 

 

 

3.2 La qualità dei servizi e la soddisfazione dei cittadini

 

La seconda esperienza di cui vorrei illustrare i metodi e i principali risultati è stata condotta dall’Istat in collaborazione con 6 comuni umbri e 5 comuni sardi, tutti di piccole dimensioni e limitrofi tra loro nelle due distinte aree geografiche.

I servizi analizzati sono stati in tutti i comuni la “raccolta rifiuti” e la “manutenzione delle strade”. L’intento della sperimentazione era quello di predisporre strumenti standardizzati di rilevazione, elaborazione ed analisi riproducibili in contesti istituzionali simili, contrassegnati da una forte limitazione di risorse interne da assegnare allo sviluppo della funzione di controllo interno.

In questo approccio il fattore chiave su cui si basa la valutazione della soddisfazione dell’utenza è rappresentato dalla distinzione tra qualità percepita e qualità attesa. Quest’ultima svolge un ruolo rilevante nel giudizio che sarà dato sui servizi forniti e discende dal grado di rilevanza che ogni singolo utente attribuisce al servizio nel suo complesso, nonché ai singoli aspetti che lo caratterizzano. Le aspettative individuali si formano sulla base di vari fattori: le informazioni che l’utente ottiene da altri; le preferenze personali e i bisogni specifici che derivano da sua caratteristiche o condizioni personali; l’esperienza passata relativa a precedenti occasioni di fruizione del servizio; le comunicazioni esterne da parte del fornitore del servizio. Per altro verso il giudizio sulla qualità percepita si forma sulla base delle esperienze dirette di fruizione del servizio. Il modello ipotizza che l’utente valuti la qualità del servizio attraverso una serie di criteri riconducibili a cinque dimensioni della qualità:

-   aspetti tangibili (aspetto esteriore delle strutture; disponibilità di attrezzature, ecc.);

-   affidabilità (precisione nell’espletamento; continuità dell’offerta);

-   capacità di risposta (disponibilità ad aiutare l’utente);

-   capacità di rassicurazione (competenza e cortesia degli addetti; loro capacità di ispirare fiducia);

-   empatia (assistenza continua e personalizzata nella fruizione del servizio).

A ciascuna dimensione della qualità corrispondono diverse modalità qualitative caratterizzanti ogni specifico servizio e denominate attributi. Il modello prevede che l’utente attribuisca a ciascuna dimensione un peso indicante il livello soggettivo di importanza relativa. Successivamente, per ogni attributo di ciascuna dimensione l’utente esprime il giudizio riguardo alle proprie aspettative e alle proprie percezioni, utilizzando una scala predefinita di valori. In questo modo è possibile costruire degli indicatori sia semplici che ponderati, a livello individuale e, per aggregazioni successive, anche a livello medio per ciascuna delle cinque dimensioni della qualità. Ciascun indicatore è costruito come differenza numerica (scarto) tra coppie di valori che rappresentano sinteticamente i giudizi espressi sulle aspettative e sulle percezioni per ciascuna dimensione della qualità.

Nella Tabella 1 sono riportati i livelli medi di importanza assegnati, attraverso la ripartizione di un massimo di 100 punti, alle cinque dimensioni della qualità dai cittadini che hanno costituito il campione nei diversi comuni dell’Umbria. Si può notare che gli utenti di tutti i comuni coinvolti hanno risposto in modo piuttosto uniforme: nessuna delle dimensioni della qualità prevale nettamente sulle altre, posizionandosi tutti i punteggi intorno al valore medio pari a 20. Anche gli indici di dispersione delle dichiarazioni individuali sono risultati molto bassi, a conferma di un forte addensamento delle preferenze individuali attorno al valore medio di 20 punti.

Nella Tabella 2 sono riportati i risultati sintetici ottenuti a seguito delle elaborazioni relative al Servizio “Raccolta rifiuti”. Si può così notare l’alto livello delle aspettative medie espresse dai cittadini nei confronti di tutti gli aspetti di tale Servizio: nella scala di punteggio adottata,  compresa tra 0 e 10, si è riscontrata un’aspettativa media sempre superiore a 9. La misurazione delle percezioni ha messo in luce valori medi più bassi rispetto a quelli registrati per le aspettative, oltre ad una maggiore variabilità delle risposte individuali. Gli indicatori di sintesi sono riportati nelle ultime due colonne della Tabella 2. Il punteggio SERVQUAL (SQ) è costruito come media degli scarti tra valori dichiarati per le aspettative e per le percezioni. Il punteggio SERVQUAL PONDERATO (SQP) è costruito come media degli stessi scarti, ma ponderati con i livelli di importanza dichiarata rispetto a ciascuna delle cinque dimensioni della qualità del Servizio. Entrambi mostrano una diffusa insoddisfazione tra i cittadini dei comuni.

 

Grafico 2 - Dimensioni della qualità per SQP e livello medio di importanza

 

Allo scopo di individuare le dimensioni più critiche sulle quali agire prioritariamente in termini di interventi correttivi da parte delle amministrazioni, è stata effettuata un’analisi congiunta del livello di importanza e dell’indice SERVQUAL PONDERATO per ciascuna dimensione della qualità. I risultati possono essere visualizzati nel Grafico 1. Ad esempio, livelli elevati di insoddisfazione abbinati a livelli di importanza superiori alla media individuano situazioni di emergenza, poiché il comune non è in grado di soddisfare le attese corrispondenti ad aspetti del servizio giudicati molto importanti dai cittadini. Al contrario, le posizioni comprese nell’area contrassegnata dalla lettera E rappresentano situazioni di eccesso di attenzione da parte delle amministrazioni, poiché gli elevati livelli di soddisfazione degli utenti riguardano aspetti qualitativi del servizio cui essi non attribuiscono importanza rilevante. Le situazioni di eccellenza sono quelle corrispondenti all’area contrassegnata dalla lettera C,  cui corrispondono elevati punteggi abbinati a dimensioni giudicate importanti dagli stessi utenti. Infine, bassi livelli di soddisfazione collegati a livelli di importanza inferiori alla media  individuano situazioni da tenere sotto controllo. Sempre con riferimento al Servizio Raccolta rifiuti nei comuni dell’Umbria, la Tabella 3 riporta i risultati sintetici. In particolare si nota, per tutte le dimensioni della qualità, l’assenza di situazioni di eccellenza o di dispendio di attenzione da parte delle amministrazioni. Si nota, inoltre uniformità di situazioni per almeno tre dimensioni della qualità (aspetti tangibili; affidabilità; capacità di risposta). L’affidabilità costituisce la dimensione più critica, collocandosi per quasi tutti i comuni considerati nell’area dell’emergenza.

 

 

Tabella 1- Livelli di importanza: valori medi

 

 

DIMENSIONI DELLA QUALITA'

COMUNE

Aspetti tangibili

Affidabilità

Capacità di risposta

Capacità di rassicurazione

Empatia

 

Castel Ritaldi

19,02

20,81

20,37

19,49

20,31

Cerreto di Spoleto

19,60

19,31

21,28

19,41

20,40

Giano dell'Umbria

18,36

22,21

23,25

18,23

17,95

Massa Martana

17,33

20,94

20,64

20,04

21,05

Montefalco

18,00

21,10

22,59

19,13

19,18

Trevi

17,15

21,10

21,74

18,50

21,51

 

 

 

 

Tabella 2 - Aspettativa, percezione, punteggio SQ, punteggio SQP: valori medi

 

COMUNE

Aspettativa

Percezione

SQ

SQP

 

Castel Ritaldi

9,62

7,09

-2,53

-2,51

Cerreto di Spoleto

9,77

7,83

-1,94

-1,92

Giano dell'Umbria

9,11

6,28

-2,83

-2,74

Massa Martana

9,36

6,82

-2,54

-2,51

Montefalco

9,61

7,62

-1,99

-1,94

Trevi

9,35

7,01

-2,35

-2,31

 

 

 

Tabella 3 - Dimensioni della qualità per SQP e livello di importanza: livelli di criticità

 

 

DIMENSIONI DELLA QUALITA'

COMUNE

Aspetti tangibili

Affidabilità

Capacità di risposta

Capacità di rassicurazione

Empatia

 

Castel Ritaldi

D

A

B

D

A

Cerreto di Spoleto

D

D

B

D

A

Giano dell'Umbria

D

A

B

D

D

Massa Martana

D

A

B

B

A

Montefalco

D

A

B

D

D

Trevi

D

A

B

D

A

 

 

Su questi risultati si possono fare alcune riflessioni sull’uso degli indicatori di qualità e soddisfazione nell’ambito dei sistemi di controllo interno degli enti locali. Rilevazioni del tipo di quella ora illustrata consentono di formare una base informativa per individuare gli aspetti della qualità dei servizi, che assumono maggiore rilievo ai fini della complessiva soddisfazione degli utenti. Ciò consente di stabilire standard di qualità dell’offerta non viziati da autoreferenzialità dei produttori, ma - al contrario - tarati su scale di giudizio desunte da valutazioni rese dai soggetti di domanda esterna. Gli standard così determinati possono essere recepiti nel sistema di obiettivi della programmazione interna e nel sistema di controlli periodici sul grado di loro realizzazione. Inoltre, queste rilevazioni consentono di verificare gli effetti sulla soddisfazione degli utenti, conseguenti a specifici interventi di riorganizzazione e innovazione delle modalità di offerta. Infine, queste rilevazioni prefigurano possibili utilizzazioni delle misurazioni della qualità nell’ambito delle analisi di efficienza nella produzione dei servizi.

La questione assume connotati particolari in ambito pubblico, perché le misure dell’output che vengono normalmente utilizzate per la costruzione di indicatori di produttività o di efficienza sono quasi sempre espresse in termini fisici, senza considerare le modalità qualitative. Può così accadere che per identici livelli di output, riferiti ad osservazioni distinte nel tempo o nello spazio, si ottengano indicatori di efficienza migliori per l’amministrazione con livello di qualità dell’output più basso, se questo implica un minor utilizzo di risorse e, conseguentemente, costi di produzione più contenuti. Ogni valutazione comparativa, nel tempo e nello spazio, viene così inficiata dalla mancata considerazione degli aspetti qualitativi del servizio nella misurazione dell’output. Questo problema potrebbe essere risolto ricorrendo a metodi di ponderazione delle misure dell’output espresse in termini fisici, in modo da tenere conto dei risultati delle rilevazioni della qualità. I pesi potrebbero essere costruiti ricorrendo ad indicatori oggettivi di qualità, ma anche ai risultati delle rilevazioni sulla soddisfazione degli utenti. Ad esempio, l’indicatore SERVQUAL PONDERATO, illustrato in precedenza con riferimento ai comuni dell’Umbria, potrebbe essere utilizzato per calcolare un coefficiente moltiplicativo o demoltiplicativo da applicare alla misura quantitativa dell’output del servizio “Raccolta rifiuti”.

I problemi di valutazione della qualità dei servizi pubblici sono complessi, ma non insormontabili. Essi, però, non possono essere affrontati in maniera episodica o locale, perché la loro corretta soluzione richiede confronti sistematici sui metodi e sui risultati delle rilevazioni.