Storia dell'articolo

Chiudi

Questo articolo è stato pubblicato il 30 ottobre 2011 alle ore 15:51.

My24

L'università italiana sta per essere sommersa da una valanga di numeri. Partirà infatti tra breve l'esercizio di Valutazione della Qualità della Ricerca (VQR) condotto dall'ANVUR il cui prodotto finale sarà una classifica delle università e degli enti di ricerca; e circolano da qualche settimana le bozze del decreto ministeriale per la valutazione dei candidati nei concorsi universitari. Sia il VQR che il decreto ministeriale riflettono la speranza del Ministro e di molti consiglieri e commentatori che la obiettività delle statistiche bibliometriche riescano a scardinare le baronie che hanno ingessato l'università e la ricerca italiana votandole al declino.

Contro la valanga di numeri si battono da tempo coloro che ritengono che la valutazione e la bibliometria non abbiano nessun significato ed utilità, perché non è possibile ridurre la qualità (della ricerca, della didattica) a freddi indicatori quantitativi. In tutto questo risuona come un eco lontana il dibattito internazionale, dove una sempre più grande nutrita comunità di studiosi (Nature ha stimato si è passati dai cento articoli pubblicati nel 1991 agli oltre mille del 2009) si occupa professionalmente di bibliometria e scientometria, ormai divenute a tutti gli effetti discipline autonome con cattedre universitarie, riviste e società scientifiche. L'assenza di una riflessione critica e ponderata rischia di favorire l'adozione di pratiche valutative che non hanno solido fondamento, e che rischiano di peggiorare –se mai fosse possibile- la situazione attuale della ricerca italiana.

Sono tre i pericoli principali. Prima di illustrarli è utile ricordare che le misure bibliometriche sono indicatori sintetici di fenomeni sottostanti, il più controverso dei quali è la qualità della ricerca. Alcuni sostengono che la qualità della ricerca è come un elefante: non può essere definita a priori, si riconosce quando si vede. Più concretamente, si può sostenere che un prodotto di ricerca è di qualità se nella sua produzione sono stati rispettati i canoni prevalenti nella scienza in un certo momento del tempo: il metodo adottato, il rigore del ragionamento, la robustezza dei dati etc.. Il giudizio di qualità può essere espresso compiutamente solo dai membri della comunità dei pari perché solo loro conoscono gli standard di riferimento.

Le procedure di revisione dei pari universalmente adottate delle riviste per decidere quali articoli pubblicare e quali rifiutare sono il risultato di questa idea di riconoscimento della qualità. Non è difficile pensare ad indicatori bibliometrici che possano incorporare queste informazioni sulla qualità.

Ad esempio, un semplice indicatore di "produzione di qualità" consiste nel conteggio degli articoli che un ricercatore ha pubblicato su riviste con revisione dei pari. Nei settori disciplinari, per esempio in molte aree delle scienze umane e nelle discipline giuridiche italiane, dove generalmente la revisione dei pari non è applicata, è ovvio che il conteggio delle pubblicazioni è solo un indicatore della "produzione" e non della "produzione di qualità". L'altro fenomeno che gli indicatori bibliometrici sono in grado di approssimare è l'impatto della ricerca. Da secoli l'individuazione del valore di uno scienziato avviene attraverso il riconoscimento pubblico della sua priorità in una scoperta. I giganti possono aspirare a designare la loro scoperta con il loro nome (sistema copernicano; teorema di Pitagora; legge di Gauss etc.); gli umili artigiani si accontentano che qualcuno citi il loro lavoro. In questo consiste l'impatto di un contributo scientifico, che è tanto più elevato tante più sono le citazioni che ha ricevuto. Gli indicatori bibliometrici di impatto sono basati su conteggi più o meno complessi delle citazioni. C'è grande discussione in letteratura sul significato da attribuire alle citazioni, ma c'è unanime consenso sul fatto che le pratiche citazionali differiscono fortemente tra discipline. La conseguenza è che, allo stato attuale, non è possibile confrontare tra loro indicatori relativi a discipline diverse.

Veniamo adesso ai pericoli. Il primo è che si finisca per confondere la qualità della ricerca con il suo impatto. Si rischia così di attribuire un valore troppo elevato alla ricerca "alla moda", che ricama in modo tecnicamente ineccepibile su temi ben noti alla comunità scientifica, e che per questo trova facilmente spazio sulle riviste più citate. Al contempo si rischia di penalizzare la ricerca più innovativa, interdisciplinare o di nicchia che fa fatica a trovare spazio sulle riviste più citate. Il fenomeno delle belle addormentate della scienza –ricerca rimasta per decenni silente nelle pagine di rivista o negli scaffali di una biblioteca - è ben documentato. Una consapevolezza diffusa che si corrono questi rischi è il primo passo per tenerli sotto controllo. Il problema è che la virulenza del dibattito italiano su questi temi –alimentata dal ricorso continuo a qualche classifica con i migliori, i peggiori e gli eccellenti- rischia di spingere il sistema nella direzione sbagliata.

Il secondo pericolo è l'abuso delle misure bibliometriche quando sono utilizzate in modo tecnicamente improprio. Qui i segnali sono molto preoccupanti. Prendiamo un paio di esempi. Antony Van Raan, uno dei massimi esperti mondiali di bibliometria, intervistato da Nature (giugno 2010) ricordava che " se c'è una cosa su cui tutti i bibliometrici sono d'accordo è che non si dovrebbe mai usare l'impact factor per valutare un articolo scientifico o un ricercatore – questo è un peccato mortale". L'impact factor, o fattore di impatto, è una misura dell'impatto di una rivista scientifica nel suo complesso, e, per ragioni statistiche, non riflette il numero di citazioni ricevute da un singolo articolo che vi è pubblicato.

Commenta la notizia

Ultimi di sezione

Shopping24

Dai nostri archivi