Storia dell'articolo

Chiudi

Questo articolo è stato pubblicato il 30 ottobre 2011 alle ore 15:51.

My24

Prendiamo adesso il bando VQR anticipato dall'ANVUR: vi si legge che per la valutazione degli articoli scientifici i valutatori sono tenuti ad adottare l'analisi del fattore di impatto della rivista ospitante. Qualcuno ha aggiunto tra parentesi "(ove applicabile)". C'è solo da sperare che i valutatori non ne tengano mai conto. D'altra parte ben tre decreti ministeriali (89/2009; 243 e 344/2011) indicano l'Impact Factor come un fondamentale criterio che le commissioni sono tenute ad adottare per la valutazione dei titoli nelle procedure di reclutamento. Alle virtù salvifiche dell'Impact Factor il ministro sembra aver rinunciato nella bozza di decreto ministeriale sui concorsi; ma la logica dell'intervento resta la stessa: si indica un rigido criterio statistico (la mediana) per l'accesso alle selezioni (e al ruolo di commissario). L'applicazione rigida di indicatori di impatto ad un livello molto disaggregato di analisi (il singolo ricercatore) può far perdere di vista al valutatore la qualità della ricerca. Da questo punto di vista apparirebbe più efficace, come suggerito dal CUN, la diffusione di distribuzioni statistiche, a supporto della valutazione dei candidati e per un attento controllo dell'attività delle commissioni. Detto in modo più esplicito: se fossero certificati pubblicamente la produttività e l'impatto prevalenti in una certa area disciplinare, ed i dati sui candidati, le commissioni difficilmente potrebbero giustificare esiti concorsuali al di sotto di standard minimi. L'applicazione rigida della mediana rischia invece di generare comportamenti opportunistici e favorisce il ristagno della ricerca in settori dove i valori della mediana sono relativamente bassi.

Il terzo pericolo riguarda la tendenza di molte parti della comunità accademica a sottrarsi a criteri di valutazione bibliometrica, sostenendo che criteri così rigidi non sono applicabili. Di fatto sia nei documenti ANVUR, che nella bozza ministeriale, che nei documenti CUN sembra passare il principio che in alcune aree disciplinari, in linea generale le scienze umane, giuridiche e parti delle scienze sociali, la bibliometria non sia applicabile. Sarebbe gravissimo se si ritenesse che alcune aree discipline siano per loro natura sottratte alla logica della valutazione della qualità attraverso la revisione dei pari (come scrive Galasso sul Corriere della Sera). Se, come è pacifico nel panorama internazionale, la revisione dei pari si applica anche ad esse, le misure bibiometriche di produzione di qualità e di impatto possono essere costruite come in ogni altro settore. Il problema vero e ineludibile è che allo stato attuale i database utilizzati per le misure bibliometriche non permettono la costruzione di misure affidabili, come ricordava Graziosi sul Sole24ore di domenica 16 ottobre. La predisposizione di strumenti quantitativi ad hoc, e di pesi basati sulla tipologia di prodotto appaiono soluzioni di breve periodo, forse in grado di aprire una breccia in alcune comunità scientifiche autoreferenziali, sviluppatesi, per così dire, completamente al riparo dalla scienza internazionale. La compilazione di classifiche delle riviste e degli editori da parte della comunità scientifica nazionale per valutare i prodotti è una soluzione che è stata ampiamente adottata a livello internazionale.

L'Australia è stata il pioniere in queste pratiche; dopo averle modificate più volte negli ultimi dieci anni, ha deciso di rinunciarvi nel prossimo esercizio di valutazione. L'adozione di una classificazione delle riviste condivisa a livello settoriale ha infatti spinto i ricercatori a modificare i loro interessi di ricerca e le strategie di pubblicazione, sguarnendo interi settori di ricerca in precedenza considerati di ottimo livello (alcune aree delle scienze forestali). Un'attenta valutazione di quanto avviene a livello internazionale potrebbe risparmiarci di imboccare sentieri già abbandonati da altri. Da questo punto di vista la costruzione di anagrafe delle pubblicazioni dei ricercatori italiani pubblicamente accessibile dovrebbe essere una priorità del sistema della ricerca nazionale, perché consentirebbe l'uso trasparente e controllabile di molti indicatori bibliometrici. Anche nelle scienze umane.

Più in generale la logica che sottende l'uso italiano della bibliometria per la valutazione è quella dell'asticella da superare: inserire nelle norma indicatori tali che le baronie accademiche siano fortemente limitate nella loro libertà di azione. Può darsi che non siamo un paese normale, e che di queste asticelle ci sia bisogno. Il modo di procedere corretto sarebbe un altro. Ecco come lo descrive Nature in un editoriale del 2010. "Le istituzioni devono assicurare ai loro ricercatori informazioni chiare e complete su come le valutazioni sono condotte. La trasparenza è essenziale. Non importa che i valutatori dichiarino calorosamente di stare considerando il lavoro complessivo di un ricercatore. Non essere trasparenti sui criteri spinge il ricercatore a pensare che sia necessario produrre un numero fisso di pubblicazioni, che l'insegnamento non conti molto e che il servizio alla comunità non sia rilevante. Questo non solo rende scontenti i ricercatori, ma ne altera il comportamento. Per promuovere la buona scienza, le porte della valutazione devono essere spalancate". Se lo fossero anche in Italia forse non ci sarebbe bisogno di una valanga di numeri.

Ultimi di sezione

Shopping24

Dai nostri archivi