Storia dell'articolo

Chiudi

Questo articolo è stato pubblicato il 05 dicembre 2011 alle ore 17:11.

My24

L'introduzione di parametri quantitativi per "misurare" la qualità della ricerca e dei ricercatori è molto spesso visto come lo strumento per eliminare l'arbitrarietà nelle scelte dei candidati di un concorso, dei finanziamenti di progetti di ricerca, ecc., e dunque per far risalire alla ricerca e all'università italiana la china di una decadenza annunciata. L'idea alla base è che grazie all'analisi d'alcuni parametri bibliometrici (numero d'articoli, numero di citazioni, H-index, Impact factor, ecc.) sarà possibile scegliere e premiare le persone ed i progetti migliori.

E' proprio così oppure l'introduzione dei parametri bibliometrici rappresenta solo l'ennesimo schermo introdotto per nascondere scelte arbitrarie che hanno però ottenuto un superficiale "bollino di qualità"? Non sarà che l'effetto reale sia non solo la deresponsabilizzare delle scelte, ma anche di immettere nel normale corso della ricerca scientifica (la ricerca curiosity driven) dei meccanismi esterni che ne possono influenzare negativamente il suo naturale svolgimento?

I temi legati a questa discussione sono dunque tanti e molto profondi e vanno dall'analisi dello sviluppo stesso della ricerca scientifica, alla differenza della bibliometria nelle diverse discipline, a problemi più tecnici che riguardano il significato d'alcuni indicatori bibliometrici (come l'impact factor), alla completezza delle banche dati usate come riferimento, senza dimenticare, come ricorda Alberto Baccini il tema centrale della trasparenza nei criteri di valutazione. Dunque per capire come impostare la valutazione affinché sia efficace, non costringa i ricercatori a lavorare sugli stessi temi, o a produrre gran quantità d'articoli di bassa qualità, o a disincentivare le ricerche più originali, o a generare dinamiche opportunistiche, è necessario considerare, come ci ricorda Giuseppe De Nicolao, gli insegnamenti che provengono da quei paesi in cui meccanismi di valutazione sono stati già introdotti da tempo nonché le acclarate distorsioni (se non proprio truffe) perpetrate in nome dell'aumento dei parametri bibliometrici. Inoltre, facendo riferimento alla realtà italiana, è necessario avere ben presente gli obiettivi del processo di valutazione e le relative risorse da distribuire in termini di reclutamento, carriera e finanziamenti.

Il filosofo della scienza Donald Gillies osserva, esaminando il ruolo dell'agenzia di valutazione inglese (RAE) negli ulti venti anni, che il problema fondamentale d'ogni tentativo sistematico di valutazione si può identificare studiando la storia della storia delle scienze naturali che ha mostrato che raramente il valore d'alcuni scienziati e delle loro scoperte è riconosciuto dai proprio contemporanei. Al contrario, il riconoscimento ritardato nel tempo è un fenomeno molto comune nella storia della scienza e riguarda in genere scoperte e scienziati epocali nella storia della scienza. Questo è un problema sicuramente reale di cui bisogna tenere presente: bisogna però ricordarsi che i ricercatori che possono essere soggetti a questo tipo di problema sono una piccola frazione e il ricercatore, o la ricerca, tipico da valutare non rientra nel caso di ricercatori eccezionali che fanno scoperte epocali.

Più preoccupante è forse, come nota l'astrofisico Abraham Loeb, facendo riferimento al sistema americano ma che in realtà riguarda il sistema della ricerca mondiale, la pratica comune tra i giovani ricercatori d'investire il proprio tempo nella ricerca "mainstream", idee che sono state già ampiamente esplorate in letteratura. Questa tendenza è guidata dalla pressione di una revisione da parte di pari ("peer review") fatta superficialmente e su scala "industriale" e, dunque, dalle prospettive del mercato del lavoro. Loeb suggerisce dunque che il sistema di valutazione (e dunque di carriera e finanziamento) dovrebbe essere costruito, non solo per premiare i "migliori" in base ai numeri bibliometrici, ma soprattutto per incentivare i giovani ricercatori a destinare una parte del loro "portafoglio accademico" a progetti innovativi con rendimenti rischiosi ma potenzialmente altamente redditizi. Il motivo è semplice: la valutazione diventa dannosa quando forza in maniera artificiale un giovane ricercatore ad impostare la propria attività di ricerca con l'obiettivo di massimizzare i propri parametri biblilometrici; al contrario bisogna evitare che vi sia un'attenzione ossessiva a questi parametri, come una valutazione malfatta può spingere a fare.

L'Accademia delle Scienze Francese ha recentemente redatto un documento dal titolo "Sull'uso corretto dei parametri bibliometrici per la valutazione dei singoli ricercatori". In questo documento si mette in evidenza che nel caso di singole discipline il ricorso alla bibliometria non è necessario se non per una rapida panoramica ed in questo contesto, i valori degli indici non devono essere considerati un elemento decisivo nelle scelte. Può essere dunque utile affidarsi a bibliometria per accelerare il processo quando si effettua una prima selezione tra i candidati, a condizione che i membri della commissione tengano presente le notevoli differenze che esistono tra le diverse discipline e sotto-discipline. Per fare un esempio concreto, gli indici bibliometrici di un fisico delle particelle sperimentale, che firma articoli anche con centinaia di coautori, dovranno essere necessariamente diversi da quelli di un fisico teorico che lavora con pochi coautori. Inoltre anche la loro continuità temporale dovrà essere necessariamente differente: intermittente per il primo, a causa ad esempio del tempo necessario alla costruzione di grandi apparati sperimentali, mentre più regolare per il secondo. Per questi motivi ha poco senso fare riferimento ai parametri medi di una comunità relativamente eterogenea anche se ben definita come quella dei fisici.

Commenta la notizia

Ultimi di sezione

Shopping24

Dai nostri archivi