Norme & Tributi

Il business dei ranking universitari: cosa c’è dietro le…

  • Abbonati
  • Accedi
IL RANKING

Il business dei ranking universitari: cosa c’è dietro le «top 100» mondiali degli atenei

Le università italiane fra le prime 200 al mondo sono solo due. Anzi, quattro. Anzi, nessuna, anche se al tempo stesso la Bocconi è decima al mondo per i suoi master in management e il Politecnico di Milano svetta per i suoi corsi di ingegneria e la capacità di far trovare impiego ai propri laureati. Confusi? Nulla di strano: sono tutte informazioni esatte ma pubblicate su ranking diversi, magari a poche settimane di distanza l’uno dall’altra.

Se si scava nel “business” mondiale delle graduatorie accademiche emergono diverse decine di classifiche e sotto-classifiche, a partire dalle tre con maggiore impatto mediatico: Times Higher Education, Qs e il ranking di Shanghai, come viene chiamato informalmente il report pubblicato dalla ShanghaiRanking Consultancy. Le varie rilevazioni si reggono su una metodologia resa pubblica dai loro stessi curatori. Ma gli indicatori impiegati svelano solo in parte in meccanismi di fondo, a partire dalla domanda più ovvia: chi li produce?

Chi fa i ranking e come funzionano
Le classifiche sono realizzate in genere da società private, dall'editoria alla consulenza. Il Times Higher Education, spesso confuso con il quotidiano Times in blocco, è una rivista. La classifica Qs è realizzata da Quacquarelli Symonds, una società di consulenza. Il ranking di Shanghai è curato dalla ShanghaiRanking Consultancy: una realtà attiva sempre nell'ambito consulenziale, nata per prendere le redini della graduatoria accademica già curata dalla Shanghai Jiao Tong University. Nel complesso si contano un totale di oltre 25 classifiche su scala globale, con l'aggiunta dei vari ranking prodotti su scala nazionale o addirittura regionale. La metodologia adottata varia anche in maniera consistente, ma in genere si basa su un nucleo più o meno vasto di indicatori: quattro nel caso di Shanghai, sei per il Qs e 13 nel caso del Times Higher Education. Il punteggio complessivo, e la posizione che ne consegue, viene poi ponderato a seconda dell'incidenza ricoperta dai fattori nelle singole graduatorie.

Il nodo dei parametri
Il problema è che non esistono parametri universali, né un’armonizzazione tra le categorie considerate dalle classifiche. Nel caso di Qs oltre il 40% delle valutazione dipende dalla academic reputation (reputazione accademica), formulata con un sondaggio che coinvolge 70mila persone; nel ranking Times Higher Education godono di pari considerazione insegnamento, ricerca e citazioni (tutte e tre al 30%); la classifica di Shanghai attribuisce un'incidenza del 20% agli «articoli pubblicati su Nature e Science» e ai «premi Nobel all'interno dello staff accademico». Il risultato è che lo stesso ateneo può salire o colare a picco a seconda della classifica, o anche nella stessa graduatoria, in base ai parametri dello studio o a quelli dei vari “spin off” che si scindono dall’originale: quasi tutte le rilevazioni sono suddivise in sotto-ranking, magari per corso di laurea o tasso di occupazione. Un esempio? Il Politecnico è 170esimo nella classifica generale di Qs, 39esimo quando si parla del sotto-indicatore sulla employability, 24esimo nella classifica riservata a Technology&Engineering, per poi scivolare nella fascia 301-350esimo posto nella classifica Times Higher Education e sotto la 200esima posizione in quello di Shanghai. E l’elenco potrebbe andare avanti (o a ritroso) saltando di classifica in classifica.

...e come guadagnano
«Tutte le classifiche sono soggettive ma offrono un valore apprezzato da molti. I nosti ranking sono gratuiti, e lo saranno sempre » spiega al Sole 24 Ore Nunzio Quacquarelli, fondatore e attuale Ceo di Qs. Le graduatorie, però, hanno ovviamente un costo e sono prodotte con obiettivi economici precisi. Nel caso del Times Higher Education i ranking costituiscono una leva di visibilità importante in chiave di sottoscrizioni e acquisti della rivista che dà il nome alla graduatoria. Qs, di casa a Londra, si qualifica come una società di consulenza, impiega 250 persone in uffici sparsi su scala globale e si dedica anche a organizzazione di eventi, fiere di settore e sistemi cloud. L’esercizio 2016, secondo i dati riportati dalla testata The Assignment Report, si è chiuso con un utile operativo di 1,5 milioni di sterline su un fatturato di 23 milioni di sterline. Fino al 2004 forniva dati alla stessa Times Higher Education, prima che il rapporto si rompesse dando vita a due ranking autonomi. La ShanghaiRanking Consultancy si presenta come «un’organizzazione interamente indipendente» che si dedica a ricerca, intelligence e consulenza.

La critica: nessun fondamento scientifico
L’arbitrarietà dei criteri è uno dei fattori più contestati ai ranking. Secondo Giuseppe De Nicolao, ordinario di ingegneria all'Università di Pavia e fondatore dell'associazione di docenti universitari Roars, si sta parlando di classifiche «senza basi scientifiche alle spalle, per un motivo semplice: non esiste una “scienza” dei ranking». Uno dei primi talloni d'Achille indicato da De Nicolao sta nel fatto che le graduatorie sembrano più che altro «cocktail di indicatori: nessuno è un ranking puro che prende in considerazione una sola misura – dice – E comunque la procedura di “mescolamento” dei vari fattori è realizzata con meccanismi poco rigorosi».

Italia penalizzata dai fondi
Entrando nel dettaglio, alcuni fattori sono destinati a penalizzare gli atenei che godono di minori finanziamenti rispetto allo stradominio dei grandi poli internazionali. E tra i paesi a farne le spese c’è l’Italia, affossata da investimenti sotto la media su istruzione e ricerca: «Non mi risulta che esista un ranking che mette in rapporto risultati della ricerca con i fondi a disposizione – dice De Nicolao – Se così fosse, i nostri atenei viaggerebbero su standard molto elevati: pur essendo delle “utilitarie” per i finanziamenti ricevuti si rivelerebbero molto valide». De Nicolao è perplesso anche sul messaggio che sembra trasparire dalle classifiche in sé: non conta la qualità dell'università, ma il suo posizionamento nell'affollato panorama delle graduatorie. «E questo è diseducativo: si trasmette l’idea che l’importante sia come si è “piazzato” un ateneo nella classifica, senza verificare la sua qualità effettiva».

Resta (Politecnico) e Caselli (Bocconi): indicatori utili, ma sono troppi
Due tra le università che compaiono in alcuni ranking sono il Politecnico di Milano e la Bocconi. I rettori di entrambe conoscono bene i meccanismi, anche se concordano sul fatto che «sono diventate un po’ troppe» rispetto all’offerta più limitata di qualche anno fa. L’atteggiamento è comunque di apertura, pur nei limiti dello strumento: «Gli indicatori di sintesi sono sempre utili. E come tutti gli indicatori, però, presenta delle incertezze» dice Ferruccio Resta, rettore del Politecnico di Milano. «Siamo un'università che ha delle specificità perché abbiamo solo alcune discipline - spiega Resta - Siamo interessati a confrontare i ranking: sono uno strumento di politica interna ed estera, ad esempio per attirare talenti. Anche se poi le grandezze variano parecchio».

Troppi ranking
Stefano Caselli, prorettore della Bocconi, invita a fare un distinguo: «Un conto sono i ranking concentrati sul prodotto, come quelli del Financial Times - dice - Un conto quelli che classificano in blocco le università. Diciamo che i primi possono essere più solidi». Caselli pensa che le classifche, valutate con il giusto peso, possano essere uno «stimolo» per la competitività degli atenei e «fornire informazioni preziose» nel confronto internazionale. Anche se gli aspetti negativi riguardano sia la quantità dei report che l’eccesso di risonanza mediatica innescato in alcuni casi. «Il primo aspetto negativo è il “business dei ranking”: ce ne sono troppi, negli ultimi mesi c'era quasi un ranking al giorno e continueranno ad aumentare - dice Caselli - Capisco chi li produce ma quando sono troppi il pubblico non capisce più nulla quando sono troppe nessuno le osserva più». L’altro handicap, secondo Caselli, è il rischio di sopravvalutazione che si genera quando si conoscono poco i fondamenti (e la diffusione) delle classifiche: «Attenzione ai commenti facili sull’università - spiega Caselli - A volte si sente dire che il nostro sistema va male perché ci sono poche università in testa. Poi scopri che già essere in classifica è un onore, e il risultato cambia».

© Riproduzione riservata