La Fondazione Nobel ha predisposto e diffuso su twitter un breve video intitolato “The research counts, not the journal” in cui quattro premi Nobel per la medicina prendono una posizione netta contro l’uso degli impact factors per valutare la qualità della ricerca. Una sintesi che in un minuto e mezzo riassume gli interventi di 12 premi Nobel, messi a disposizione su un canale YouTube. In particolare, il video sostiene una posizione netta contro la pratica di valutare singoli articoli utilizzando metriche pensate per le riviste dove essi vengono pubblicati.

L’effetto che si ricava vedendo il video è davvero straniante. Nel nostro Paese, ogni decisione su università e ricerca è ormai basata su indicatori bibliometrici, predisposti dall’agenzia governativa Anvur e fatti propri dal Miur. Che contraddicono, parola per parola, il buon senso dei consigli dei premi Nobel.

I Nobel ricordano che non contano le riviste e il loro impact factor. Che le riviste considerate top come «Science e Nature» pubblicano spesso articoli illeggibili.

«L’impact factor non è davvero così importante. Ciò che è importante è sviluppare un’area di ricerca, fare gradualmente scoperte e guadagnare una reputazione per il solido lavoro svolto».

In Italia la Valutazione della Qualità della Ricerca nei settori cosiddetti «bibliometrici» è basata sull’impact factor (e le citazioni). Nell’area dell’economia e del management la valutazione si basa addirittura su una classificazione delle riviste prodotta in proprio dai valutatori. E a partire da questi dati si distribuisce un bel po’ del Fondo di finanziamento ordinario e si stabiliscono quali sono i dipartimenti di «eccellenza».

I Nobel ricordano che per valutare uno scienziato si deve valutare la qualità della sua ricerca, non sulla base del numero di articoli pubblicati su riviste top tier. I Nobel ricordano che ciò che conta sono la solidità della ricerca e la qualità dei dati. Aver passato un processo di revisione da parte di due o tre referees non basta a fare di una ricerca una buona ricerca.

«Le istituzioni devono giudicare la qualità di una persona sulla base della qualità della ricerca. Non si dovrebbe tale giudizio sulla base della rivista e dei suoi due o tre revisori. Ciò che conta davvero sono i dati. Ogni grande articolo dovrebbe essere individuato e letto. Se tu fai costantemente un lavoro buono e solido, ti sarà riconosciuto».

In Italia, l’abilitazione scientifica nazionale prevede soglie di «qualità» basate sulla quantità di articoli, e per le cosiddette aree non bibliometriche sul numero di articoli pubblicati su riviste «di classe A». In Italia ciò che conta ormai è solo la sede di pubblicazione e il numero di citazioni (e autocitazioni).

I Nobel ricordano che è opportuno scegliere le riviste in relazione al pubblico che si vuole raggiungere. E sottolineano che il processo di revisione può distorcere i risultati:

«Pubblica su riviste di rango elevato solo se questo è funzionale. Non perdere tempo a fare tentativi ripetuti per pubblicare su riviste top. Sempre di più, per gli articoli che escono su “Nature” o “Science”, il processo editoriale può essere così protratto nel tempo e richiedere così tanti requisiti che un articolo finisce per essere completamente illeggibile. Spesso non si ha idea di che parli o che cosa gli autori stanno tentando di dire. I revisori hanno trasformato l’articolo in unporridge. Tu non vuoi pubblicare porridge».

In Italia, i responsabili di Anvur hanno scritto più e più volte che si deve puntare a pubblicare su riviste top perché in quelle riviste si applicano regole di selezione più severe e quindi [sic!] migliore è la qualità della ricerca.

Il Miur e più in generale la politica sono ben contenti di questa deriva. Perché permette di sostituire discrezionalità e scelte politiche in tema di università e ricerca, con la retorica tecnocratica dell’«oggettività dei numeri». Sotto la spinta dell’Anvur, il nostro Paese sta ormai usando impact factors e bibliometria per ogni tipo di decisione: dalla distribuzione del Fondo di finanziamento ordinario, ai ludi dipartimentali, alla mancetta di tremila euro per finanziare la ricerca di associati e ricercatori, per il reclutamento, per stilare liste di riviste per i settori non bibliometrici.

La ricerca italiana è saldamente proiettata in un mondo alla rovescia in cui non contano scoperte, dati, solidità della ricerca. Contano solo sede di pubblicazione e citazioni. Continuando su questa strada, tra qualche anno, l’università italiana sarà stata trasformata in una organizzazione a rigido controllo centralizzato in cui gli addetti alla ricerca sforneranno prodotti della ricerca confezionati per uscire su riviste «prestigiose», incontrando la viva e vibrante soddisfazione dei valutatori di turno all’Anvur, cui quei prodotti verranno sottomessi (per la valutazione).

In Cina, probabilmente l’unico Paese che ha adottato regole simili a quelle italiane, si stanno accorgendo che i meccanismi di valutazione hanno deformato in modo drammatico la ricerca. Ed è iniziata la discussione per limitare i danni.

L’Italia riuscirà a fermarsi prima che il disastro divenga irreversibile?