Jak nie używać indeksu Hirscha?

Marek Kosmulski

„Forum Akademickie” w numerze 5/2013 przedstawiło nowy ranking polskich uczelni, z którego wynika, że mój osobisty dorobek naukowy (h = 27) jest równy dorobkowi Uniwersytetu Przyrodniczego w Lublinie (h = 27) i większy niż dorobek naukowy KUL (h = 21). Jeśli zaś weźmiemy pod uwagę zmodyfikowany współczynnik Hirscha (wynalazek jednego z autorów), to z wynikiem 3,57 biję na głowę nie tylko wszystkie lubelskie uczelnie, ale też większość krajowych potentatów.

Taka ocena bardzo mi pochlebia, ale wyjaśniam, że jest ona całkowicie chybiona. Twórcy rankingu twierdzą, że ich analiza jest prosta i nie wymaga długiego czasu. Są to prawdopodobnie jej jedyne zalety. Współczynnik Hirscha służy do oceny dorobku naukowego poszczególnych osób. Formalnie można obliczyć taki współczynnik także dla uczelni, jednak, jak wykażę poniżej na przykładach zaczerpniętych z FA, użyteczność opublikowanego tam uczelnianego współczynnika h jest niewielka.

Rzetelna analiza bibliometryczna wymaga weryfikacji informacji zaczerpniętych z bazy danych WoS lub Scopus. W tych bazach danych jest wiele błędów, zwłaszcza dotyczących afiliacji. Na przykład mechanicznie wyliczony indeks h Politechniki Lubelskiej wynosi 36 (WoS), co daje jej znakomite 38.-39. miejsce w kraju. Przyjrzałem się 36 najczęściej cytowanym pracom przypisywanym tej uczelni. Wśród nich jest 14 prac w dziedziny nauk biomedycznych. Żaden autor tych prac nie jest i nie nigdy był pracownikiem PL. Pracownicy Politechniki napisali więc tylko 22 prace cytowane 36 lub więcej razy, zaś przytoczony wyżej pozorny współczynnik h nie jest adekwatny jako miernik cytowalności ich prac.

Warszawski Uniwersytet Medyczny zajmuje w tabeli 5. miejsce z h = 95. Wśród najczęściej cytowanych prac formalnie przypisanych WUM przeważają takie, w których pracownicy tej uczelni należeli do wielkich międzynarodowych zespołów badawczych i odegrali raczej podrzędną rolę. We wszystkich 13 najczęściej cytowanych (270 do 1513 cytowań) pracach z afiliacjami MEDICAL UNIVERSITY WARSAW oraz MED ACAD WARSAW polscy autorzy stanowią niewielki ułamek wszystkich autorów, a wspomniana uczelnia jest jedną z wielu (do 65) afiliacji. Podobne tendencje występują na większości uczelni medycznych. Wyjaśnia to ich wysokie miejsca w rankingu, niekoniecznie adekwatne do ich rzeczywistej siły naukowej.

Autorzy artykułu w FA opacznie interpretują impact factor, na którym opiera się ministerialna punktacja czasopism naukowych. Utrzymują, że czasopisma o wysokim IF publikują dobre (często cytowane prace), co nie jest prawdą. Wiele czasopism o wysokim IF zawdzięcza swój dobry wynik jednej lub paru pracom o zawrotnej cytowalności, natomiast pozostałe prace są przeciętne. Na przykład aż 36% prac z 2011 roku opublikowanych w „Cancer J. Clin”. (IF > 100) nie ma ani jednego cytowania. W skromnym „J.Colloid Interf.Sci”. (IF = 3) ułamek niecytowanych prac z 2011 roku jest poniżej 10%.

Autorzy rankingu FA uważają, że autocytowania są równie wartościowe, jak cytowania niezależne i poświęcili cały akapit obronie tej tezy. Jest to wyłącznie ich osobista opinia. Na przykład Adam Proń i Halina Szatyłowicz uważają liczbę autocytowań za miernik próżności naukowców. Autocytowania są też jednym z najczęstszych sposobów manipulowania współczynnikami bibliometrycznymi i pisano o tym wielokrotnie, także w FA. Wyodrębnienie autocytowań musi być istotne, skoro baza danych Scopus udostępnia taką opcję w głównym menu. Znam przykład polskiego profesora, który osiągnął współczynnik h około 30 prawie wyłącznie dzięki autocytowaniom, zaś bez autocytowań jego współczynnik h jest jednocyfrowy. W dodatku wcale nie jestem pewien, czy jest on rekordzistą. 