Nie stosować, szkodzi!

Adam Proń

Rankingi uczelni wyższych, bardzo popularne od wielu lat w Stanach Zjednoczonych, pojawiły się u nas niedługo po zmianie ustrojowej w 1989 r. Pierwszy taki ranking, autorstwa redaktora Stanisława Janeckiego, ogłosił w 1993 r. tygodnik „Wprost”. Było to dzieło tak nieudolne i osobliwe, że zdopingowało mnie do napisania pierwszego w moim życiu artykułu publicystycznego, który ochoczo opublikowała „Polityka”. Od tego czasu, z mniejszą lub większą częstotliwością, piszę artykuły do różnych dzienników, tygodników i miesięczników, ale ta działalność spotyka się z jednoznacznym potępieniem moich francuskich współpracowników, nazywających mnie brzydko scribouillard . Redaktor Janecki nie podejmował dalszych prób konstruowania rankingów uczelni, zajął się publicystyką polityczną, z korzyścią dla nauki i szkolnictwa wyższego.

Nie zajmowałbym się więcej rankingami uczelni, gdyby nie zbieg okoliczności. Musiałem się poddać operacji, a podczas kilkudniowej rekonwalescencji w szpitalu lekarz zabronił mi zajmować się sprawami zawodowymi. Czytałem więc internetowe wydania gazet i tam właśnie przypadkowo znalazłem najnowszy ranking uczelni „Rzeczpospolitej” i „Perspektyw”. Ranking ten zdumiał mnie prawie tak mocno, jak dawny ranking „Wprost”, więc na łożu boleści postanowiłem napisać ten krytyczny artykuł.

Ranking uczelni może mieć pewien sens w Stanach Zjednoczonych, bo tam większość najważniejszych uniwersytetów ma taką samą lub bardzo podobną strukturę, dlatego uprawnione jest porównywanie Uniwersytetu Harvarda z Uniwersytetem Pennsylwańskim czy Uniwersytetem Vanderbilta. W Polsce uczelnie są szkołami dużo bardziej specjalistycznymi, dotyczy to nawet klasycznych uniwersytetów. Jaki jest więc sens porównywania Uniwersytetu Papieskiego Jana Pawła II (39 miejsce), Uniwersytetu Rolniczego im. Hugona Kołłątaja (40), Akademii Wychowania Fizycznego im. Józefa Piłsudskiego (64), Akademii Finansów (67) i Politechniki Krakowskiej (36)? Gdyby ktokolwiek ułożył następujący ranking dotyczący muzyki i sztuki: 1. Maria Callas, 2. Henri Matisse, 3. Michaił Barysznikow, 4. Magdalena Abakanowicz, 5. Snoop Dogg, 6. Chór Aleksandrowa, 7. Krzysztof Penderecki, 8. chór zakonników w Tyńcu, 9. Michael Jackson, 10. Gustave Rodin etc. – nikt by go poważnie nie potraktował, w najlepszym wypadku byłby uważany za ekscentryka. Tymczasem ranking „Rzeczpospolitej” i „Perspektyw” poważnie traktują zarówno rektorzy uczelni, jak i decydenci. Ci pierwsi wygłaszają entuzjastyczne o nim opinie, jeśli ich szkoły w tej klasyfikacji znajdują się na dobrych miejscach.

Oczywisty absurd

Przyjrzyjmy się dokładniej rankingowi. Jego autorzy zastosowali 32 kryteria, z których największą wagę (11 proc.) mają preferencje pracodawców. Wyniki w tej „konkurencji” są zdumiewające. Okazuje się, że pracodawcy najchętniej zatrudnialiby inżynierów po politechnice, a nikt (lub prawie nikt) nie jest zainteresowany lekarzami. Z przedstawionych danych wynika, że 50 razy więcej pracodawców jest zainteresowanych absolwentami Politechniki Warszawskiej niż Warszawskiego Uniwersytetu Medycznego. Nawet humaniści mają lepiej niż lekarze – aż 130 razy więcej pracodawców jest zainteresowanych absolwentami Akademii Humanistycznej w Pułtusku niż absolwentami Pomorskiego Uniwersytetu Medycznego. Absolwentów Uniwersytetu Medycznego w Lublinie nie chce zatrudnić nikt! Jest to oczywisty absurd. Lekarze należą do grupy zawodowej, w której bardzo łatwo znaleźć lub zmienić pracę, chociaż pod tym względem biją ich na głowę absolwenci seminariów duchownych, mający nieograniczony rynek pracy praktycznie w całej Europie. Ewidentnie, grupa ankietowanych pracodawców była niereprezentatywna, co de facto dyskwalifikuje ranking, gdyż wielokrotnie zaniżone są w nim wskaźniki dla uczelni medycznych.

Drugim ważnym kryterium jest ocena uczelni przez kadrę akademicką i również w tym przypadku wybór ankietowanych jest co najmniej kontrowersyjny – ankietowano bowiem profesorów belwederskich mianowanych w trzech ostatnich latach oraz doktorów habilitowanych, którzy uzyskali habilitację w trzech ostatnich latach. Dlaczego ich właśnie? Nie wiadomo. Czynnik reputacji jest ważny, ale w rozsądny sposób określić go można jedynie w obrębie danego kierunku, a dla całej uczelni jest to trudne, z wyjątkiem bardzo specjalistycznych uczelni, takich jak np. uniwersytety (akademie) medyczne. W takim przypadku ankietować należy nie nowo mianowanych profesorów i świeżych doktorów habilitowanych, a raczej dziekanów wydziałów, członków Centralnej Komisji ds. Stopni i Tytułów czy członków gremiów rozdzielających fundusze na granty badawcze, bo oni właśnie najlepiej znają środowisko naukowe.

Innym kryterium (waga 2 proc.) jest wybór uczelni przez laureatów olimpiad przedmiotowych. Jest to dobre kryterium, niestety w tabeli rankingowej nie znormalizowano wskaźników (do wartości 100 dla najlepszej uczelni), tak jak to zrobiono w przypadku innych kryteriów. Najwyższy wskaźnik (27,19) otrzymał Uniwersytet Warszawski. Brak normalizacji wprowadza dodatkowy błąd w rankingu i świadczy o braku dostatecznej skrupulatności u jego twórców.

Inne kryteria obejmują liczbę patentów, sprzedanych licencji oraz wartość grantów badawczych uzyskanych od Unii Europejskiej, grantów krajowych i innych pozauczelnianych źródeł finansowania. Te kryteria faworyzują uczelnie, w których przeważają nauki techniczne, biomedyczne i niektóre kierunki nauk ścisłych. Dotacje badawcze na opracowanie nowych technologii przemysłowych są co najmniej kilkadziesiąt razy wyższe niż granty dotyczące np. badań mediewistycznych. Stawia to na pozycji straconej uczelnie, w których dominują nauki humanistyczne.

Przepis na zwycięstwo

Omówię szczegółowo jeszcze trzy kryteria, które mają kluczowe znaczenie dla tzw. rankingu kierunków, przedstawionego jako dodatek do rankingu całościowego. Pierwszym z nich jest kryterium publikacji, mierzone liczbą artykułów naukowych z lat 2006–2010, rejestrowanych w bazie SCOPUS, normalizowaną na jednego nauczyciela akademickiego. W konkurencji tej wygrywa Akademia Medyczna we Wrocławiu, która ma rzeczywiście wysoki wskaźnik publikacji, chociaż nie jestem pewien, czy twórcy rankingu prawidłowo pobrali dane ze SCOPUS-a, bo ja otrzymałem nieco wyższy wskaźnik dla Politechniki Warszawskiej. Ich brak skrupulatności wyraźnie widoczny jest przy porównaniu głównej tabeli rankingu i tabeli dotyczącej kierunków medycznych. Skoro w tabeli głównej najwyższy wskaźnik (100) ma Akademia Medyczna we Wrocławiu, to dane dotyczące liczby publikacji w tabeli kierunków medycznych powinny być dla dziewięciu uczelni medycznych identyczne, bo są tak samo normalizowane. Tymczasem w tej drugiej tabeli znajdujemy dane całkowicie niespójne z danymi tabeli głównej – AM we Wrocławiu jest tu na dalekim miejscu. Ten błąd całkowicie dyskwalifikuje ranking, przynajmniej w jego części dotyczącej uczelni medycznych.

Następnym kryterium jest liczba cytowań prac naukowych. Należy sobie jednak uświadomić fakt, że cytowania artykułów z dziedziny nauk przyrodniczych są kilkadziesiąt (a nawet kilkaset) razy częstsze niż prac z dziedziny nauk humanistycznych. Podam tutaj pouczający przykład, porównując laureatów najbardziej prestiżowej nagrody naukowej w Polsce, czyli Nagrody FNP. Czterech laureatów w dziedzinie nauk humanistycznych (Strelau, Sztompka, Staniszkis i Strzelczyk) uzyskało sumarycznie 14 cytowań publikacji z lat 2006–2010, czyli z okresu ocenianego przez twórców rankingu. Czterech laureatów tej nagrody z dziedziny nauk technicznych, ścisłych i biomedycznych (Matyjaszewski, Ratajczak, Udalski i Dietl) miało aż 12 131 cytowań prac z tego samego okresu, czyli prawie 900 razy więcej. Ocena osiągnięć badawczych poprzez zliczanie cytowań przy zastosowaniu baz SCOPUS czy ISI jest w przypadku humanistów kryterium nietrafnym. Ma rację Tadeusz Gadacz twierdząc, że przyjęte obecnie kryteria aprecjacji działalności naukowej świadczą o dominacji nauk przyrodniczych i technicznych.

Wróćmy jednak do bardziej szczegółowego omówienia tego kryterium. Liczbę cytowań można normalizować albo na publikację, albo na nauczyciela akademickiego. Autorzy rankingu fatalnie wybrali ten pierwszy wariant, przez co otrzymali dziwaczne wyniki. Okazało się bowiem, że w tej klasyfikacji najlepszy jest Uniwersytet Pedagogiczny w Krakowie. Rzeczywiście średnia cytowań na artykuł jest wysoka dla tej uczelni, ale znowu nie wiem, czy autorzy rankingu prawidłowo pobrali dane ze SCOPUS-a, bo mnie wyższa średnia wyszła dla Gdańskiego Uniwersytetu Medycznego. To osiągniecie Uniwersytetu Pedagogicznego jest wynikiem działalności jednego naukowca, dr. Krzesińskiego, bowiem cytowania jego prac z lat 2006–2010 stanowią ponad 56 proc. wszystkich cytowań z tego okresu, przypisanych Uniwersytetowi Pedagogicznemu.

Podaję wiec przepis na zwycięstwo w tej konkurencji: Weź jednego zdolnego naukowca, najlepiej astronoma z rozwiniętą międzynarodową współpracą naukową, a pozostałych nauczycieli akademickich zniechęcaj do jakiejkolwiek działalności publikacyjnej. Normalizacja na artykuł spowoduje wtedy, że uczelnia twoja znajdzie się na czele listy rankingowej. To właśnie jest przypadek Uniwersytetu Pedagogicznego. Jest to stosunkowo mała uczelnia, mało publikująca (0,54 art. na nauczyciela akademickiego w latach 2006–2010) i dlatego 13 artykułów Krzesińskiego w popularnych czasopismach astronomicznych spowodowało podniesienie średniej cytowalności prac z Akademii Pedagogicznej z 3,16 do 6,98 cytowań na artykuł. Gdyby normalizowano cytowania na nauczyciela akademickiego, to nie uzyskano by tak dziwacznego wyniku, a uczelnia ta znalazłaby się dosyć daleko w rankingu.

Pułapki bibliometrii

Jeszcze bardziej dziwaczny wynik uzyskano w przypadku rankingu kierunków technicznych i informatycznych. Tam liderem cytowań jest Uniwersytet Humanistyczno-Przyrodniczy w Kielcach. Usiłowałem znaleźć w SCOPUS-ie artykuły z tej uczelni, dotyczące techniki i informatyki, z nadzwyczaj miernym skutkiem. Uczelnia ta ma bardzo prężny i dużo publikujący Instytut Fizyki, nie są to jednak prace dotyczące nauk technicznych czy informatycznych. To jeszcze jedno z wielu przekłamań rankingu.

Trzecim wskaźnikiem, używanym przez autorów rankingu jest tzw. indeks Hirscha h. Jest to znowu źle dobrany wskaźnik z dwóch, co najmniej, powodów. Po pierwsze, w jakiejś części powiela on wskaźnik liczby cytowań. Po drugie, jego wielkość zależy silnie od wielkości uczelni, więc dużym uczelniom o mniejszej efektywności naukowej łatwiej uzyskać duży współczynnik h niż małym uczelniom pracującym efektywnie. Z tego powodu Gdański Uniwersytet Medyczny – uczelnia o najlepszych wskaźnikach bibliometrycznych w Polsce – ma znacznie niższy indeks h niż trzy i pół razy większy UJ czy trzy razy większy UW.

Przy omawianiu indeksu h należy również zauważyć brak spójności między tabelą rankingu głównego, a tabelą rankingu kierunków medycznych. W tej pierwszej wśród uczelni medycznych najwyższą wartość h ma Warszawski Uniwersytet Medyczny, w tym drugim – Śląski Uniwersytet Medyczny.

Gdańskiemu Uniwersytetowi Medycznemu chciałbym poświęcić kilka zdań. Uniwersytet ten ma niezasłużenie niską pozycję zarówno w rankingu ogólnym, jak i w rankingu kierunków medycznych. Prawidłowo wybrane wskaźniki bibliometryczne jednoznacznie wskazują, że jest on w ostatnich latach najefektywniej pracującą uczelnią w Polsce, o największym oddźwięku prac. Zawdzięcza to wybitnym lekarzom, np. profesorom Jassemowi czy Narkiewiczowi i wielu innym. Ta stosunkowo mała uczelnia ma już dwóch laureatów Nagrody FNP – profesorów Kaliszana i Limona. Ten ostatni jest prawdopodobnie najsympatyczniejszym człowiekiem w Gdańsku, a może nawet i w całej Polsce.

Inną uczelnią medyczną zbyt nisko ocenioną w rankingu jest Śląski Uniwersytet Medyczny. Z danych ze SCOPUS-a otrzymałem dla tej uczelni znacznie lepsze wskaźniki niż podane przez twórców rankingu. Wydaje się, że „zgubili” oni część publikacji tej uczelni, prawdopodobnie dlatego, że jest ona rozrzucona pomiędzy Katowice, Zabrze i Sosnowiec, a podanie samej afiliacji bez adresu nie daje pełnego zbioru jej publikacji.

W moim przekonaniu tworzenie rankingów uczelni polskich nie ma sensu. Jeśli jednak tak być musi, to przy ich opracowaniu koniecznie trzeba zadbać, aby ankietowane grupy oceniające uczelnie były reprezentatywne. Trzeba również bardziej umiejętnie posługiwać się danymi bibliometrycznymi i prawidłowo je pobierać, a także nie wprowadzać błędnych danych. O pułapkach bibliometrii wielokrotnie i bardzo dydaktycznie pisał profesor Andrzej K. Wróblewski i wielu innych. Należy również tak zmienić kryteria rankingu, aby nie faworyzowały one uczelni największych.

Prof. dr hab. Adam Proń, chemik, jest dyrektorem naukowym (directeur de recherches ) w Komisariacie ds. Energii Atomowej w Grenoble i profesorem Politechniki Warszawskiej.