Pozoranctwo naukowe kwitnie
Podobnie jak w innych dziedzinach, również w nauce Polska jest zacofana. Ilustruje to bardzo niska pozycja naszego kraju w międzynarodowym zestawieniu najczęściej cytowanych uczonych (http://hcr3.isiknowledge.com). W latach 2005 i 2006 w tym doborowym towarzystwie ok. 6300 naukowców znalazło się tylko dwóch z Polski (prof. Ryszard Gryglewski – farmakologia i prof. Grzegorz Grynkiewicz – biochemia). Dla porównania, w grudniu 2006 Dania miała ich 29 (28), Izrael – 47 (44), Włochy – 71 (61), Holandia – 91 (79), Niemcy – 236 (215), Anglia – 355 (346) i USA – 3779 (3492). Liczby w nawiasach ilustrują stan z 2005 roku.
Zbyt mało jest w Polsce liczących się na świecie osiągnięć naukowych. Jest to skutkiem nie tylko ubogiego finansowania, ale również słabego poziomu naukowego wielu polskich pracowników naukowych oraz kierowników jednostek i zespołów badawczych. Obserwuje się nieefektywne planowanie i wykorzystanie środków finansowych oraz deformację procesów awansowych. Najlepsi polscy naukowcy często emigrują do innych krajów. Doskonałą diagnozę tej sytuacji przedstawił M. Narkiewicz („FA” 10/2006). Obok licznej grupy rzetelnych naukowców istnieje duża grupa osób, których dorobek naukowy jest tworzony sztucznie. M. Żylicz trafnie zauważa („FA” 6/2006): (…) odziedziczona struktura nauki polskiej, z czasów „tak zwanych minionych”, pełna jest nadal pseudonaukowców, którzy jak ognia boją się jakichkolwiek konkursów, rankingów oraz porównań, które obnażyłyby ich słabość. Można sformułować wniosek, że najcięższą chorobą polskiej nauki jest nagminnie spotykane pozoranctwo naukowe.
Nierzadko stosuje się sztuczne rozdymanie dorobku publikacyjnego, zwłaszcza występujące przed wszelkiego rodzaju awansami naukowymi. Płytkości dorobku publikacyjnego usiłuje się nadawać etykietę doniosłości. Ustawowe wymagania „znaczącego dorobku” okazują się w praktyce niezwykle rozciągliwe.
Opisane zjawiska negatywne są wynikiem braku dostępu do narzędzi informatycznych, umożliwiających uzyskanie jawności i obiektywnych miar dorobku naukowego. Nie ma również ogólnie przyjętych zasad postępowania, które implikują stosowanie takich miar do ewaluacji dorobku naukowego polskich naukowców i jednostek naukowych.
System oceny jednostek
Obecnie ocena jednostki naukowej jest dokonywana w MNiSW raz na cztery lata w postaci karty oceny, na podstawie corocznie składanych ankiet. Trzy ministerialne zespoły robocze wpisują odpowiednie punkty w trzech kategoriach karty, czego wynikiem jest zaliczenie jednostki do odpowiedniej kategorii rankingowej i w rezultacie – wysokość finansowania. Działalność naukowa jest oceniana punktowo na podstawie publikacji.
W p. 5a karty wymienia się publikacje w czasopismach z tzw. listy filadelfijskiej, czyli „Master Journal List” (MJL), ujętych w bazie ISI (Thomson Scientific). Jest to najprostszy, lecz mało miarodajny wskaźnik działalności naukowej. Ponadto wykaz czasopism naukowych i punktacji przypisanych do publikacji w nich budzi wątpliwości.
Punktacja w części A (czasopisma z MJL) została przygotowana na podstawie „Journal Citation Reports”, odpowiednio do wartości miary impact factor (IF) z 2004 roku i operuje arbitralnie przyjętymi czterema liczbami: 10, 15, 20 i 24 pkt. Zarówno wybór tych liczb, jak i oparcie punktacji czasopism łącznie ze wszystkich dziedzin na tych samych miarach IF, budzi zastrzeżenia. Np. pewne czasopisma, które w wykazie IF za 2004 rok mają wartość 0 (zero), w części A otrzymały 10 pkt. Natomiast czasopisma o najwyższych wartościach IF (nawet powyżej 50), w części A mają 24 pkt. Oznacza to, że w części A dokonano bardzo silnego spłaszczenia punktacji, co prowadzi do zniekształcenia wyników. Ponadto nie uwzględniono liczby cytowań, stanowiącej istotną miarę wartości naukowej publikacji.
Punktacja w części B (obejmująca inne czasopisma) jest wyraźnie zawyżona, deprecjonując wartość publikacji z części A. W rezultacie publikowanie w czasopismach B materiałów z wszelkiego typu konferencji krajowych – co przynosi pożądane punkty – stało się już powszechnie stosowaną praktyką. Jeśli za trudną do uzyskania publikację w A otrzymuje się 10−24 pkt., a za łatwą „konferencyjną” publikację w części B 4−6 pkt., to trudno się dziwić. Są to jednak pozoranckie naukowo manipulacje punktami, a nie rzeczywiste osiągnięcia naukowe. Mimo to nacisk na zwiększanie części B jest znaczny (ministerstwo stale przyjmuje propozycje) i należy się spodziewać, że po pewnym czasie może ona skutecznie zniwelować wpływ części A. Aby uzdrowić tę sytuację, wystarczyłoby ustalić punktację części B w zakresie 0,05−0,1 pkt. lub po prostu z niej zrezygnować.
W p. 6 wymienia się monografie naukowe i podręczniki akademickie. Punktacja takich dzieł może być uzasadniona, lecz ustalanie jej wymiaru jest niejasne. Za monografię w języku polskim przysługuje bowiem 6−20 pkt. Na jakiej podstawie ministerialny zespół roboczy przyznaje punktację, znając tylko nazwisko autora, nazwę wydawcy, tytuł i liczbę stron? Za monografię w języku angielskim można przyznać maksimum 24 pkt., co odpowiada najwyższej punktacji jednej publikacji z MJL. To jest wadliwe. Punktację należałoby zwiększyć i wprowadzić zasadę nieuznaniową – np. 10 pkt. za każde 100 stron i to wyłącznie dla książek publikowanych przez znane wydawnictwa krajowe lub zagraniczne, a nie uczelniane czy instytutowe.
Brak jasnej definicji monografii do celów oceny punktowej jest przyczyną nadużyć. Czasem jako naciągana „monografia” wpisywany jest w wykazie publikacji rozdział z wydawnictwa zwartego, stanowiący np. treść referatu z mało znaczącej konferencji, choćby nawet anglojęzycznej. Chodzi oczywiście o manipulację punktami.
Zamiast kontrowersyjnych polskich punktacji opisanych powyżej, lepiej oprzeć się na miarach już uznanych międzynarodowo. Do tego celu potrzebne są odpowiednie narzędzia informatyczne.
WoK i ESI
Najlepszym narzędziem, szeroko stosowanym na świecie, jest komputerowa platforma badawcza Web of Knowledge (WoK) firmy Thomson Scientific. Wykorzystuje ona znaną bazę cytowań Web of Science (WoS) i zapewnia łatwy dostęp do wyczerpujących informacji naukowych z całego świata, oddzielnie dla nauk społecznych i humanistycznych. W połączeniu z bazą analityczną Essential Science Indicators (ESI) stanowi niezastąpioną pomoc przy planowaniu, realizacji i ocenie badań naukowych w ujęciu światowym i krajowym, także w odniesieniu do indywidualnych naukowców i poszczególnych jednostek naukowych. Rząd Hiszpanii zakupił centralnie licencję na WoK dla wszystkich uczelni publicznych. W Polsce ograniczone licencje na dostęp do WoS wykupiły tylko niektóre uczelnie i PAN, co jest dalece niewystarczające. Dostępu do WoK i ESI nie ma nawet biblioteka MNiSW.
Baza ESI jest elitarna. Przy tworzeniu rankingów personalnych, spośród ok. 3 mln nazwisk zawartych w WoS, baza ESI wybiera tylko ok. 50 tys. osób, opierając się na ok. 10 mln artykułów (w 22 dziedzinach naukowych) i ok. 53 mln cytowań. Elitarny zbiór Highly Cited Papers zawiera ok. 76 tys. artykułów. Dane w ESI są zbierane w obrębie 10−letniego przedziału czasowego i są modyfikowane co dwa miesiące.
Ogólnie dostępna baza Highly Cited Researchers zawiera nazwiska i szczegóły personalne ok. 6300 osób o największych liczbach cytowań w 21 dziedzinach (po ok. 300 osób w każdej). Baza ta jest oparta na danych z 20 lat i modyfikowana corocznie. Jak podałem wyżej, obecnie w tej bazie jest zaledwie 2 Polaków.
Bez szerszego dostępu do tych narzędzi informatycznych planowanie i realizacja badań w Polsce kuleje, ubogie finansowanie jest rozproszone, a wobec braku obiektywnych ocen kwitnie demoralizujące pozoranctwo naukowe.
Miary oceny publikacji
Dane uzyskane z WoK mogą być efektywnie wykorzystane do wykrywania wartościowych publikacji naukowych i tworzenia obiektywnych ocen tego dorobku naukowego w postaci liczb. Miary te nie są doskonałe, ale są obiektywne. Przy zachowaniu należytej ostrożności porównywanie dorobku naukowców na podstawie takich miar ma sens wyłącznie w obrębie każdej dziedziny naukowej z osobna. Liczby publikacji i ich cytowań są bowiem zależne od dziedziny nauki i liczby pracujących w niej naukowców. Większe liczby są uzyskiwane w naukach podstawowych, a mniejsze w stosowanych.
Liczba publikacji. Najprostszą miarą wielkości dorobku naukowego jest liczba A artykułów opublikowanych w określonym przedziale czasowym w czasopismach wymienionych na liście MJL. Liczba A nie zawiera jednak informacji o użyteczności oraz jakości naukowej zliczonych publikacji i dlatego jest mało reprezentatywna. Podejmowane są próby wzmocnienia tej miary przez wprowadzenie uzależnienia od wartości IF każdego czasopisma. Tak zrobiono przy tworzeniu części A ministerialnej listy czasopism punktowanych do oceny parametrycznej polskich jednostek naukowych.
Liczba cytowań. Określona do zadanego przedziału czasowego liczba C cytowań publikacji jest również łatwo uzyskiwana z WoK i stanowi dobry wskaźnik użyteczności i popularności, a pośrednio również jakości publikacji. Interpretacja tej liczby może być dyskusyjna, gdy autor wprowadza wysoko cenionych współautorów („napędzających” cytowania) lub gdy ma w swym dorobku tylko kilka publikacji o wysokiej liczbie cytowań. To ostatnie u wybitnych naukowców się obecnie niemal nie zdarza, ale np. Einstein nie miał dużej liczby A, natomiast liczbę C miał olbrzymią. Liczba C rośnie również znacznie w przypadku publikacji przeglądowych, które nie zawierają nowych wyników badań autora, lecz głównie streszczenie poprzednich prac własnych i innych autorów oraz bardzo dużą liczbę cytowań. Pewną wadą cytowań jest to, że między datą publikacji a datą cytowania może wystąpić duże opóźnienie, wynikające z cyklu publikacyjnego.
Iloczyn liczby publikacji i liczby cytowań. Można też stosować iloczyn liczb A i C (P = AC). Jest on skutecznie wykorzystywany do selekcji naukowców ujętych w elitarnej bazie ESI.
Indeks H. Dobrą miarą dorobku naukowego jest wskaźnik H, zaproponowany przez J.E. Hirscha (Index aims for fair ranking of scientists, „Nature”, 2005, Aug 18) i określany także jako liczba Hirscha. Jest to największa liczba A publikacji, których liczba cytowań C jest nie mniejsza od A (H = max A (C większe lub równe A). Indeks H został szerzej opisany przez P. Misiaka („FA” 9/2005) i A. Pilca („FA” 12/2005). Dla publikacji z MJL indeks H każdego naukowca można łatwo uzyskać przy użyciu WoK. Dla początkującego naukowca już H = 1 (jedna publikacja w czasopiśmie z MJL, raz cytowana) stanowi dobry punkt startowy.
Impact factor. Ta miara „czynnika wpływu” jest stosowana do oceny jakości czasopism naukowych, ujętych na liście MJL przez Thomson Scientific. Listy wartości IF na każdy rok są publikowane w „Journal Citation Reports” (dostępnych w WoK), a ponadto można je znaleźć w Internecie. Stosowanie IF i jego interpretacja budzą zastrzeżenia (J. Sobielga, „FA” 7−8/2006). W szczególności podkreśla się możliwość wadliwego użycia, manipulacji i zniekształcenia IF.
Ocena działalności naukowej osób
Wprowadzenie w Polsce na szeroką skalę platformy WoK i bazy ESI sprawi, że wartościowy dorobek polskich naukowców stanie się jawny i oddzielony od plew. Trzeba odkryć prawdę.
Wykorzystując indeks H oraz liczby A, C i P będzie można tworzyć również porównawcze oceny dorobku polskich naukowców, wykonywane oddzielnie w każdej dziedzinie lub dyscyplinie naukowej. Jak wspomniano wcześniej, niektóre dziedziny naukowe są bowiem uprzywilejowane, jeśli chodzi o liczbę publikacji i cytowań. Sprawiedliwość w globalnej ocenie osiągnięć naukowych (łącznie we wszystkich dziedzinach nauki) jest w praktyce nieosiągalna.
Stosowanie wymienionych miar liczbowych nie oznacza ustalania barier ustawowych, np. w awansach, typu: „aby uzyskać stanowisko X w dyscyplinie Y, kandydat powinien mieć H > 4”, choć pewne zalecenia mogą powstać. Celowe jest porównywanie tych miar dla konkretnych kandydatów rozpatrywanych w konkursach. Uczelnie powinny również uwzględniać te miary przy formułowaniu warunków awansowych w swych statutach, co może być oceniane podczas akredytacji.
Ocena całościowa naukowców powinna obejmować nie tylko dorobek publikacyjny (indeks H, liczby A, C, P), ale i inne formy działalności związane z nauką, takie jak: dydaktyka, osiągnięcia wynalazcze, współpraca z innymi jednostkami naukowymi (w kraju i za granicą), jak również funkcje kierownicze w nauce. Takie są zalecenia sformułowane przez Komisję Unii Europejskiej w Europejskiej Karcie Naukowca.
Do oceny efektywności naukowców bywają również stosowane kryteria ekonomiczne, a w szczególności liczba i wielkość funduszy, które udaje im się zdobyć w formie grantów i kontraktów do finansowania badań.
Ocena jednostek
Dysponując dostępem do WoK i ESI, byłoby celowe ograniczenie oceny wyników działalności naukowej jednostek do prostych wskaźników publikacyjnych uzyskanych za pomocą WoK: sumy indeksów H (w nieograniczonym przedziale czasowym) oraz sumy liczb A i sumy liczb C (w przedziale ostatnich 10 lat) dla wszystkich pracowników n−b jednostki (dodatkowo po unormowaniu, czyli podzieleniu tych sum przez liczbę pracowników n−b). Dodatkowe punkty należy przydzielać jednostkom, których pracownicy zostali uwzględnieni w elitarnych rankingach ESI. Do celów informacyjnych pożądana jest także suma wszystkich przychodów jednostki, niezależnie od źródła (dodatkowo po unormowaniu, czyli podzieleniu przez liczbę wszystkich pracowników). Nie powinno się premiować liczby patentów, ponieważ w praktyce liczy się nie ona, lecz sprzedaż licencji patentowych, a te przychody byłyby uwzględnione. Zamiast tworzyć kontrowersyjne „kategorie” jednostek, można utworzyć, na podstawie wymienionych wyżej wskaźników, obiektywne rankingi jednostek osobno dla każdej dyscypliny i finansować np. najlepsze 70 proc. z nich z odpowiednimi wagami, choćby liniowo. Rozwój jednostki można oceniać w okresach czteroletnich, wykonując analizę zmian wartości tych wskaźników.
MNiSW powinno pilnie zakupić pełną licencję na WoK i ESI dla wszystkich uczelni publicznych w Polsce (i dla ministerstwa). To jest podstawa. W tym celu można wykorzystać fundusze z UE. Nie ma potrzeby tworzenia kontrowersyjnych „polskich” metod oceny działalności naukowej. Należy wykorzystać znane wskaźniki uzyskiwane za pomocą WoK i ESI.
Komentarze
Tylko artykuły z ostatnich 12 miesięcy mogą być komentowane.