Komisje czy liczydła?

Andrzej M. Brandt

Z zainteresowaniem przeczytałem artykuł prof. Ryszarda Kierzka Publikowalność naukowa w Polsce (FA 7–8/2010), ale nie mogę zgodzić się w pełni z niektórymi opiniami Autora. Co więcej, brakuje wniosków dotyczących oceny rozwoju w badanym okresie. Doceniam przy tym znaczenie szczegółowego zajęcia się przez Autora sprawą parametryzacji, spostrzeżeniami o jej niezbędności i o różnicach w różnych dyscyplinach. Jestem również wdzięczny za zwrócenie uwagi na cenne opracowanie stanu publikacji w instytutach PAN w latach 1973–2008, wykonane w IChB PAN. Mam jednak inne zdanie w kilku poruszonych w artykule zagadnieniach.

Otóż nie można się zgodzić, że „stan nauki najlepiej opisuje liczba publikacji, częstotliwość ich cytowania oraz parametry będące pochodną ich obu. Oczywiście liczba publikacji jest ważna, bo jest to jeden z istotnych dowodów działalności. Cytowanie publikacji świadczy, że wyniki w niej zawarte były wartościowe dla osób cytujących”. Przecież wskaźniki nie opisują wartości naukowej publikacji, a tylko liczbę cytowań i ich kombinacje. Cytowanie tylko może, ale nie musi świadczyć o uznaniu wartości publikacji, bo przecież autorzy cytujący daną publikację mogą wskazywać na jej braki w postaci trafnej krytyki, mogą nawet się jej przeciwstawiać albo mogą to być laurki od przyjaciół. Co więcej, znane są coraz liczniejsze przypadki „łagodnego wymuszania” cytowań przez niektóre wydawnictwa i tworzenie „spółdzielni” wzajemnie cytujących się autorów, a te i inne niedobre zwyczaje będą się szerzyć w miarę wzrostu przypisywania znaczenia liczbie cytowań. Wobec tych argumentów uważam, że wyniki zliczania i dalszych operacji arytmetycznych na tych wynikach są ważnym i cennym elementem oceny uczonych, instytucji naukowych i czasopism, ale nie jedynym i nie powinny być decydujące.

Ostrożnie z tą bazą

Liczba publikacji, cytowań i wszelkie pochodne wskaźniki pozwalają na częściową ocenę stanu nauki i przez to są ważnym narzędziem oceny uczonych, instytutów badawczych i czasopism. Jednak jeżeli czynniki miarodajne, np. rady naukowe i inne gremia, będą uważały takie arytmetyczne oceny właśnie za decydujące, to łatwo można przewidzieć szkodliwe rezultaty takiego działania. Co więcej, ponieważ „system pozwala zsumować poszczególne dane i obliczyć dane sumaryczne”, jak pisze prof. Kierzek, to tylko powiększa niebezpieczeństwo zastępowania merytorycznych ocen publikacji w poszczególnych dziedzinach przez proste działania arytmetyczne, mogące prowadzić do błędnych wniosków. Nic nie zastąpi prawdziwej oceny wyników pracy badawczej przez kompetentne i obiektywne gremium, a także konieczna jest niekiedy odległość w czasie. Jeżeli więc dla potrzeb doraźnych nie możemy uniknąć stosowania wskaźników i ich pochodnych, to przynajmniej warto zdawać sobie sprawę z ułomności takich metod, a także trzeba uświadamiać o tym innych. Pokusa stosowania „prostych” metod i wskaźników liczbowych jest niebezpieczna. Szczegółowo swoje stanowisko uzasadniłem w artykule opublikowanym w kwartalniku „Nauka” (O parametryzacji ocen w nauce w Polsce, „Nauka” 3/2011).

Jednym z podstawowych braków bazy ISI jest nieuwzględnienie książek, a przecież nie można odmówić wartości tej formie pracy uczonych, a także realizowania projektów badawczych różnego rodzaju i uzyskiwania patentów. Zwraca na to uwagę prof. Kierzek, ale najważniejszą okolicznością, która utrudnia wykorzystanie wskaźników h, hm i podobnych do różnorodnych ocen w Polsce, jest okoliczność, że zawartość bazy ISI i innych baz tego rodzaju to publikacje w języku angielskim, które trafiły do tych baz. Publikacje w języku polskim nie wchodzą do ogólnej liczby cytowań według bazy ISI, a trudno odmówić jakiejkolwiek wartości pracom publikowanym po polsku, zwłaszcza w niektórych dziedzinach, nie tylko humanistycznych. O ile trzeba uznać dominację tego języka w nauce, to jednak nie we wszystkich dziedzinach wiedzy i nie w jednakowym stopniu. Cenne publikacje z zakresu geologii terenów Polski, wyniki lokalnych badań archeologicznych i wiele innych, mimo zastosowania zaawansowanych metod, najwyższego poziomu badawczego i wielkiego znaczenia naukowego i praktycznego, nie trafią do wspomnianych baz i nie będą cytowane w świecie anglojęzycznym. Mogą wśród tych publikacji znajdować się niezwykle ważne dla polskiej nauki i gospodarki „złote jaja”, jeżeli użyjemy określenia, zaproponowanego przez Autora dyskutowanego artykułu. Stąd wynika sugestia, aby ostrożnie stosować dane z bazy ISI do oceny osób i instytucji, zajmujących się nauką w Polsce.

Częstość cytowania jest bardzo różna w różnych dziedzinach nauki, więc wyniki są nieporównywalne między sobą. Porównania publikowalności i cytowalności między różnymi dziedzinami nauki mają więc ograniczone znaczenie. Nie chodzi tu bynajmniej o „antagonizowanie uczonych z poszczególnych dyscyplin”, ale skądinąd wiemy, że można porównywać zbiory, zachowujące niezbędne podobieństwa. Tego warunku nie spełniają prace badawcze w tak różnych dziedzinach, jak na przykład astronomia i chemia z jednej strony oraz inżynieria i rolnictwo z drugiej, o bardzo różnej częstości i publikowania, i cytowania. Inne są wielkości zespołów, techniki badań, zwyczaje autoryzowania i cytowania itd. Niewiele tu pomagają, choć są potrzebne, pomocnicze współczynniki korygujące.

Porównania są konieczne

Sugestia, że „obliczenie średniej liczby publikacji na osobę jest ułomne” wywołuje zdziwienie. Nawet jeżeli liczby pracowników w porównywanych instytucjach zmieniają się w czasie, to jednak podawanie liczby publikacji i cytowań w oderwaniu od przybliżonej choćby liczby pracowników tak zniekształca wyniki, że nie można ocenić, w którym z zestawionych instytutów pracowano skuteczniej, zwłaszcza jeżeli liczby pracowników w tych instytutach różnią się o jeden czy dwa rzędy. Posłużę się tu tabelą, zawierającą dane o publikowalności w instytutach należących do Wydziału IV Nauk Technicznych Polskiej Akademii Nauk. Tabela jest zaczerpnięta ze strony www.ibch.poznan.pl, wskazanej przez prof. Kierzka, a wybrałem przykładowo tylko jedną, która dotyczy Wydziału IV PAN, ponieważ w pozostałych wydziałach sytuacja jest podobna. Wobec tego dane liczbowe oderwane od liczby pracowników są jeszcze bardziej ułomne…

Otóż ze stosunku liczb publikacji w dwóch wybranych z tej tabeli instytutach 16:2143 nie wynika przecież, że stosunek „wydajności” w tych instytutach jest jak 1:130! Nawet przybliżone liczby pracowników umożliwiłyby jakieś znaczące porównania, a pominięcie tego daje niezbyt dobrze określone informacje.

Na wykresach wzrostu liczby publikacji i cytowań, podanych na stronie IchB, widać załamanie wzrostu w okolicy 2006 roku. Jest to niepokojące, przy czym brakuje komentarza tego zjawiska w artykule prof. Kierzka: z czego to wynika i jakie są rokowania na przyszłość. Przecież jeżeli Polska ma dorównywać innym krajom, przynajmniej europejskim, to gradient wzrostu powinien być rosnący.

Niektórych istotnych wyników, częściowo umieszczonych na stronie IChB, zabrakło w artykule prof. Kierzka, aby przedstawiony obraz sytuacji i poglądy Autora były pełne. Wszelkie porównania i analizy rozwoju nauki w Polsce są bowiem możliwe tylko w zestawieniu z sytuacją w innych krajach. Można przy tym porównywać się zarówno z krajami o największym rozwoju nauki, aby uzyskać poziom odniesienia, jak i z krajami o podobnej wielkości i historii ostatnich lat. Takie porównania są konieczne, jeżeli w ocenach wykorzystywane są wskaźniki oparte na światowych statystykach, metodach i kryteriach. Niestety, wszelkie porównania nauki w Polsce wykazują poważne opóźnienia niemal we wszystkich dziedzinach, a brakuje przesłanek, aby spodziewać się nadrobienia tych opóźnień. Prowadzi to do komentarzy i opinii, których szczegóły można znaleźć m.in. w kilku artykułach w kwartalniku „Nauka” (M. W. Grabski, Nauka zaściankowa, 3/2010; A.M. Brandt, Jeszcze o „nauce zaściankowej”, 2/2011).

Jest jeszcze jeden wniosek, dotyczący wykorzystywania liczb i pochodnych wskaźników przy analizie publikacji. Otóż, o ile w przypadkach analizowania większych grup uczonych, tworzących instytuty czy wydziały, posługiwanie się ocenami liczbowymi jest może nieuniknione i korzysta z zalet pewnego uśredniania, to w odniesieniu do pojedynczych osób, przechodzących przez kolejne etapy karier naukowych, nic nie zastąpi odpowiednio wybranych komisji w merytorycznej ocenie ich pracy, osiągnięć i sukcesów. Przecież obecnie w warunkach otwartych granic, swobodnego przepływu tekstów i obrazów nie ma przeszkód, aby procedury oceniania funkcjonowały przy stosunkowo niewielkich kosztach, a z udziałem niekwestionowanych autorytetów naukowych. Tradycyjne komisje, złożone z kompetentnych i bezstronnych uczonych, specjalistów w odpowiednich dziedzinach, nie powinny być zastępowane przez liczydła i sztywne progi liczbowe.

 

Prof. dr inż. Andrzej M. Brandt, budownictwo, inżynieria materiałowa, em. pracownik Instytutu Podstawowych Problemów Techniki PAN w Warszawie.
Tabela: Analiza publikacji w instytutach Wydz. IV Polskiej Akademii Nauk

Wydział IV PAN

Analiza publikacji za lata 1973–2008

Analiza publikacji za lata 2000–2008

Całkowita ocena parametryczna

Ilość cytowań w poszczególnych latach

Nazwa instytutu

Liczba publikacji

Całkowita liczba cytowań

Średnia cytowań/publikację

Indeks h

Indeks hm

2000

2001

2002

2003

2004

2005

2006

2007

2008

Liczba publikacji

Całkowita liczba cytowań

Indeks h

Indeks hm

Instytut Badań Systemowych PAN

705

3504

4.97

26

1.89

126

125

148

221

249

376

415

450

384

384

1142

15

1.39

Instytut Biocybernetyki i Inżynierii Biomedycznej PAN

446

1995

4.47

19

1.66

109

112

105

92

129

176

183

204

149

231

422

10

1.13

Instytut Budownictwa Wodnego PAN

148

623

4.21

12

1.63

18

25

29

56

36

77

66

74

65

68

216

9

1.66

Instytut Informatyki Teoretycznej i Stosowanej PAN

16

75

4.69

3

0.99

9

8

4

6

11

2

7

3

5

3

2

1

0.64

Instytut Inżynierii Chemicznej PAN

346

1540

4.45

17

1.64

72

83

68

113

156

129

138

138

121

141

435

11

1.52

Instytut Maszyn Przepływowych PAN

495

2320

4.69

21

1.76

75

103

97

143

200

233

236

210

225

232

639

12

1.36

Instytut Metalurgii i Inżynierii Materiałowej PAN

491

1440

2.93

17

1.43

68

53

79

109

178

213

253

219

168

370

944

14

1.31

Instytut Podstaw Informatyki PAN

506

3494

6.91

25

2.07

144

187

153

304

355

375

436

264

215

271

462

9

0.96

Instytut Podstawowych Problemów Techniki PAN

2143

9892

4.62

37

1.72

415

491

517

513

536

628

763

704

549

598

1638

15

1.16