Rangowanie czasopism naukowych

Zbigniew Drozdowicz

Już pierwsze reakcje na opublikowaną 20 grudnia 2013 r. Listę czasopism punktowanych MNiSW wskazują, że daleka jest ona od ideału. W środowisku filozoficznym pojawił się nawet apel o jej unieważnienie i sporządzenie nowej. Wprawdzie nie byłbym skłonny się pod nim podpisać, jednak uważam, że takie listy wymagają szerszych i głębszych dyskusji. Zgłaszane przeze mnie uwagi dotyczą głównie czasopism z zakresu nauk humanistycznych i społecznych. Niektóre z nich mają jednak ogólniejszy charakter.

Tradycyjne skłonności

Jedną z nich jest skłonność do formułowania arbitralnych ocen i postrzegania świata przez pryzmat partykularnych interesów. Występuje ona oczywiście nie tylko w środowisku akademickim. Jednak w nim jest ona szczególnie kłopotliwa. Stanowi bowiem swoisty balast utrudniający osiągnięcie czegoś istotnie ważnego w nauce. Byli i są tego świadomi przynajmniej niektórzy z tych, którzy prowadzą badania naukowe. W każdym razie podejmowane były próby uwolnienia się od tych słabości, lub przynajmniej takiego ograniczenia ich wpływu na życie akademickie, aby były one stosunkowo najmniej uciążliwe. Rzecz jasna, jednym to się udawało lepiej, innym gorzej. Z reguły większe sukcesy na tym polu odnosili i odnoszą ci, którym przyszło samorealizować się w środowisku o długiej tradycji akademickiej i mającym w swoich szeregach takie osobistości i osobowości, o których słyszeli nawet ci, którzy z autentyczną nauką i autentycznym akademickim nauczaniem mieli niewiele wspólnego. Trudniej natomiast przychodziły one i przychodzą tym, którzy wprawdzie sami uważają się za takie osobistości i osobowości, ale ich osiągnięcia lokują się bardziej na peryferiach niż na szczytach nauki.

Trochę filozofuję. Uwagi te mają jednak stanowić wprowadzenie do tak żywo dzisiaj dyskutowanego i niejednokrotnie krytykowanego przeliczania osiągnięć naukowych na punkty. Powiem krótko: uważam ten sposób określania wartości osiągnięć naukowych za niedoskonały – jednak za lepszy niż jakże często spotykane w przeszłości i nie do końca jeszcze dzisiaj wyeliminowane ocenianie ich po tzw. uważaniu, nazywanym również uznaniowością; i to bez względu na to, czy za tym „uważaniem” czy „uznaniowością” stały i stoją osoby mające ponadprzeciętne osiągnięcie naukowe, czy też takie, które ich nie mają. Problem ten stawiany był praktycznie we wszystkich założeniach do podejmowanych w ostatnich latach prób reformowania polskiego szkolnictwa wyższego i polskiej nauki i traktowany był jako środowiskowa patologia. Ogłoszoną 20 grudnia 2013 roku Listę czasopism punktowanych – podobnie zresztą jak listę z 17 września 2012 roku – postrzegam jako pewien krok w kierunku ograniczenia tej patologii (z tego właśnie względu nie podpisałbym się pod wspomnianym na wstępie apelem).

Przynajmniej część krytyków obu list problem widzi nie w tym, czy przeliczać, czy też nie przeliczać wartości czasopism na punkty, lecz w tym, aby przypisać im taką liczbę punktów, która byłaby zgodna z ich wiedzą i oceną tego, co się w nich publikuje, kto w nich publikuje oraz w jaki sposób kwalifikuje się w nich artykuły do druku. Chodzi również o to, aby jedna patologia nie była zastępowana inną – taką chociażby, jaką jest strojenie w „piórka” naukowości tego, co z autentyczną nauką ma niewiele wspólnego.

Lista z 2012 roku

Była ona przedmiotem wielu krytyk. Niektóre z nich prowadziły w gruncie rzeczy do podobnego apelu, jaki pojawił się w środowisku filozoficznym w stosunku do listy najnowszej. Rzecz jasna, nie w każdym przypadku stały za nimi jednostkowe i grupowe interesy oraz wygórowane samooceny krytyków tej listy. Jednak stwierdzenie, że były one od nich całkowicie wolne, byłoby raczej trudne do obrony. Nie chciałbym jednak tutaj ani podejmować polemiki z tymi krytykami, ani też stawać w ich obronie (w niejednej z nich dostrzegam zresztą sporo racji). Chciałbym natomiast powiedzieć parę zdań – po pierwsze o generalnych intencjach tych osób, które opracowały zasady sporządzenia tej listy, a po drugie o reakcjach na te zasady redaktorów odpowiedzialnych za poziom ich czasopism.

Na temat pierwszej z tych kwestii wypowiedział się już (m.in. w „Nauce” nr 1/2013) prof. Jerzy Wilkin, przewodniczący ministerialnego zespołu powołanego do najnowszej oceny parametrycznej czasopism. Jego zdaniem intencje zespołu przygotowującego poprzednią parametryzację można sprowadzić do czterech założeń, tj. 1. „dążenia do wypracowania podstaw pełnej parametryzacji czasopism i wyeliminowania uznaniowości w tej dziedzinie”; 2. „konieczności uporządkowania zasad publikowania artykułów i wprowadzenia wysokich standardów w tym zakresie”, 3. „preferowania dostępności czasopism w sieciach internetowych” i ich „indeksowanie w bazach danych” oraz 4. „silnego umiędzynarodowienia polskich czasopism naukowych”. W konkluzji do tego wyliczenia prof. Wilkin stwierdza, że „te założenia można było uznać za uzasadnione i godne kontynuacji” oraz dodaje, że „wyżej wymieniona koncepcja była najsilniej krytykowana przez przedstawicieli nauk humanistycznych i społecznych, jako nieprzystająca do specyfiki pracy naukowej i charakteru publikacji w tych obszarach nauk” (por. tamże, s. 47 i n.).

Tak się faktycznie rzecz miała. Trzeba jednak dopowiedzieć, skąd się brała ta krytyka, bowiem w niejednym przypadku wskazywano w niej – w moim przekonaniu – na trudne do zaakceptowania uproszczenia. Potwierdza to zresztą podana przez prof. Wilkina informacja o wynikach symulacji oceny czasopism opartej na wymienionych wyżej założeniach. Okazało się bowiem, że czasopisma z zakresu nauk humanistycznych i społecznych „wykazały silną degradację” („większość z nich mieściłaby się w przedziale 1 – 3” – na 10 możliwych do uzyskania punktów). Inaczej być nie mogło (i być nie może) w sytuacji, gdy: 1. „pełność parametryzacji” sprowadza się w gruncie rzeczy do zbyt mało różniących się wzorców nauki i naukowości, aby mogły one oddawać ich specyfikę; 2. za „wysokie standardy” uznaje się wyłącznie lub głównie te, które obowiązują w tzw. naukach twardych; 3. „dostępność” i „indeksowanie” czasopism wiąże się ze „współczynnikiem PIF (Predicted Impact Factor), obliczanym na podstawie cytowań polskich czasopism w bazach Thomson Reuters Scientific, a głównie Web of Science”; 4. „umiędzynarodowienie” łączy się z publikowaniem w języku angielskim, a jeszcze lepiej w angielskim-amerykańskim, bowiem w wymienionych tutaj bazach zdecydowanie dominują czasopisma amerykańskie.

Osoby odpowiedzialne za poszczególne czasopisma z zakresu nauk humanistycznych i społecznych zareagowały na te uproszczenia różnie. Jedne z nich po prostu je zignorowały i robią nadal swoje (i po swojemu). W efekcie ich czasopisma albo nie znalazły się na najnowszej liście MNiSW, albo też „wykazały silną degradację”. Stanowią one jednak mniejszość. Większość znalazła takie stosunkowo proste sposoby poradzenia sobie z tymi wymaganiami, które dały ich czasopismom tak potrzebne do przetrwania punkty i względnie wysokie miejsce na ministerialnej liście. Jednym z takich sposobów było „umiędzynarodowienie” składu redakcji, recenzentów oraz autorów publikujących w ich czasopismach. O tym, że był to stosunkowo prosty sposób, przekonuje m.in. fakt, że dzisiaj niewiele jest już takich czasopism naukowych, które nie miałyby w swoim składzie redakcyjnym osób z zagraniczną afiliacją.

Lista z 2013 roku

Generalnie potwierdza ona zapowiedź prof. Wilkina, że będzie ona w znacznej mierze kontynuacją listy poprzedniej, a co za tym idzie niejedna z uwag krytycznych przedstawicieli nauk humanistycznych i społecznych kierowanych pod adresem tamtej listy zachowuje swoją aktualność. Nie oznacza to jednak, że ta lista niczym istotnym nie różni się od poprzedniej. Chciałbym tutaj skupić się na tych różnicach, bowiem pokazują one, że zgłaszane do listy z 2012 roku zastrzeżenia były w jakiejś mierze brane pod uwagę.

W pierwszej kolejności warta odnotowania jest premia za zaradność dla tych redakcji czasopism, które w tak krótkim czasie (bo zaledwie jednego roku) potrafiły zadbać o ich internetową dostępność i „umiędzynarodowienie”. Bez wchodzenia w szczegóły łatwo można stwierdzić, że zyskały te czasopisma, które mają wersje on-line oraz mogą się wykazać zagraniczną afiliacją redaktorów naukowych, recenzentów i autorów. Poważne ostrzeżenie otrzymały natomiast te, które liczyły (być może) głównie na jakiś nadzwyczajny gest litości (np. w formie wysokiej tzw. stałej przeniesienia) lub na swoją wieloletnią obecność w środowisku akademickim (wskaźnik możliwy do przeliczenia na parametryczne punkty) i środowiskową pozycję (wskaźnik znacznie trudniejszy do takiego przeliczenia). Potwierdzeniem tego jest m.in. pojawienie się na wysokich pozycjach punktowych takich czasopism, które zaczęły się ukazywać zaledwie kilka lat temu, oraz znalezienie się na dalszych lub wręcz w ogonie tego swoistego „peletonu” tych, które wprawdzie ukazują się od kilkunastu lub nawet kilkudziesięciu lat, ale wyłącznie w formie papierowej i docierają do stosunkowo niewielkiego grona osób (co rzecz jasna nie zawsze oznacza, że nie publikuje się w nich tekstów wartościowych naukowo).

Odpowiedź na pytanie, dlaczego tak się stało, znajduje się m.in. w przywołanym już tutaj artykule prof. Wilkina, w szczególności w tym jego fragmencie, w którym autor stwierdza, że „mimo wielu prób nie udało się nam znaleźć sposobu uwzględnienia tzw. oceny eksperckiej (peer review)”, oraz wskazuje na takie związane z nią następstwa, jakimi są m.in. „wzmocnienie uznaniowości i zwiększenie nieprzejrzystości stosowanych zasad oceny” (s. 51). Można to oczywiście potraktować zarówno jako porażkę kierowanego przez niego zespołu, jak i jego sukces (bowiem doświadczenia z tzw. oceną ekspercką w naszych realiach akademickich były i są również przedmiotem wielu krytyk).

Warte odnotowania jest również zachowanie podziału czasopism na trzy listy, w tym zachowanie – mimo poważnej krytyki i sporej presji części środowiska akademickiego, aby ją po prostu „wyrzucić do kosza” – listy B, na której znalazły się czasopisma umieszczone w bazie ERIH. To również można potraktować zarówno jako porażkę, jak sukces tego zespołu. Za pierwszą z nich przemawia fakt, że wszystkie figurujące na niej czasopisma otrzymały 10 punktów (a przecież nie ulega wątpliwości, że nie wszystkie przestrzegają równie wysokich standardów naukowości). Natomiast za drugim z nich przemawia nie tyle nawet to, że ministerialny zespół oparł się wspomnianej wyżej presji, co to, że oparł się trwającej od dosyć dawna amerykanizacji w nauce (i nie tylko zresztą w nauce). Baza czasopism ERIH (European Reference Index for Humanities) już ze swojego założenia miała być alternatywą dla zdominowanej przez anglo-amerykańskie czasopisma z zakresu nauk ścisłych i przyrodniczych oraz opartej na współczynniku PIF (ERIH jest oparta na ocenach zespołów eksperckich) tzw. listy filadelfijskiej. Warto przypomnieć, że w bazie ERIH czasopismom nie są przypisywane żadne punkty, a co za tym idzie zgłaszane przez jej krytyków zastrzeżenia powinny być adresowane nie do wspomnianych tutaj ekspertów, lecz do ekspertów MNiSW.

Z kwestią tą wiąże się bezpośrednio zachowanie listy C, tj. czasopism, dla których albo nie został określony PIF, albo też okazał się on tak niski, że sytuowałby on je na głębokich peryferiach nauki i naukowości. Można to oczywiście również potraktować jako porażkę ministerialnego zespołu. Kwestia ta jest jednak dużo bardziej złożona niż można byłoby sądzić na podstawie wypowiedzi tych, którzy uważają, że lista czasopism powinna być jedna, a przypisywane im wagi punktowe powinny być oparte na tych samych kryteriach – takie jak PIF; ewentualnie korygowane na podstawie opinii zespołów eksperckich. O związanych z tymi ostatnimi korektami obawach była już mowa.

Chciałbym zatem tutaj jedynie sformułować pewne uwagi związane z określaniem i stosowaniem współczynnika wpływu ustalanego w sposób zaproponowany przez J.E. Hirscha. Warto pamiętać, że powstał on przede wszystkim z myślą o potrzebach takich nauk, jak fizyka (sam Hirsch jest amerykańskim fizykiem), i nie tylko nie spełnia on oczekiwań przedstawicieli nauk humanistycznych i społecznych, ale także niejednej z nauk ścisłych i przyrodniczych (w szczególności tych, które z różnych względów nie znajdują się w bazach stanowiących podstawę do jego wyliczenia). Co więcej i co gorzej (dla tych, którzy są tak przywiązani do tego sposobu określania pozycji naukowej) stawia on co najmniej w dwuznacznym świetle tych, którzy wprawdzie mają wysoki wskaźnik Hirscha, ale nie aż tak wysoki, aby mogli konkurować z tymi, którzy – mówiąc językiem A. Sokala i J. Bricmonta – publikują „modne bzdury” lub są tzw. topowymi przedstawicielami nauk humanistycznych i społecznych, a co za tym idzie są nader często i nader chętnie cytowani. Jeśli ktoś ma w tej kwestii wątpliwości, to proponuję, aby zapoznał się ze wskaźnikami Hirscha takich filozofów jak Jean Baudrillard, Gilles Deleuze czy Jacques Lacan (figurują oni na liście tych, którzy publikują „modne bzdury”), oraz takich socjologów, jak Anthony Giddens, i porównał je ze wskaźnikami tych fizyków, którzy otrzymali nagrodę Nobla. Rzecz jasna, nie oznacza to, że wskaźnik Hirscha jest zupełnie bezwartościowy. Jednak twierdzenie, że jedynie on wskazuje na autentyczne wielkości i wartości w nauce jest świadectwem zarówno niedostrzegania jego istotnych ograniczeń, jak i niezrozumienia specyfiki zróżnicowania dyscyplin badawczych.

Lista życzeń

Pojawiające się przy różnych okazjach i na różnego rodzaju forach komentarze do obu list czasopism przekonują, że zgłaszanych pod ich adresem życzeń jest wiele i niejednokrotnie towarzyszą im spore emocje. Tutaj ograniczę się do sformułowania takich, których spełnienie może w moim przekonaniu przyczynić się na obniżenia poziomu tych emocji. A zatem życzę sobie i tym wszystkim, którzy prowadzą badania naukowe i publikują ich wyniki, aby w końcu zostały ustalone takie zasady ewaluacji czasopism, które – po pierwsze będą przystawały do faktycznego zróżnicowania nauki; po drugie będę one obowiązywały w dłuższym okresie czasu niż jeden rok (i nie trzeba będzie ich zmieniać lub rezygnować z nich przy kolejnej symulacji); po trzecie będą one w pełni znane nie po zakończeniu czynności ewaluacyjnych, lecz co najmniej rok przed ich rozpoczęciem; po czwarte w ewaluacji tej będą brane pod uwagę zarówno łatwiejsze do określenia wskaźniki ilościowe, jak i trudniejsze do oszacowania wskaźniki jakościowe; po piąte przy określeniu i stosowaniu tych wskaźników będą brane pod uwagę opinie autentycznie niezależnych ekspertów; po szóste opiniowanie to będzie również podlegać ocenom, wszystkie opinie będą jawne, a skład ekspertów będzie podlegał regularnym zmianom.

Nie sądzę, aby to była lista tzw. pobożnych życzeń. O tym, że możliwe są one do zrealizowania, przekonują praktyki stosowane w krajach mogących się wykazać większymi osiągnięciami naukowymi niż Polska. Można zresztą również u nas znaleźć przykłady prób wdrażania tych praktyk – takie chociażby, jakie mają miejsce w Narodowym Centrum Nauki. To że nie wszystko w nich jest jeszcze takie, jakie być powinno, jest zrozumiałe – bo przecież nie można od razu uwolnić się od skłonności, o których była mowa we wprowadzeniu do tych rozważań. W każdym przypadku wymaga to szerszego spojrzenia na naukę niż potrzeby poszczególnych grup uczonych czy też potrzeby poszczególnych dyscyplin.

Prof. dr hab. Zbigniew Drozdowicz pełni funkcję dziekana Wydziału Nauk Społecznych Uniwersytetu im. Adama Mickiewicza w Poznaniu.