Czasopisma naukowe i cytowania

Andrzej Sawicki

Wyniki badań publikuje się w postaci rozpraw i artykułów w czasopismach naukowych lub w innych wydawnictwach. Te inne wydawnictwa to np. księgi konferencyjne, księgi okazjonalne, rozdziały w książkach monotematycznych itd. Są też oczywiście publikacje w postaci książek. Czasopism naukowych jest bardzo wiele, a wciąż pojawiają się nowe. Pracownik naukowy zwykle wie, które czasopisma z jego branży są najbardziej prestiżowe. Ta wiedza jest często intuicyjna, wynikająca z codziennego doświadczenia, opinii bardziej doświadczonych kolegów itd.

Sprawdzało się to w życiu, gdyż np. recenzent w przewodzie habilitacyjnym mógł dosyć szybko ocenić jakość dorobku kandydata bez potrzeby zliczania jakichś punktów. Widać to komuś nie wystarczało, więc do porządkowania jakości czasopism wkroczyła naukometria wraz z legionem biurokratów. Wprowadzono różne, rzekomo obiektywne, mierniki, jak Impact Factor , i na ich podstawie zaczęto poszczególnym czasopismom przyznawać punkty. Nie będziemy się tutaj zajmowali tą młodą metodologią, a tylko popatrzmy do czego takie praktyki doprowadziły.

Źródło korupcji naukowej

Młodziutkie lokalne czasopismo, wydawane na dosyć słabym wydziale średniej polskiej uczelni, otrzymuje aż 20 pkt. Słynne czasopismo amerykańskie, wydawane od 130 lat, cieszące się doskonałą renomą w świecie, dostaje zaledwie 15 pkt. To jest tak, jakby niżej oceniono mercedesa od poczciwej syrenki.

Wydawany od 60 lat angielskojęzyczny periodyk PAN, o ugruntowanej pozycji w kraju i odnotowywany też za granicą, dostaje figę z makiem, czyli 0 pkt. Urzędnik jednym pociągnięciem pióra przekreśla tradycję i dorobek blisko trzech pokoleń. Wydawane po polsku czasopismo inżynierskie, które drukuje wszystko jak leci, stwarzając tylko pozory recenzowania, zasługuje aż na 6 pkt.

To tylko przykłady ilustrujące absurd tych „rankingów”. Co gorsza, punktacja zmienia się co jakiś czas, wprowadzając środowisko w ogłupienie. Na przykład ktoś skierował artykuł do druku w czasopiśmie X, które wówczas miało 20 pkt. W momencie publikacji punktacja jest już inna, np. tylko 6 pkt. Autor jest rozczarowany. Zastosowano tutaj antyłacińską zasadę, że prawo działa wstecz, co wprowadza niestabilność i chaos. Związany jest z tym kolejny problem, dotyczący oceny publikacji, które pojawiły się w czasopiśmie X na przestrzeni wielu lat. Czy przyznawać punkty „historycznie”, czy też stosować bieżącą punktację? A co z pracami, które ukazały się jeszcze przed wprowadzeniem punktacji? Do takich obliczeń należałoby powołać oddzielny departament w ministerstwie, który zresztą by sobie z tym nie poradził.

To jeszcze nie wszystko. Wprowadzenie IF stało się źródłem korupcji naukowej. Częstym zjawiskiem jest nacisk redaktorów czasopism na potencjalnych autorów, aby w referencjach cytowali prace z tego właśnie czasopisma, co oczywiście ma służyć podbijaniu IF . Niektórzy robią to w sposób zdumiewający. W czasopismach amerykańskich opublikowałem sporo prac, więc mam praktyczne rozeznanie. Np. wspomniany periodyk A, ten za 15 pkt., ma dobrą renomę od 130 lat. 20 lat temu pojawił się periodyk B, dopiero nabierający szlifu. Teraz periodyk B ma aż 40 pkt., na co moim zdaniem nie zasługuje, zwłaszcza w porównaniu z periodykiem A. Jest to przykład wypaczania rzeczywistości. Przypomnijmy, że kultowe periodyki „Nature” i „Science” uhonorowano aż 50 punktami każdy, co jest maksymalną liczbą. Tak więc trzy artykuły w lokalnym czasopiśmie, czytanym przez niewiele osób, to więcej niż artykuł w „Nature”. Czy to normalne?

Korzenie w skażonej ziemi

IF ma związek z cytowaniami prac opublikowanych w konkretnym czasopiśmie, ale cytowania są też wskaźnikiem samym w sobie, gdyż ostatnio mierzy się ich liczbą wartość naukowca. Podobno im ktoś ma więcej cytowań, tym jest lepszym naukowcem. Kandydatom do stopni i tytułu naukowego każe się przygotowywać szczegółowe tabelki z danymi dotyczącymi cytowań ich publikacji, co wymaga czasu i odciąga od prawdziwej pracy. Świetną ilustrację tego nonsensu podaje prof. Karol Modzelewski („Gazeta Wyborcza” 2.10.2012, s. 9) przytaczając rozgłos nadany esejowi Francisa Fukuyamy, który był często cytowany, gdyż krytyka tego dzieła była modna i bezpieczna. Tym samym nabito mu licznik, więc Fukuyama mógłby uchodzić za geniusza, chociaż nim na pewno nie był. Przypomnijmy, że Fukuyama zasłynął głęboką tezą, że liberalna demokracja jest szczytem w rozwoju ludzkości i nic już po niej nie może powstać. Prof. Modzelewski twierdzi, że „uznanie liczby cytowań za miarę jakości to katastrofa współczesnej nauki”, z czym trudno się nie zgodzić.

Ale wróćmy do procederu cytowań, który znowu stał się źródłem innego rodzaju nadużyć. Oto kilka przykładów:

Są cytowania negatywne, tak jak w przypadku Fukuyamy, ale w statystykach się tego nie uwzględnia. Niektórzy redaktorzy czasopism, jak też recenzenci, wymuszają cytowania swoich własnych prac. Zwykle delikwent ulega naciskom dla świętego spokoju. Powstają „spółdzielnie” wzajemnych cytowań, na zasadzie „pomocy koleżeńskiej”. Zacytuj moje prace, a ja w zamian zacytuję twoje, chociażby to było bez sensu. Często cytuje się prace „klasyków”, bo tak wypada, chociaż autorzy wielokrotnie nawet nie znają tych publikacji. Być może chcą zwiększyć swój prestiż albo robią to bezmyślnie. Częstą praktyką są cytowania lakoniczne, w stylu: „problemem X zajmowali się następujący badacze: A, B, C, …”, bez merytorycznego odniesienia się do cytowanych publikacji. Nierzadko cytowane prace są przepisywane z innych artykułów, gdyż redakcje wymagają od autorów erudycji, a oni nie mają czasu na studiowanie literatury. Znam przypadki, gdy z powodów osobistych ignoruje się prace innej osoby, chociaż powinny być zacytowane. Np. profesor Y napisał książkę, w której jest ok. 1200 pozycji literatury, począwszy od czasów Leonarda da Vinci, chociaż ten geniusz nie miał nic wspólnego z tematyką dzieła profesora. Nie zacytował natomiast kilku ważnych prac swojego młodszego kolegi z instytutu, ponieważ ten ośmielił się z nim polemizować. Nb. byłem świadkiem takiej dyskusji, a potem kupiłem tę książkę.

Widać więc, że problemu liczby cytowań nie należy fetyszyzować, gdyż jego korzenie tkwią w skażonej ziemi. Przedtem, zanim zaczęto przyznawać punkty, ta ziemia była w miarę czysta, więc rodziła też zdrowy owoc. Autorzy cytowali zwykle publikacje, które miały bezpośredni związek z ich pracą i z których naprawdę korzystali. Cytowania miały wówczas realne znaczenie, w przeciwieństwie do tego, co się dzieje obecnie.

Oznaki buntu

Wytłumaczenie omówionych zjawisk jest chyba dosyć proste. Po pierwsze, nauka stała się zawodem, a nie powołaniem. Liczba pracowników naukowych jest olbrzymia, a przecież obowiązują prawa biologii. Zgodnie z krzywą Gaussa tych naprawdę zdolnych jest niewielu. Wszyscy naukowcy produkują publikacje, gdyż są z nich rozliczani. Większość publikacji to w zasadzie tylko sprawozdania z badań, bez szczególnej wartości naukowej. Część ma może znaczenie techniczne albo wnosi jakąś informację, ale też wiele z nich jest błędnych. Nie można oczekiwać, że każda publikacja będzie wybitnym dziełem. Selekcja tego ogromu informacji jest sztuką, którą trzeba w jakimś zakresie opanować, aby się nie pogubić.

Drugi ważny element to czas. Każdy z nas ma tylko 24 godziny na dobę. W tym czasie musi sobie poradzić z wszystkimi problemami życiowymi, włączając w to czytanie fachowych publikacji. Powoduje to różne dylematy. Np. czy obejrzeć ciekawy film albo pójść z dziewczyną na koncert, czy też studiować dzieło uczonych M&N, na dodatek używających aparatu matematycznego, którego się nie rozumie, a zatem wypadałoby go się jeszcze nauczyć. Trzeba dokonać wyboru. Przypuszczam, że większość jednak odłoży artykuł M&N na jutro, a dzisiaj pójdzie do kina. Czasu zawsze brakuje, więc racjonalny człowiek znajdzie możliwie łatwy sposób, aby sprostać narzuconym wymogom, stąd m.in. biorą się wspomniane patologie.

Rzeczywistość jest na razie taka, jak ją z grubsza opisałem i trzeba sobie z tym wszystkim radzić. Na pewno trzeba się starać pisać artykuły do możliwie najlepszych czasopism w swojej branży i zachować zdrowy rozsądek. Jeszcze pewna selekcja istnieje, gdyż wiele osób nie jest w stanie nawet napisać pracy do czasopisma z „listy filadelfijskiej”. Jakaś gradacja czasopism jest zatem konieczna, ale na pewno nie w tej postaci jak obecnie, czyli niejasnej, arbitralnej i niestabilnej. Najprościej byłoby podzielić czasopisma naukowe w danej dyscyplinie na trzy grupy: najlepszą, średnią i mierną. Każdej grupie przydzieliłoby się punkty, np. odpowiednio 20, 5 i 1. Co 5 lat można byłoby dokonywać weryfikacji listy czasopism. Propozycja listy mogłaby zostać przygotowana np. przez Komitet Naukowy PAN, odpowiadający danej dyscyplinie, a następnie udostępniona środowisku w celu konsultacji. Spełnione zostałyby tutaj podstawowe kryteria, a mianowicie prostota, klarowność i stabilność. Ponadto decydowaliby o tym fachowcy, a nie oderwani od życia urzędnicy. Przy tym trzeba pamiętać, że nigdy się nie znajdzie sprawiedliwej miary jakości czasopisma, zaś propozycja 20-5-1 nie jest gorsza od innych.

Należy jeszcze wspomnieć, że pojawiły się już oznaki buntu pewnych środowisk przeciwko biurokratycznym praktykom. Np. wielu amerykańskich uczonych wyśmiewa fetyszyzację cytowań, zaś niektórzy ignorują uznane czasopisma. Ostatnio głośny był sprzeciw pewnego brytyjskiego matematyka (laureata nagrody Fieldsa, czyli „matematycznego Nobla”), który skrytykował praktyki jednego z największych światowych wydawnictw i zapowiedział, że w czasopismach przez nie wydawanych nie będzie publikował. Pojawia się zatem niezależny ruch ludzi o zdrowym rozsądku, którzy chcą pracować, a nie marnować czas na biurokratyczne fanaberie. Być może wkrótce to trafi i do Polski, jak strumień świeżego powietrza.

Prof. dr hab. inż. Andrzej Sawicki, specjalista w dziedzinie budownictwa, geomechaniki,
inżynierii lądowej i wodnej oraz mechaniki stosowanej, pracuje w Instytucie Budownictwa Wodnego PAN w Gdańsku-Oliwie.