O nauce, reformie i cudach
W poprzednim numerze FA przedstawiłem interpretację jednego z czynników determinujących „publikowalność”. Była nim liczba profesorów w stosunku do całości personelu uczelni. Gdy mowa o pozostałych zmiennych wyjaśniających, jedna z nich jest tak oczywista, że w zasadzie nie wymaga równie obszernego komentarza. Chodzi mianowicie o finansowanie. Współczynnik równania regresji uczelni zagranicznych wynosi 0,223, natomiast uczelni polskich 4,223 (Tabele A4 i A5 raportu). Oznacza to wprawdzie, że w obu przypadkach należałoby oczekiwać pozytywnej reakcji „systemu” na bodźce finansowe, ale zależność ta w Polce jest prawie dwudziestokrotnie silniejsza. Zabrzmi to więc jak wielokrotnie powtarzany banał, ale omawiane badania wykazały po raz kolejny, że kluczem do sukcesu polskiej nauki nie jest lepsze dzielenie biedy, co z doktrynerskim uporem i retoryczną swadą wmawiają nam politycy i urzędnicy kolejnych rządów, ale przynajmniej dwukrotne, skokowe podniesienie wysokości nakładów na naukę w Polsce. Autorki raportu stwierdzają: „Możliwe, że zostanie to uznane za wniosek trywialny, lecz nie można oczekiwać, by naukowcy zatrudnieni w akademii prowadzili badania najwyższej klasy bez zapewnienia im odpowiedniej infrastruktury, źródeł danych, możliwości uczestnictwa w międzynarodowych konferencjach, szkoleniach, wizytach studyjnych, szkołach letnich, etc.” (s. 91).
Pochodzenie funduszy a produktywność
Ostatnią zmienną, jaką chciałbym tutaj omówić, jest pozytywna korelacja produktywności publikacyjnej i udziału środków pozyskiwanych na drodze konkursu (zarówno prywatnych, jak i budżetowych). Zdaniem Autorek oznacza to, że: „Większy udział w przychodach uczelni środków pochodzenia publicznego okazuje się być powiązany ze słabszymi wynikami badawczymi, co wskazywać może, że pieniądze pochodzące z prywatnych źródeł, konkursów, konkurencyjnych grantów etc. są wydatkowane na badania w sposób bardziej produktywny. Środki publiczne, przyznawane na podstawie algorytmów czy formuł matematycznych, w przeciwieństwie do środków ze źródeł prywatnych, najczęściej nie wiążą się z koniecznością udowodnienia ich właściwego spożytkowania i udokumentowania wymiernych rezultatów (np. w postaci publikacji)” (passim). Dr Wolszczak-Derlacz i dr inż. Parteka zalecają więc zwiększenie udziału „trudnego” pieniądza w finansowaniu uczelni: „Rekomendacją, wynikającą z niniejszego raportu, jest promowanie otwartych konkursów na granty badawcze, również te finansowane ze źródeł publicznych” (passim).
Z powyższą rekomendacją można zgodzić się tylko częściowo. Bez wątpienia środki na badania powinny trafiać do naukowców w drodze konkursu. Jednak negatywna korelacja wartości „łatwych” pieniędzy i produktywności naukowej (niezależnie od zastrzeżeń co do jej definicji) jest w polskim kontekście typowym objawem choroby systemu, wynikającej z jego wielkiego niedofinansowania. Wniosek, jaki płynie z przeprowadzonych analiz jest więc inny, a jego oczywistość stanie się widoczna dzięki przeprowadzeniu paraleli z rozkładem wydatków w systemach biedy i zamożności. Miarą bogacenia się jest, jak powszechnie wiadomo, zmniejszający się odsetek środków przeznaczanych przez społeczeństwo na pożywienie, a zarazem rosnący strumień wydatków na dobra wyższego rzędu, czyli edukację, kulturę, zdrowie i rekreację. Trudno jednak biednemu rekomendować, aby przyspieszył swój awans na ścieżce bogacenia się przez wydawanie skromnych dochodów na cele wyższe, ponieważ obcowanie ze sztuką i nauką mógłby doprowadzić go do śmierci głodowej. Mówimy więc raczej, że społeczeństwo jest tak biedne, iż na fundamentalne, biologiczne potrzeby zmuszone jest wydawać gros swoich dochodów. Podobnie rzecz się ma z wydatkami polskich uczelni. Nakłady w stosunku do potrzeb są tak niskie, że wyjście poza minimum obowiązków, oznaczające m.in. zwiększoną aktywność w sferze pozyskiwania środków grantowych na projekty, jest ciągle zjawiskiem w polskiej nauce rzadkim. Dopiero po zagwarantowaniu kadrze polskich uczelni godnych warunków pracy naukowej i dydaktycznej będzie można mówić o intensyfikacji wyników, osiągniętej przez zwiększanie pozyskiwalności środków na drodze konkursowej. Przy czym „godnych” oznacza tutaj „niewymuszających szukania drugiej pensji przez większość naukowców” i porównywalnych pod względem parytetu siły nabywczej z dochodami zachodnich kolegów, których stawia nam się za wzór produktywności.
Omawiany tutaj raport (stosuję tę nazwę zgodnie z terminologią przyjętą przez zleceniodawcę, czyli firmę Ernst&Young, ale w gruncie rzeczy należałoby tutaj mówić o solidnej pracy naukowej o charakterze aplikacyjnym) posiada także słabe strony. Przedstawię je poniżej w sposób syntetyczny, częściowo jako krytykę, ale przede wszystkim jako sugestię i podpowiedź dla tych badaczy, którzy podobnymi metodami będą w przyszłości parametryzować naukę.
Na wstępie słowo o tytule, który nie odpowiada zawartości. Uczelnie publiczne w Polsce to nie tylko politechniki i uniwersytety, ale również niezwykle produktywne pod względem publikacji uniwersytety medyczne, a także szkoły ekonomiczne i artystyczne. Łączna ocena ich produktywności byłaby pewnym wyzwaniem, ale skoro jej nie podjęto, należało użyć tytułu bardziej adekwatnego, a nie PR-owskiego zabiegu pozornie rozszerzającego zakres wykonanych badań, a w istocie wprowadzającego czytelnika w błąd. Tym bardziej, że taki tytuł całkowicie ukrywa europejski zasięg przeprowadzonych porównań, bez którego raport nie miałby takiej wartości poznawczej.
Kwestią techniczną, wymagającą moim zdaniem omówienia, jest korelacja wzajemna zmiennych wyjaśniających (por. Tablice A.1, A.4, A.5). Jeżeli jedną zmienną jest na przykład stosunek liczby profesorów do całości personelu, a drugą stosunek liczby doktorantów do liczby pracowników, to należałoby odfiltrować podczas estymacji modelu wpływ obu zmiennych na siebie, ponieważ większa liczba profesorów będzie prawdopodobnie wpływać na wzrost liczby doktorantów.
Mankamentem tej i innych prac interdyscyplinarnych jest nieuwzględnianie wszechstronnego zestawu literatury fachowej. Autorki bardzo pobieżnie zapoznały się z polską literaturą bibliometryczną, traktującą praktycznie o tych samych kwestiach, stwierdzając, że nie ma prac ilościowych na ten temat. Nie w pełni odpowiada to prawdzie. W istocie trudno znaleźć prace interdyscyplinarne na temat „ekonomiki nauki” lub „ekonomiki uczelni”, uwzględniające także elementy bibliometrii, jednak badania biblio- i naukometryczne istnieją. Nawet jeżeli przeniesiemy na grunt naukometrii zasadę wybitnego socjologa i ekonomisty Vilfredo Pareto, głoszącą, że jakaś część prac naukowych w każdej dziedzinie warta jest jedynie papieru, na jakim została wydrukowana, zawsze pozostaje korpus prac zawierających cenne uogólnienia i godnych zacytowania. W szczególności pozwoliłoby to Autorkom wesprzeć swoje wnioski opiniami innych badaczy, a przy okazji dostrzec (i być może omówić) swoistą schizofrenię parametryzowania instytucji w systemie finansującym dyscypliny. Niestety wątek ten nie został satysfakcjonująco przedyskutowany. Warto więc zapytać, jaka jest wartość informacyjna pomiaru liczby publikacji (lub cytowań) uśredniającego filozofię, biotechnologię, prawo czy architekturę. Otóż wartość ta jest niewielka, ponieważ skala odniesienia jest w każdym przypadku inna – inne są średnie udziały publikacji z danej dyscypliny (lub poziomy cytowań). Podany w tabeli 13 wynik 0,23 publikacji na pracownika jest w pewnych dyscyplinach całkiem przyzwoity, w innych niski. Częściowo przekonuje jedynie jego porównanie z wynikami innych państw. Częściowo, ponieważ biorąc pod uwagę pozostałe zmienne (głównie finanse), jest on znacznie lepszy, niż by to wynikało z możliwości.
Tak więc przy analizie bibliometrycznej należy brać pod uwagę liczbę czasopism z danej dyscypliny, uwzględnioną w bazie danych, na przykład nadając publikacjom i/lub cytowaniom wagi. Zasoby Instytutu Thomsona nie są pod tym względem zrównoważone (Autorki o tym wspominają). Co więcej, w pewnych dyscyplinach średni czas życia publikacji jest stosunkowo długi i z tego względu jako źródła najbardziej miarodajne podaje się monografie, a nie artykuły (dotyczy to np. filozofii i historii). Jak pokazał Andrzej K. Wróblewski (Nauka w Polsce według rankingów bibliometrycznych , „Nauka” 2/2005), posiłkując się średnią cytowań z całości bazy, różnice są pod tym względem tak wielkie, że na przykład jedno cytowanie z zakresu historii odpowiadałoby ok. 17 cytowaniom z biologii i biochemii. Podobne rozumowanie można przeprowadzić, zastępując cytowania samą obecnością publikacji na tzw. liście filadelfijskiej. Urealniłoby to uzyskane wyniki poprzez podniesienie pozycji uniwersytetów, tylko pozornie zaniżonej przez wydziały humanistyczne i społeczne.
Źródło słabości
Tematem na osobną dyskusję jest pominięcie w badaniach wykazów czasopism lub systemów parametryzacji tworzonych w Unii Europejskiej i w Polsce (Autorki wspominają tylko o liście Elseviera). Przeprowadzenie na ich podstawie badań porównawczych byłoby o wiele trudniejsze, ale problem nieadekwatności narzędzia stworzonego w warunkach amerykańskich pozostaje żywy i był wielokrotnie dyskutowany. Jedną z propozycji poprawienia tej sytuacji, zgłoszoną przeze mnie podczas pierwszej prezentacji raportu, było stworzenie polskiego indeksu cytowań przy Ośrodku Przetwarzania Informacji MNiSW, opartego na ministerialnej liście czasopism. Idea taka pojawiła się już w ostatnim dziesięcioleciu, ale z braku funduszy nie udało jej się zrealizować. Skoro MNiSW deklaruje wolę zwiększania konkurencyjności uczelni, a jednocześnie skarży się na brak narzędzi, pomiar cytowań w polskiej infosferze naukowej byłby najlepszym rozwiązaniem, do którego kluczem jest podjęcie decyzji i trwałe zagwarantowanie finansowania takiej inicjatywie.
Kwestią bez wątpienia trudną jest wreszcie wybór parametrów oceny. Autorki poszły w tym wypadku po linii najmniejszego oporu, co częściowo uzasadnione było potrzebą porównania wielu instytucji polskich i europejskich. Z punktu widzenia zasad bibliometrii stanowi to jednak istotny mankament. I tak, nie poruszono kwestii ujednolicania afiliacji, przyjmując oficjalną wersję serwisu za bezbłędną, co nie musi odpowiadać prawdzie (mamy tutaj możliwy problem zmiany nazwy uczelni bądź nieuwzględniania afiliacji wszystkich autorów publikacji zbiorowych), w użytych modelach nie porównywano cytowań (mimo że są dostępne), nie brano pod uwagę liczby patentów i pominięto liczbę wdrożeń, niezwykle istotną w przypadku politechnik i niektórych wydziałów uniwersyteckich.
Publikacja raportu nastąpiła w okresie dyskusji nad kształtem polskiego systemu akademickiego, wywołanej przygotowaniami do wprowadzenia nowej ustawy o szkolnictwie wyższym. Jego wymowa jest gorzka, ponieważ dowodzi rozbieżności oficjalnych deklaracji i faktów w tym obszarze. Deklaracje to zapewnienia o chęci budowania gospodarki opartej na wiedzy, a fakty to katastrofalnie niski poziom finansowania nauki i stopniowe wycofywanie się państwa ze swych konstytucyjnych obowiązków, uzasadniane demagogicznym twierdzeniem, że „wlewanie środków w chory system” i tak nie ma sensu. Władzom, nie bez udziału mediów i niektórych przedstawicieli naszego środowiska, udało się sprowadzić dyskusję nad reformą do eliminacji patologii życia akademickiego, jak gdyby w innych sektorach budżetowych, nie wyłączając administracji państwowej i mediów, nie było nepotyzmu, kolesiostwa i w ogóle żadnych uchybień, a jedynie promowanie kompetencji, wiedzy i transparentności. Nie umniejszając znaczenia tych problemów należy widzieć zjawiska we właściwej skali. Źródłem słabości polskiego systemu akademickiego nie jest sposób dzielenia środków, istnienie habilitacji albo miejsce i sposób jej przeprowadzenia, lecz chroniczne niedofinansowanie, skutkujące trwałymi patologiami w postaci przeciążenia dydaktycznego i wieloetatowości, a w konsekwencji brakiem znaczących osiągnięć.
Poszukując metafory zamykającej powyższe rozważania, sięgnąłem do pamiętnego posiłku na urokliwych brzegach Jeziora Galilejskiego, kiedy to Jezus wziął „pięć chlebów i dwie ryby, spojrzał w niebo, odmówił błogosławieństwo i połamawszy chleby, dał je uczniom, uczniowie zaś tłumom. Jedli wszyscy do sytości i zebrano z tego, co pozostało, dwanaście pełnych koszy ułomków. Tych zaś, którzy jedli, było około pięciu tysięcy mężczyzn, nie licząc kobiet i dzieci”. Można odnieść wrażenie, że przez ostatnie dwadzieścia lat kolejni ministrowie również patrzą – już to w niebo, już to do podręczników public relations – i błogosławią mizerne 0,6 proc. środków budżetowych na naukę, dzieląc je według różnych algorytmów. Cud rozmnożenia jednak nie następuje. No chyba że za cud uznamy wyniki polskiej nauki, osiągane przy tak żałosnych nakładach.
Komentarze
Tylko artykuły z ostatnich 12 miesięcy mogą być komentowane.
Nie wchodząc w szczegóły dyskusji Raportu, w pełni zgadzam się z końcowymi fragmentami artykułu, zawierającymi wnioski. Zamiary budowanie gospodarki opartej na wiedzy nie zostały zrealizowane, a rozmnożenie środków nie
nastąpiło. Stałe reorganizacje struktur w zarządzaniu nauką, wprowadzanie paramatryzacji ocen inne 'reformy' przy zachowaniu wspomnianego wskaźnika 0,6 % mogą tylko przynieść dalsze pogorszenie poziomu (piszę o tym w Nauce, 2/2011). Warto przy tym zauważyć jak często zamiary poprawienia sytuacji w nauce pojawiają się w wypowiedziach przed wyborczych!! Nie pojawiają się wcale...