Ranking polskiej nauki
W Polsce jest około 450 szkół wyższych. Większość to prywatne uczelnie zawodowe, których głównym zadaniem jest kształcenie studentów. W bardzo niewielkim stopniu zajmują się one działalnością naukową. W Polsce jest także około 100 uczelni typu akademickiego, z których większość to szkoły państwowe. Mają one ustawowy obowiązek prowadzenia badań naukowych oraz publikowania ich wyników. Od pewnego czasu podejmuje się próby naukometrycznej oceny ich działalności. Dotyczy to zarówno poszczególnych uczelni, jak i ich podstawowych jednostek, na przykład wydziałów. Jak dotychczas brak ogólnopolskiej bazy, która zawierałaby wyniki analizy naukometrycznej uczelni, instytutów naukowych i poszczególnych polskich uczonych.
W dwóch kolejnych artykułach przedstawione są wyniki analizy naukometrycznej 92 szkół wyższych oraz 71 instytutów naukowych Polskiej Akademii Nauk. Jest to analiza wyłącznie naukometryczna, która w przypadku uczelni może stanowić dobre uzupełnienie do funkcjonujących w Polsce dorocznych rankingów edukacyjnych. W Polsce i świecie różnego typu instytucje prowadzą rankingi uczelni. Są one w małej części oparte na analizie naukometrycznej powstałych w nich publikacji. W przeważającej części ocena opiera się na możliwości zdobycia przez absolwentów dobrego startu zawodowego. W konsekwencji w ocenie dominują takie elementy, jak: prestiż uczelni, ocena jej kadry naukowej, umiędzynarodowienie studiów, efektywność i warunki studiowania. Takie składniki, jak poziom naukowy nauczycieli akademickich i publikowanych przez nich prac, są mniej istotne. Ze względów oczywistych rankingom edukacyjnym nie podlegają instytuty naukowe Polskiej Akademii Nauk. Jest to więc dobra okazja, aby razem przeanalizować dorobek naukowy uczelni i instytutów naukowych PAN, gdyż oba typy instytucji decydują głównie o pozycji polskiej nauki w świecie.
Kryteria oceny
Jednym ze sposobów opisu osiągnięć naukowych uczelni czy instytutów naukowych (zwanych ogólnie instytucjami naukowymi) jest zestawienie liczby opublikowanych prac, ich cytowań oraz indeksu Hirscha. Jeden z autorów przedstawionej analizy po raz pierwszy opublikował takie zestawienie dla 47 uczelni i 74 instytutów naukowych Polskiej Akademii Nauk w roku 2008. Jest to chyba jedyne tak pełne zestawienie danych o publikowalności instytucji naukowych w Polsce ogólnie dostępne. W owym czasie spotkało się ono z bardzo umiarkowanym zainteresowaniem, a nawet sporą krytyką kilku osób. Od tego czasu w świadomości środowiska naukowego ocena parametrów naukometrycznych badacza ubiegającego się o finansowanie projektu stała się prawie normą. Jest to bardzo korzystne zjawisko, gdyż cytowania publikacji określonej osoby czy instytucji naukowej są najlepszym sposobem oceny wartości ich prac badawczych. Jest to rodzaj „oddania” głosu na daną publikację przez naukowców z całego świata zajmujących się podobną dziedziną, czyli osób najbardziej kompetentnych do dokonania takiej oceny. Argument o cytowaniach negatywnych jest nieuzasadniony, gdyż są one szczątkowe, a liczba autocytowań wynosi zwykle 10% całości cytowań.
Szkoły wyższe, na przykład uniwersytety, zawierają zwykle wydziały nauk humanistycznych i społecznych, których badań naukowych nie opisują dobrze parametry naukometryczne. W konsekwencji dla uczelni tego typu parametry naukometryczne uśredniają się. Znacznie gorsza jest sytuacja instytutów naukowych PAN, które z definicji zajmują się jedynie wąską dziedziną badań. Niemniej, analizą objęto także instytuty Polskiej Akademii Nauk zajmujące się badaniami z zakresu nauk humanistycznych i społecznych, zdając sobie jednak sprawę z faktu, że analiza parametryczna nie opisuje dobrze prowadzonych w nich badań. Jedynym powodem ich uwzględnienia było odparcie ewentualnego zarzutu o arbitralnym wykluczeniu określonego instytutu.
Wydaje się, że zrozumienie definicji indeksu Hirscha jest już powszechne. Gwoli przypomnienia, dla określonej instytucji naukowej wartość indeksu Hirscha (h) wynosząca 20 oznacza, że z wszystkich powstałych w niej publikacji 20 było cytowanych co najmniej 20 razy. Zmodyfikowany indeks Hirscha (hm) wiąże liczbę publikacji z wartością indeksu Hirscha. Dla instytucji naukowych zakłada się, że liczba publikacji jest w dużym stopniu proporcjonalna do liczby pracowników naukowych i zmodyfikowany indeks Hirscha (hm) wiąże liczbę publikacji (N) z uzyskanym indeksem Hirscha (h) równaniem hm = h/N0.4. Jeśli zmodyfikowany indeks Hirscha, równy na przykład 3, osiągnięto, publikując 50 prac, lepiej to świadczy o tej instytucji naukowej, niż o takiej, która tą samą wartość hm osiągnęła publikując 100 prac. Inny sposób wyjaśnienia ważności indeksu hm może być oparty na powiązaniu go z wartością indeksu Hirscha. Jeśli tę samą wartość indeksu Hirscha uzyskano publikując mniej prac, to lepiej to świadczy o danej instytucji naukowej. W obu przypadkach świadczy to o wartości naukowej takich publikacji i wysokim ich cytowaniu.
Problemy analizy
Przedstawione w następnych dwóch artykułach analizy naukometryczne uczelni i instytutów Polskiej Akademii Nauk prowadziły dwie grupy. Jedna, wywodząca się z Uniwersytetu Zielonogórskiego, zajmowała się szkołami wyższymi, a druga, z Instytutu Chemii Bioorganicznej PAN – instytutami PAN. Analizy przeprowadzono na przełomie marca i kwietnia 2013 roku w oparciu o bazę danych Web of Science (Web of Knowledge, Thomson Reuters), która obejmowała następujące zestawienia danych: Science Citation Index Expanded (SCI-EXPANDED), Social Sciences Citation Index (SSCI) i Arts & Humanities Citation Index (A&HCI). Grupa z Zielonej Góry opierała się na bazach z okresu od 1945 do teraz (baza A&HCI od 1975 do teraz). Grupa z Poznania opierała się na tych samych bazach, ale zaczynających się od roku 1900. W przypadku bazy A&HCI także od 1975 do teraz. W ocenie osób wykonujących analizę nie miało to wpływu na uzyskane wyniki analizy naukometrycznej.
Analizy prowadzono, wyszukując publikacje dla danych instytucji naukowych według skrótów adresowych stosowanych przez bazę Web od Science. Z tego względu jest bardzo ważne, aby publikacje pochodzące z tej samej instytucji naukowej miały jeden i poprawny adres afiliacyjny. Dla wielu, zwłaszcza szkół wyższych, obserwowano prawdziwy „festiwal” ludzkiej wyobraźni przy podawaniu adresów afiliacyjnych. Zdarzały się uczelnie, które w bazie danych figurowały pod więcej niż 40 różnymi adresami afiliacyjnymi. Web of Science tworzy skróty adresowe według afiliacji podanych przez autorów publikacji. Na autorach publikacji spoczywa całkowita odpowiedzialność za różnorodność skrótów adresowych spotykanych w bazie Web of Science. Szczęśliwie baza Web of Science pozwala w pewnym stopniu temu zaradzić i w sposób „okrężny” wyszukać stosowane adresy afiliacyjne, zsumować je i zastosować do analizy. Oczywiście takie podejście jest możliwe w przypadku osoby znającej polskie realia, ale trudno wyobrazić sobie, aby mógł taka analizę zrobić ktoś z zagranicy. Jest to główny powód błędów w analizach naukometrycznych, który sprawia, że dana instytucja naukowa na własne życzenie niejako „pozbawia się” części swego dorobku naukowego. Władze uczelni i instytutów PAN powinny o to zadbać w trosce o własny interes i wizerunek w Polsce i na świecie. W przypadku instytutów PAN ta różnorodność afiliacyjna jest trochę mniejsza, ale cześć z nich (zwłaszcza instytutów nazwanych imieniem jakiejś osoby) w sposób systematyczny unika podawania afiliacji do Polskiej Akademii Nauk. Baza Web of Science instytutom PAN w pierwszej kolejności przypisuje adres afiliacyjny Akademii, a potem – określonego instytutu.
Inny problem podczas analizy wynika ze zmian organizacyjnych instytucji naukowych. W przypadku uczelni (zwłaszcza tych, które utworzono w ostatnim czasie) problem wynika z tego, że powstały one z połączenia kilku mniejszych szkół. W ostatnim czasie chyba większość uczelni medycznych, rolniczych czy ekonomicznych zmieniło swoje nazwy na „uniwersytety”. Prawdopodobnie w niedługim czasie będzie to źródło dużego zamieszania w skrótach adresowych Web of Science. Może w mniejszym stopniu dotyczy to instytutów PAN, ale i tutaj kilka połączyło się czy zmieniło nazwę.
Byłoby rzeczą jak najbardziej wskazaną, aby Ministerstwo Nauki i Szkolnictwa Wyższego, a być może także Polska Akademia Nauk (w zakresie własnych instytutów badawczych), wzięły na swoje ramiona prowadzenie takich corocznych analiz. Polegałoby to na tym, że każda uczelnia i instytut PAN aktualizowałyby co roku (okres marca/kwietnia jest optymalny, gdyż baza Web of Science kończy wtedy rejestrowanie danych parametrycznych za rok poprzedni) swoje dane parametryczne. Analiza dla jednej instytucji naukowej jest prosta i nie wymaga długiego czasu. Prowadzenie własnych analiz przez uczelnie i instytuty pozwoliłoby wyeliminować błędy, które mogą się pojawić, gdy analizy prowadzi strona trzecia.
Ufamy, że analizy naukometryczne szkół wyższych i instytutów naukowych Polskiej Akademii Nauk przedstawione w dwóch kolejnych artykułach ułatwią ocenę obecnego stanu badań naukowych w Polsce. Ponadto, wierzymy, że pozwolą one na wyciągnięcie wniosków, które uczynią naukę polską bardziej efektywną i konkurencyjną oraz lepiej rozpoznawalną w świecie.
Komentarze
Tylko artykuły z ostatnich 12 miesięcy mogą być komentowane.
Cytuję autorów: "Ufamy, że analizy naukometryczne szkół wyższych i instytutów naukowych PAN ułatwią ocenę obecnego stanu badań naukowych w Polsce. Wierzymy, że ... uczynią naukę polską bardziej efektywną i konkurencyjną oraz lepiej rozpoznawalną w świecie". Ja nie ufam i nie wierzę w osiągnięcia PAN. Mam przed sobą kwartalnik "Organizacja i kierowanie", PAN nr 10/2010. Tytuły i treści 8 artykułów powalają na łopatki świat nauki i praktyki. Piszą o: zachowaniach obywatelskich, potrzebie redefinicji celu współczesnych przedsiębiorstw, potencjale konkurencyjnym, motywacji w zaawansowanych technologiach a nawet o etnocentryzmie i barierach kulturowych. Ponadto, 80 proc pozycji zawartych w bibliografiach jest anglojęzyczna, co zwiększa cytowalność konkurencji. Dla kogo są adresowane te wyniki badań? U nas 90 proc. to firmy małe, jednoosobowe, w małych miastach, a nawet na wsiach! Gadanie o kulturze organizacji, potencjale kadrowym, TQM, filozofiach jakości to kpina z tych ludzi. Nie wyobrażam sobie, żeby kiedykolwiek wzrosła konkurencyjność naszej nauki w UE.
1. Nauka to biznes? Nie! Nauka to stawianie pytań i poszukiwanie na nie odpowiedzi.
2. W czym "wyścig..." jest skuteczny?
3. A wedle czyich zainteresowań mam uprawiać naukę, jak nie własnych? Premiera? Ministra? Sąsiadów? Pana?
Słowem - litości!!! To oznacza, że tym razem nie oczekuję odpowiedzi - powyższe pytania maja charakter retoryczny. Ta odpowiedź mi już wystarczy.
Uprzejmie wyjaśniam: 1. Nie uważam za racjonalne opieranie nauki w 40mln państwie na pasjonatach, bo to wymaga przyziemnej, ale racjonalnej polityki. Nauka to biznes a nie kółko zainteresowań. 2. Dywagacje o punktach to sprawa wtórna. Argumenty są za i przeciw. Nie da się jednak ukryć, że ten wyścig szczurów jest skuteczny na świecie, trudno więc zrozumieć konstrukcje myślowe przeciwników bibliometri w RP, gdzie w zasadzie nauka to "ślepa kiszka" bez zastosowań.3. Jak Pan sobie chce uprawiać naukę wg "własnych zainteresowań" to wypadałoby znaleźć sobie sponsorów, natomiast za środki budżetowe (choćby etat) to wypadałoby "produkować" naukę, która jest potrzebna komuś jeszcze poza jej producentem:):). Pozdrawiam
Słowa te kieruję do Osoby posługującej się pseudonimem SL: jeśli z takich, jak ujawnione w tym wpisie, pozycji określony zostałem jako "naukowiec", to w zasadzie mi pochlebia. Byłbym wszakże zobowiązany za jakieś lapidarne choćby uzasadnienie dla "życzeń" zawartych w końcowej sentencji tego wpisu, dodając, że jak dotąd nie korzystałem z jakichkolwiek polskich środków budżetowych na naukę i - mając możliwość pozyskiwania innych - nie płaczę z tego powodu. Nie mam też problemu z punktami, plasując się raczej w czołówce (bywało, że i na 1. miejscu w skali uczelni) niż w ogonie. Dlaczego wszakże uważam pogoń za nimi punktami, za patologię nauki - o tym może innym razem. Najpierw poczekam na odpowiedź czy też uzupełnienie (nie licząc na konwenanse, do jakich przywykliśmy w świecie nauki - ot, czasem staram się być realistą).
Myślę, że największą cytowalność miałby Hipokrates. A co do Zygmunta, co siedzi w CK od wczesnego karbonu, to nigdy by nie powiedział, że można nic nie robić i siedzieć czekając na emeryturę. Sam tego też nie robi. Wręcz przeciwnie na RW przytaczał rozwiązania, które mogłyby podnieść poziom i rangę naszej jednostki.A Gienek Romkowi publicznie nic nie wytykał.
Bogusław Czechowicz napisał "Szanowni Państwo, w świecie nauki oprócz tych, którzy zajmują się nauką dla kariery, są też tacy, którzy zajmują się nią dla samej nauki. Znam, na szczęście, sporo takich Ludzi - jeszcze nie wyginęli (-śmy) jak dinozaury. Dajcie nam, uczonym rozmiłowanym w nauce, święty spokój z tą parametryczno-scientometryczną paranoją!!! Prawdziwy uczony robi swoje i ma w nosie punkty, rankingi, tabelki... i cały ten folklor pasożytujący na nauce"-->Jak najbardziej zgadzam się z tezą, nawet jeśli naukowcom z Koszyc i pobliskim tak się wydaje. Zresztą ani Matejko ani Moniuszko habilitacji nie mieli. Nie widzę absolutnie żadnych podstaw aby narzucać komuś jakie ma mieć zainteresowania, pasje czy ścieżki rozwoju, nawet naukowego. Jak najbardziej należy więc dać wszystkim tego typu "naukowcom" święty spokój. Ale absolutny, tj. od środków budżetowych również tj. cały ten folklor pasożytujący na pkb...:):)
Pytanie wręcz zasadnicze: skąd takie bałwochwalcze podejście do pojedynczej bazy danych Thomson-Reuters z kompletnym ignorowaniem Scopusa, IEEExplore, PubMedu i innych? Coverage TR jest niekompletny, indeksacja wybiórcza i wbrew wyznawanej propagandzie nie jest reprezentatywna. Na Zachodzie nasze zauroczenie wyłącznie indeksacją TR traktują jako solidną aberrację umysłową, stawiając nas obok dwóch innych krajów obciążonych tą dewiacją: Chin i Rumunii. No więc skąd ta wybiórczość?
Pomysł stworzenia obiektywnych wskaźników do oceny działalności naukowej jest bardzo dobry, ale jak powszechnie wiadomo, diabeł tkwi w szczegółach. Wielu ludzi do niedawna nie wiedziało nawet o istnieniu czegoś takiego jak JCR, IF (funkcjonowało pojęcie "Lista filadelfijska), h index itd. itp. A dziś jest normalnie "wysyp" specjalistów, którzy bawią się w globalną ocenę całej polskiej nauki w oparciu o wskaźniki, które nie do końca są dla nich zrozumiałe (oczywiście nie mam tu na myśli autorów powyższego artykułu). Zachłyśnięcie się tymi "rewelacjami" ma skutki komiczne, ale dla nauki tragiczne. Jeżeli np. praca danego autora została skrytykowana w wielu innych pracach, zostanie to zaliczone jako wysoki wskaźnik cytowań? Jak np. sprawdzić obiektywnie współczynnik oddziaływania Filologii Polskiej? Z całym dlań szacunkiem, na świecie nie ma tak dużo jej fanów, a zatem i indeks cytowań będzie niski. To co? Filologię Polską należy "skasować" z powodu niskiego IF, h index itp.? Jest wiele dziedzin nauki, których wartość i skuteczność w ten sposób trudno zbadać. A nawet w samych wskaźnikach mogą być rozbieżności. Każdy średnio zorientowany (i przytomny) naukowiec wie, że WoK i WoS dają inne wyniki (często niższe) niż np. Scirus, Scopus, Publish or Perish (czy choćby GoogleScholar); nie tylko jeśli chodzi o liczbę cytowań czy indeks Hirscha, lecz również jeśli chodzi o liczbę publikacji danego autora, co pociąga za sobą różnice we wskaźnikach. I powstaje pytanie: Czym jest powodowane takie silne przywiązanie władz i wszelkiej maści "naukometrologów" do WoK i WoS? Czy za tym przemawiają tylko względy merytoryczne czy też inne? Np. "sztywność umysłowa" i ograniczenia decydentów czy skuteczny lobbing? Niewątpliwie należy oceniać efekty polskiej nauki, ale trzeba też uwzględniać wiele różnych czynników po to, żeby ocena ta była pożyteczna.
Ten ranking ma jedną wielką słabość. Nie uwzglednia tego, że różne nauki publikują z różną intensywanością i z rózną intensywnością się cytują. Nie można porónywać jabłek z gruszkami. Na przykład uniwersytety medyczne zawsze będą lepiej wypadać niż uniwersytety ekonomiczne, bo jest tam inna kultura publikowania i cytowania.
[url]www.wp.pl[/url]
dasd as <a href="http://www.wp.pl">czy to dziala?</a>
T. Penczak @ 30 maja: "Może powinienem na odbitkach podawać prywatny adres?"
- Tak, moim zdaniem tak. Uniwersytety III RP niestety nie wypracowały sprawnego traktowania swoich emerytów, chocby nawet byli oni wybitnymi naukowcami. (Zupełnie inaczej było w II RP). Część obecnych profesorów-emerytów jest dalej zatrudniana na kontraktach, ale znam kilka przykładów, gdy uczonych klasy europejskiej dość obcesowo zwalniano, to znaczy nie zatrudniano dalej.
W krajach anglosaskich istnieje cały katalog różnych rozwiązań zarówno dla "emerytów" jak i przydatnych pracowników różnych "instytutów". O wieloetatowosci oczywiście nie ma mowy. Natomiast zasadą jest w miarę wystarczające wynagradzanie profesorów i umożliwienie im wzglednej niezależnosci finansowej po przejściu w stan spoczynku, co jest regułą. Wiem, co piszę, bo przepracowałem w sumie około 30 lat w różnych uniwersytetach anglosaskich.
Tym niepoprawnym szczegółem, który jakoś unika dyskusji, jest niedopłacanie pracowników akademickich już od roku 1945, nieprzerwanie do dnia dzisiejszego, a także brak sprawnego systemu emerytalnego typu anglosaskiego superannuation. Stan tendoprowadził do znacznej pauperyzacji polskiego środowiska profesorskiego i można się tylko zastanawiać, jak dalece było to niezamierzone.
Jeżeli profesor w stanie spoczynku (celowo unikam słowa "emerytowany") nie może sobie sam opłacić udziału w jednym-dwóch konferencjach czy sympozjach rocznie to znaczy, że system uznaje go za niepotrzebnego, co obawiam sie, ma własnie miejsce.
Problem ten jest nader palący i leży u podstaw obecnej zapaści polskiej nauki.
Pozdrawiam.
Przeczytałem ten tekst z zainteresowaniem jednak z małą nadzieją, że się coś u nas zmieni. Jestem profesorem emerytowanym od roku 2006 i po tym terminie z afilacją dla mojej uczelni opublikowałem 26 prac w indeksowanych czasopismach (mój indeks Hirscha ponad 20, suma indeksów cytowań ponad 200), ale władze uczelni nie zapytały mnie nigdy ile na ten cel poszło pieniędzy z mojej małej emerytury. Jestem nadal zapraszany na sympozja z referatem, ale moja emerytura (miesięczna) nie starczy na dojazd na Univeristy of Ohio. Programy komputerowe, niezbędne książki nadal kupuje sam mimo rozpaczliwych protestów mojej żony. Napisałem na ten temat artykuł do Forum Akademickiego (Penczak T 07-08.2011 Grant dla seniora Forum Akademickie)i żadnego odzewu. Może powinienem na odbitkach podawać prywatny adres? Łącze ukłony, Tadeusz Penczak
Bardzo naukowa, zważona, zmierzona nauka nauką, ale to wstyd, by portal mający być forum naukowców eksponował takie błędy - chodzi o zapis daty generowany przy każdym wpisie: nie (np.) 27 Maj 2013 r., ale 27 maja 2013 r. Czy można z tym zrobić porządek i nie siać zgorszenia?
Bardzo ciekawe, potrzebne i ważne dane. Od naukometrii, bez względu na komentarze, się nie ucieknie, trzeba ją tylko robić sensownie.
Cała ta "naukometria" jest tylko rodzajem niebezpiecznej choroby umysłowej. Żadne wskaźniki Hirsha i inne idiotyzmy tego rodzaju zupełnie niczego nie wnoszą w sensie poztywnym, natomiast jak najbardziej w sensie negatywnym - pozwalają na kompletne zniszczenie tego, co jest istotą prawdziwej nauki i co nie ma absolutnie żadnego związku z idiotycznymi punkcikami zbieranymi przez miłośników zbieractwa, którzy z jakiegoś, im znanego, powodu doszli do wniosku, że są naukowcami. Otóż nie są, ilu by sobie punktów nie przyznali.
Niemrawa dyskusja raczej nie dziwi w tym przypadku. Jeżeli coś dodać to może to, że wykorzystując opisaną metodologię można by pójść dalej i próbować obliczyć indeks Hirscha lub dowolną jedgo modyfikację dla całych ośrodków akademickich, a także miast, regionów, krajów i kontynentów. Mogłoby to być podstawą dla nowej dyscypliny (jeżeli jeszcze taka nie istnieje) geografia nauki. która pozwoliłaby w sposób oparty na wiedzy ocenić wkład w rozwój współczesnej nauki różnych części Ziemi. Przy okazji możnaby wreszcie ustalić wartość indeksu Hirscha, osiągnięcie której uprawniałoby do ubiegania się o Nagrodę Nobla. Dotychczasowa niejasność w tej kwestii może być wysoce deprymująca dla wielu młodych ambitnych badaczy.
Szanowni Państwo,
w świecie nauki oprócz tych, którzy zajmują się nauką dla kariery, są też tacy, którzy zajmują się nią dla samej nauki. Znam, na szczęście, sporo takich Ludzi - jeszcze nie wyginęli (-śmy) jak dinozaury. Dajcie nam, uczonym rozmiłowanym w nauce, święty spokój z tą parametryczno-scientometryczną paranoją!!! Prawdziwy uczony robi swoje i ma w nosie punkty, rankingi, tabelki... i cały ten folklor pasożytujący na nauce.
odnośnie cytowalności - a co z negatywnymi cytowaniami? Ktoś coś napisze okropnego, poniżej jakiegokolwiek poziomu, będzie to szeroko komentowane, cytowane w wielu innych pracach, krytykowane i negowane... ale cytowalność wrasta, wzrasta! Ktoś będzie liczył "pozytywne" cytowania? ;)
Niestety, żyjemy w okresie dominacji kryteriów ilościowych. Jakość badań i przydatność ich rezultatów okaże się dopiero po dłuższym czasie. Wysoki poziom cytowań można osiągnąć nie tylko dzięki wysokiej wartości naukowej wyników, ale często w ramach "towarzystwa wzajemnej adoracji", czyli mu cytujemy wasze prace, a wy nasze itd.
Cyt: "Szkoły wyższe, na przykład uniwersytety, zawierają zwykle wydziały nauk humanistycznych i społecznych, których badań naukowych nie opisują dobrze parametry naukometryczne. W konsekwencji dla uczelni tego typu parametry naukometryczne uśredniają się. Znacznie gorsza jest sytuacja instytutów naukowych PAN, które z definicji zajmują się jedynie wąską dziedziną badań."
Wspomniane przez autorów szkoły wyższe, np. uniwersytety, zajmują się - nade wszystko - dydaktyką, która z całą pewnością nie jest parametrem naukometrycznym. Jak to się ma do instytutów PAN, w której dydaktyka nie rozprasza aktywności naukowej? Co to oznacza "wąska dziedzina badań" i na ile ta dziedzina jest węższa od dziedziny badań podejmowanych np. w uniwersytetach? Czy są jakieś obiektywne ograniczenia merytoryczne?
Sugestia: Problem afiliacji może rozwiązać odpowiednio do realiów Polski zaprojektowana baza danych współpracująca z bazami zliczającymi cytacje, np. ze wspomnianą Web of Science. Sama WofS takową nie jest, a na dowód tego można przytoczyć problem "podwójnej afiliacji" czy wspomniany "festiwal nazw". Może jakiś miks PBN i WofS da radę uczciwie zliczyć cytacje?
Podsumowanie: Rankingi naukometryczne wskazują raczej na aktywność naukową a nie na jej jakość. Dobre i to, przynajmniej docenimy pracowitych, odnotujemy nierobów a wybitni będą gdzieś tam w środku.