Trzy razy wynalazłem koło

Rozmowa z prof. Włodzisławem Duchem, podsekretarzem stanu w MNiSW

Jest pan fizykiem, chemikiem, filozofem. Kim właściwie pan jest?

Naukowcem. Ostatnio mówię: kognitywistą. Kieruję Laboratorium Neurokognitywnym na Uniwersytecie Mikołaja Kopernika w Toruniu.

A co to ma do chemii i fizyki?

Kiedy trzeba było organizować informatykę na uniwersytecie, to akurat się nadawałem, bo interesowałem się sztuczną inteligencją i byłem po habilitacji. Powstał Zakład Metod Komputerowych, potem Katedra Informatyki Stosowanej. Zaczęliśmy się zajmować metodami, które dziś są szalenie modne, czyli sieciami neuronowymi, uczeniem maszynowym, informatyką kognitywną. Systemy wizyjne, samochody, które widzą drogę, maszyny, które się uczą – to się robi modne.

Był pan też prorektorem UMK, a ja się zastanawiam, czy z takim nazwiskiem da się twardo stąpać po ziemi.

Staram się. Zrobiłem sobie jakiś czas temu listę dziedzin i uczelni, w których miałem wykłady: począwszy od robotyki kognitywnej na AGH w Krakowie po Instytut Psychiatrii w Monachium, a w końcu udało mi się w Singapurze zrobić pierwszy wykład z metod inteligencji obliczeniowej. Mamy grant w pierwszym konkursie Symfonia – był sklasyfikowany na drugim miejscu, tuż po grancie prof. Duszyńskiego – w którym zgromadziłem psychologów kognitywistów, matematyków, informatyków, elektroników, automatyków, fizyków, psychiatrów dziecięcych, ludzi od słuchu z Kajetan. W tym widzę przyszłość informatyki – na uczelniach możemy zrobić coś, czego nie jest w stanie zrobić żadna firma.

Uczelnia ma przewagę nad firmą?

Tak, oczywiście. Tu mamy ludzi o różnych kompetencjach, których można zgromadzić w razie potrzeby w jednym laboratorium. W Interdyscyplinarnym Centrum Nowoczesnych Technologii, gdzie jest moje Laboratorium Neurokognitywne, możemy robić rzeczy złożone, które nie sprowadzają się do napisania programu. Trzeba dysponować całym szeregiem umiejętności, żeby zająć się informatyką kognitywną.

Powiedział pan, że uniwersytety mają przewagę nad firmami…

Ale nie korzystają z tego…

Ponieważ…

Taka jest ich specyfika. Bo jest bardzo trudno współpracować międzywydziałowo. Robienie doktoratów interdyscyplinarnych jest dziś prawie niemożliwe, bo mamy oficjalną listę dyscyplin. Występują one w tak wielu miejscach, że trudno je wyrzucić z przepisów ot tak sobie. To wymaga zmiany ustawowej. Sądziłem, że przez rok uda się to zmienić, ale się nie udało. Wszyscy są za tym, żeby przejść na szerokie obszary, zamiast sztywnych dyscyplin, jednak prawo jest bardzo skomplikowane. Nie zdawałem sobie z tego sprawy, dopóki się nie znalazłem w ministerstwie. To wymaga bardzo wielu konsultacji, żeby uzyskać jakieś szersze poparcie dla zmian. Na siłę nie da się tego rzetelnie zrobić.

Dawno pan publikuje w otwartym dostępie?

Bardzo dawno. Czasami decydowałem się, za zgodą wydawnictw i redakcji czasopism, na wystawianie wstępnych wersji prac na swojej stronie WWW. Nie zawsze jest to korzystne dla autora, bo jeśli coś wystawiam, a artykuł ten jest w bazach dostępnych publicznie dla naukowców, to jest on z tych baz rzadziej ściągany. Tymczasem redakcje liczą, ile razy artykuł jest ściągany. Mówiąc krótko, publikując wstępną wersję prywatnie on-line, narażamy się na straty w innym miejscu, ważnym choćby z powodu oceny dorobku. Mamy zatem dwie sprzeczne tendencje. Z jednej strony na podstawie liczby ściągnięć publikacji tworzy się ranking, a zatem powinno nam zależeć, aby tekst był ściągany z głównego, oficjalnego miejsca publikacji, z drugiej chcemy zawczasu pokazać światu, co robimy, żeby szybko, na etapie pomysłu, skonfrontować to z pomysłami innych. Dzięki temu, że udostępniałem swoje prace, nawiązałem liczne kontakty, byłem zapraszany do projektów, zgłosiły się nawet firmy. Np. Bayer Diagnostics odnalazła moje prace i zaprosili mnie do poprowadzenia warsztatu podczas wielkiego zjazdu – dyskutowaliśmy, co warto zrobić z ich maszynami, które robią testy hematologiczne. Jeśli ktoś pracuje tylko po to, żeby zrobić stopnie naukowe, a potem skarży się, że „ministerstwo wymusiło”, to nie ma to sensu. Publikujmy jak najlepsze rzeczy, publikujemy w dobrych miejscach, nawiązujmy sensowną współpracę, a kariera potoczy się sama.

Kiedy pan dostrzegł, że warto wystawiać prace w wolnym dostępie?

Gdy zaczęło powstawać WWW. Pierwszą pracę napisałem wspólnie za pomocą dość prymitywnego systemu e-mailowego, który się nazywał Bitnet. Siedziałem w Monachium w Instytucie Maxa Plancka…

Astrofizycznym zresztą…

To prawda. Pracowałem nad rozwojem oprogramowania, które służyło do obliczeń własności cząsteczek. Zrobiłem bardzo wyrafinowany program i nie było się z czym porównać. Znalazłem tylko jedną pracę naukowca z Cambridge. Nasze wyniki były jednak odmienne. Przez trzy miesiące szukałem przyczyny: mogła być zła teoria lub coś na poziomie samego programu; kompilatory nie były wówczas tak dobre jak teraz, więc wywalało się całą optymalizację. W końcu dowiedziałem się, że w Kopenhadze jest człowiek, który ma możliwość obliczenia tego co ja trochę inną metodą. Skontaktowałem się z nim za pomocą Bitnetu – był rok 1987. Okazało się, że jego wyniki były takie, jak moje. Uznałem, że to my mamy rację, a nie kolega z Cambridge. Napisaliśmy krótką pracę wspólnie. To było potrzebne, żeby następni, którzy będą pisać podobne programy, nie tracili czasu na poszukiwanie rzeczy, które ktoś już odkrył i policzył. Na początku lat 90. mieliśmy możliwość wchodzenia w projekty europejskie, jak Tempus. Udało mi się dostać 800 tys. ECU, czyli około miliona dolarów w projekcie, który zmontowałem całkowicie elektronicznie z ludźmi, których znałem tylko z literatury.

Taki wirtualny zespół badawczy...

Tak. To byli ludzie z Cambridge, Leeds, Tuluzy, Reims i Monachium. Duży projekt, który wymagał udostępniania informacji. Wtedy – w 1993 r. – w CERN powstały pierwsze serwery, na których zaczęto publikować dane badawcze. Także w Polsce powstały wkrótce trzy pierwsze serwery: w Warszawie, Krakowie i Toruniu. Pismo „Bite” napisało, że to taka ciekawostka, że ci ludzie z CERN wystawiają tam różne informacje. Tymczasem myśmy ten serwer uruchomili, żeby współpracować z sześcioma instytucjami w Europie w celu realizacji programu Computer Aided Education. Serwery, na których wystawialiśmy preprinty do ściągania przez FTP, bardzo posunęły nas do przodu. To był taki pierwotny otwarty dostęp do wstępnych wersji publikacji, ale jeszcze nie w czasopismach. Do połowy lat 90. to była raczej spontaniczna działalność.

Nie mamy jeszcze do czynienia z organizacją czy ruchem społecznym open access.

Ja ze trzy razy wynalazłem koło przez to, że nie było dostępu do danych, do informacji. Kiedyś w Cambridge zacząłem opowiadać, że zrobiłem pewną metodę wizualizacji. A specjalista od pamięci z Medical Research Council mówi mi: takie coś to psychometrzy robią już od dawna. Nawet nie wiedziałem, kto to są psychometrzy – okazało się, że to dziedzina zajmująca się pomiarami cech osobowości człowieka. Zaczynałem się wtedy zajmować sieciami neuronowymi i psycholodzy nas namówili, żeby zrobić system do automatycznej analizy cech osobowości. Ta wizualizacja wyszła przy okazji. Ludzie, nie mając dostępu do literatury, nie wiedząc o sobie nawzajem, zaczynali robić te same prace niezależnie i równolegle. Krótko mówiąc, dostęp do informacji zupełnie zmienił nasz sposób działania, umożliwił nam poruszanie się do przodu zamiast kręcenia się w kółko.

Dostęp do publikowanych czasopism to też dostęp do informacji.

Jeśli był! A zwykle go nie było, bo są drogie, rozproszone, jest ich wiele.

Co zmienia otwarty dostęp?

Często jest się w miejscu, gdzie nie ma się dostępu do wszystkiego. Zaczynam robić coś nowego, a nie mam literatury z tej dziedziny…

Np. gdy powstawała kognitywistyka.

Gdy pojawiają się nowe gałęzie wiedzy, otwarty dostęp do publikacji jest kluczowy. Czasami nawet trudno znaleźć recenzenta pracy w nowej dziedzinie.

W pewnym momencie open access zaczął być ubierany w ramy prawne.

Jakby nie patrzeć, ludzie chcą publikować porządnie w czasopismach dobrze ocenianych. Wydawcy chcą zabezpieczać swoje prawa majątkowe.

Użył pan sformułowania „publikować porządnie”. W tym kontekście jest pytanie nie tylko o jakość czasopism, lecz także o rolę wydawnictw, redaktorów, również w przypadku publikacji otwartych.

Trzeba mieć kontrolę metod statystycznych w publikacji, kontrolę językową, musi to jakoś wyglądać. Zatem rola wydawcy nie ginie, pozostaje ważna. Nie da się porządnie publikować bez redaktora.

Mamy jednak w Polsce konflikt wydawcy – bibliotekarze, którym ustawa przypisała szczególną rolę w działalności open access.

Bo to bibliotekarze udostępniają czasopisma, treści naukowe.

Publikacja w dobrym czasopiśmie w otwartym dostępie dużo kosztuje, od półtora do nawet trzy tysiące dolarów.

W czasopismach tradycyjnych też się czasami sporo płaci, a subskrypcja tych czasopism jest bardzo droga. Nasi naukowcy tego nie odczuwają, bo mamy licencje krajowe dla naukowców do różnych baz pełnotekstowych, płacimy za to z centralnego budżetu, a naukowcy mogą korzystać z nich za pośrednictwem Wirtualnej Biblioteki Nauki.

Proszę spojrzeć na system otwartej nauki z punktu widzenia ministra.

Kiedy porównujemy polską naukę z nauką światową, okazuje się, że nasze publikacje są rzadko cytowane. Mamy w naukach ścisłych dwa razy więcej cytowań niż Finlandia, ale też siedmiokrotnie więcej mieszkańców. Mamy za to o połowę mniej cytowań niż Holandia, która liczy 17 mln mieszkańców i ma tylu naukowców, co Polska. Nasze cytowania nie są mocno widoczne poza kilkoma dziedzinami: matematyką, fizyką, chemią, nauką o materiałach. W obszarach, gdzie publikacje były tylko na papierze, nie są w ogóle widoczne. Konkluzja jest taka, że jeśli jakieś publikacje pojawią się w otwartym dostępie, ich cytowalność wzrasta. Otwarty dostęp pomaga, bo dziedzina, której nie było widać, nagle staje się widoczna. Skanowanie i przenoszenie do formatu elektronicznego czasopism ma zatem dość istotne znaczenie.

Mamy w ministerstwie Zespół ds. otwartego dostępu do treści naukowych, który stworzył dokument zawierający rekomendacje do rozwoju tego obszaru. Większość krajów ma taki dokument. Są to zalecenia, dlaczego warto publikować w otwartym dostępie, jakie są możliwe formy publikacji w ten sposób, jakie licencje, na które można się powołać, zalecenia dla instytucji grantowych. To są zalecenia miękkie. Gdybyśmy bowiem chcieli w tej chwili wszystko w Polsce publikować w otwartym dostępie i za to płacić, to nas po prostu na to nie stać. Oceniliśmy kiedyś w Instytucie Fizyki na UMK, że gdybyśmy publikowali tylko w otwartym dostępie i całkowicie zrezygnowali z subskrypcji, będzie nas to kosztować cztery razy więcej. Zatem tradycyjne czasopisma, które subskrybujemy, ale możemy w nich publikować za darmo, mają swoje zalety. Chcielibyśmy, aby te duże wydatki na publikacje otwarte zmniejszyły nam koszt subskrypcji. Żebyśmy nie dokładali do dwóch stron tego przedsięwzięcia. Tymczasem duże wydawnictwa co roku przychodzą i mówią: jeszcze 7 procent więcej. W końcu udaje się nam po dłuższych negocjacjach uzgodnić, że ten wzrost będzie o 2-3 procent. Cały czas rośnie dotacja dla obcych wydawców, a jednocześnie coraz więcej osób publikuje w tych wydawnictwach w systemie open access i płaci za to duże pieniądze, np. z grantów, które są finansowane z budżetu. Pojawiały się mieszane systemy, np. czasopisma Frontiers in Neuroscience, a potem ponad 50 następnych Frontiers in…, w których płaci się dużo za publikację w otwartym dostępie, ale są też publikacje przeglądowe (zamawiane przez wydawcę, zatem autorzy nie płacą za ich publikację), które trzeba opłacić metodą subskrypcji. W przypadku Springer Open mamy licencję krajową i możemy publikować w otwartym dostępie za darmo. To nam obniża koszty poniżej 400 euro za artykuł, a normalnie byłoby to tysiąc euro. Tak czy inaczej, wydawcy zarabiają na tym z dwóch stron: biorąc opłatę za publikację, a następnie za dostęp do niej, za licencje krajowe. Jest to jednak o tyle uczciwe, że tam, gdzie nie płaci się za publikację, trzeba zapłacić za subskrypcję.

Czy wyobraża sobie pan, że całe wyniki badań są publikowane w otwartym dostępie?

Wyobrazić sobie to można. Gdybyśmy mogli zredukować koszty Wirtualnej Biblioteki Nauki i te pieniądze przerzucić na publikacje w otwartym dostępie, gdyby to się równoważyło, to bylibyśmy za tym. Ale to jeszcze trochę potrwa. W niektórych gałęziach, np. medycynie, podchodzi się do sprawy tradycyjnie i będzie trudno taką zmianę przeprowadzić. Otwarty dostęp jest też ważny z punktu widzenia poprawy jakości badań, zwłaszcza w naukach eksperymentalnych, bo trzeba wyniki weryfikować, powtarzać doświadczenia.

Otwartość dotyczy dziś zatem nie tylko treści naukowych, lecz także danych.

Oczywiście. Bez tego trudno sobie wyobrazić postęp i weryfikowanie wyników w wielu dziedzinach wiedzy. Ciekawym, nowym ruchem jest Open Source Hardware. Ludzie robią projekty sprzętu i wystawiają je, żeby inni mogli coś dorzucić, poprawić. Duże firmy elektroniczne zaczęły iść w tym kierunku. To podobno posuwa elektronikę do przodu. Jedyna firma bardzo zamknięta to Apple, ale oni mają wszystko nietypowe, za to wprowadzili otwarte licencje na część oprogramowania.

Cośmy zrobili, co nas czeka w problematyce otwartego dostępu?

Mamy Wirtualną Bibliotekę Nauki, zrealizowaliśmy projekt SYNAT, w którym połączyły się dwa konsorcja, w których uczestniczyło 16 instytucji badawczych. Rozwiązano szereg problemów technicznych, powstał portal INFONA – wyszukiwarka, przez którą indeksowane są polskie czasopisma naukowe. Mamy 24 uczelniane repozytoria prac naukowych. ICM podpisuje umowy z wydawcami czasopism, żeby stworzyć krajowe repozytorium – w tej chwili jest to chyba 650 umów. Oprócz tego jest Repozytorium Cyfrowe Instytutów Naukowych, stworzone przez PAN i instytuty badawcze. Poskanowali swoje czasopisma od lat powojennych. Mamy DARIAH – PL, czyli cyfrową humanistykę. Jest Federacja Bibliotek Cyfrowych, która działa w kontekście europejskim. Zrobiliśmy krok w stronę informacji o cytowaniach, czyli bazę tzw. bibliografii załącznikowych, żeby zobaczyć, kto kogo cytuje i ile które czasopismo jest warte – to jest potrzebne do oceny czasopism, to pozwala nam zobaczyć, czy ktoś cytuje te 2 tysiące czasopism, które się w Polsce ukazują. Marzy mi się takie polskie PLOS ONE – mamy ponad 160 czasopism historycznych, przenieśmy to wszystko na jedną platformę, która będzie się zajmować historią. Zdaję sobie sprawę, że to marzenia, że są liczne przeszkody. Ale jesteśmy technicznie w dobrej sytuacji: mamy duże moce obliczeniowe, dobre superkomputery i dobrą łączność między nimi.

Niestety, w nowej ustawie o finansowaniu nauki nie ma mowy o dofinansowaniu czasopism.

Ubolewam nad tym. Jest tylko możliwość jednorazowego wspomożenia umiędzynarodowienia czasopisma, stworzenia wersji elektronicznej, wersji on-line. Próba wyeliminowania z rynku najsłabszych czasopism może się skończyć tym, że wylejemy dziecko z kąpielą. Dlatego rozważamy możliwość finansowania dostępu do polskiej literatury naukowej przez Wirtualną Bibliotekę Nauki.

A dane naukowe?

Potrzebny jest nam dostęp do danych eksperymentalnych, dostęp do informacji, które ktoś zgromadził, żeby je dalej przetwarzać, opracowywać, interpretować. Tak tworzy się nowoczesna nauka. Musimy jednak znać zagrożenia. Są naciski, aby zbierać informacje o chorobach, prowadzić badania przesiewowe i epidemiologiczne. Mając informacje, jak kto jest leczony, o efektywności terapii i jej kosztochłonności, możemy podjąć dobre decyzje, co robić dalej w różnych obszarach, jak kogo leczyć, aby było to skuteczne. Jednak dane medyczne są wrażliwe, ktoś może je wykorzystać do celów innych niż naukowe. Powierzchnia Polski jest świetnie zobrazowana za pomocą lidaru – widzimy dużo miejsc, gdzie można coś odkryć. Ale archeolodzy obawiają się, że mogą się do tego dobrać poszukiwacze skarbów i narobić nieodwracalnych szkód. Są zatem także zagrożenia związane z otwartymi danymi, które musimy uwzględnić.

Rozmawiał Piotr Kieraciński