Okiem praktyków
– Czasem dane opowiadają historie, których nie ma w waszych publikacjach – przekonywał Kevin Ashley, dyrektor brytyjskiego Digital Curation Center, instytucji powołanej w celu szerzenia dobrych praktyk w zakresie archiwizacji i udostępniania danych. Podkreślał, że dostępne w sposób otwarty dane zwiększają liczbę cytowań zarówno samych danych, jak i powiązanych z nimi publikacji. Efekty widoczne są nawet dla zbiorów danych, które nie są podstawą żadnej publikacji, jeśli są one zarchiwizowane, możliwe do odnalezienia i cytowalne. Korzystają na tym zarówno sami naukowcy, jak i instytucje naukowe i wydawcy.
Co zatem jest potrzebne, aby usprawnić dzielenie się danymi badawczymi? Infrastruktura dla otwartych danych jest bardzo ważna, ale – jak podkreślał Mark Parsons z Research Data Alliance – nie można jej sprowadzać do samej tylko technologii: sprzętu i oprogramowania. RDA – powstała przed zaledwie dwoma laty organizacja zrzeszająca już około 3 tys. członków z całego świata, wśród których są zarówno instytucje, jak i indywidualni naukowcy – za cel stawia sobie zwiększanie innowacyjności poprzez wymianę danych naukowych. Zdaniem Parsonsa, infrastruktura to relacje, interakcje i połączenia pomiędzy ludźmi, technologiami i instytucjami. Aby umożliwić swobodny przepływ danych, trzeba zapewnić odpowiednie warunki: określić polityki udostępniania danych w instytucjach naukowych, opracować specyfikacje i standardy, które zapewnią interoperacyjność danych i ułatwią ich powtórne użycie, a także wypracować zasady cytowania zbiorów danych.
Pierwszą sesję, poświęconą strategiom, politykom i wybranym praktykom udostępniania danych, otworzyło wystąpienie Giulii Ajmone-Marsan z OECD, która przedstawiła kluczowe wnioski ze swojej pracy nad niepublikowanym jeszcze raportem „Making Open Science Happen”, który jest poświęcony strategiom otwartości w nauce. Raport pokazuje, że nie są one jeszcze powszechnie przyjmowane na szczeblach krajowych i że nadal dominują inicjatywy oddolne. O ile jednak niektóre kraje wprowadzają już strategie otwartego dostępu do publikacji naukowych, to w dziedzinie danych jest znacznie więcej do zrobienia. W kolejnych wystąpieniach tej sesji prezentowane były przykłady inicjatyw, polityk i praktyk realizowanych przez poszczególne instytucje naukowe, takie jak Uniwersytet w Cambridge, Leibniz Information Centre for Economics w Hamburgu/Kilonii, Politechnikę Gdańską oraz przez dostawców usług dla nauki: wydawnictwo Elsevier i firmę Thomson Reuters, a także przez polską Bibliotekę Narodową, która przedstawiła bibliotekę cyfrową Polona.
Druga, a zarazem najdłuższa, sesja konferencji dotyczyła narzędzi i metodologii służących otwieraniu danych, które prezentowali uczestnicy z wielu krajów europejskich, w tym także z Polski. Sesję otworzył wykład Daniela Hooka z Figshare – popularnego również w Polsce serwisu umożliwiającego naukowcom deponowanie wszelkich materiałów naukowych, w tym także danych. Wśród zaprezentowanych rozwiązań znalazło się narzędzie udostępniania danych z obszaru nauk o życiu stosowane na Politechnice Federalnej (ETH) w Zurichu oraz metodologia służąca formalnemu opisowi procesów badawczych powstająca na Uniwersytecie Sapienza w Rzymie. Przedstawiciel Politechniki w Madrycie zwracał uwagę, że nie wystarczy samo udostępnianie danych – ważna jest również archiwizacja procedur badawczych. Spośród polskich narzędzi zaprezentowano BASE – bazę danych biogeograficznych i oceanograficznych współtworzoną przez Instytut Oceanologii PAN, powstającą w ICM bazę danych pochodzących z symulacji kosmologicznych COCOS, oraz RepOD – repozytorium danych badawczych przeznaczone dla polskich naukowców, tworzone przez Platformę Otwartej Nauki ICM. Standaryzacja danych opisujących cechy fenotypu roślin była tematem wystąpienia przedstawiciela Instytutu Genetyki Roślin PAN. Przegląd polskich narzędzi i metodologii zakończyła prezentacja rozwiązania opracowanego w Wyższej Szkole Informatyki i Zarządzania z siedzibą w Rzeszowie, które umożliwia automatyczny monitoring, analizę i wizualizację otwartych danych.