Zaskoczyło mnie pojawienie się na łamach Polityki artykułu Segregacja prasowa Sławomira Tumańskiego. Zawsze wydawało mi się, że problem jakości narzędzi oceny badań naukowych jest dla Polityki zbyt specjalistyczny. Tak zresztą uważają znajomi dziennikarze, z którymi na ten temat rozmawiałem i moi koledzy, znawcy bibliometrii, którzy przekonali się o tym, że ich doskonałe analizy nie znajdują uznania u redaktorów tygodników opinii mimo, że są krótkie i napisane w przystępny sposób. Jeśli więc piszą na ten temat, publikują w „Forum Akademickim”, które dociera do bardzo wąskiej grupy w środowisku akademickim. Owszem, pojawiło się kilka, a może nawet kilkanaście artykułów na tematy związane z listą filadelfijską i indeksem Hirscha, ale zawsze albo kogoś atakowały – a to się dobrze sprzedaje, albo starały się coś załatwić i – jak podejrzewam zostały napisane przez osoby dysponujące siłą przebicia.
Sławomir Tumański, profesor i redaktor naczelny miesięcznika „Przegląd Elektrotechniczny” atakuje listę filadelfijską. W ostatnim zdaniu artykułu diagnozę: „Choroba filadelfijska ma więc swoją polską odmianę – jest zadowolona z siebie grupa mistrzowska i sfrustrowana, bez szans na rozwój naukowy, reszta środowiska”. Oczywiście, jak dobry lekarz, proponuje też terapię: „Może warto pomyśleć o polskim instytucie oceniającym naukę i polskiej liście rankingowej. Pole do popisu maja też polscy europosłowie – dlaczego nie powołać obiektywnego instytutu europejskiego, podobnego do amerykańskiego”.
Zaniepokoiły mnie te dwa zdania. Uważam oba pomysły za absurdalne, ale pierwszy bez trudu może znaleźć poparcie wielu wpływowych osób, kierujących prowincjonalnymi uczelniami i instytutami badawczymi i mających dostęp do uszu polityków. Drugi natomiast dobrze wpisuje się w działania Unii Europejskiej, od czasu uchwalenia słynnej Strategii Lizbońskiej buduje wizerunek organizacji, dla której jednym z priorytetów jest przegonienie Stanów Zjednoczonych w badaniach i innowacji.
Artykuł profesora Tumańskiego jest dobrze skonstruowany. Przede wszystkim buduje obraz Instytutu Thomsona – twórcy Listy Filadelfijskiej – jako instytucji skrajnie elitarystycznej, działającej w sposób “niezupełnie jasny” lub wręcz “niezupełnie nieuczciwy”. Temu służy zapewne zabieg erystyczny, polegający tym, że pan profesor tłumaczy Master Journal List jako Listę Mistrzowską. A przecież master key, to nie jest klucz mistrzowski, lecz klucz uniwersalny, a master plan to nie plan mistrza, ani plan mistrzowski, tylko plan ogólny. Jeśli to błąd, to jest to błąd elementarny, studencki, którego przecież profesor nie mógłby popełnić. Trzeba więc uznać, że jest to manipulacja. Manipulacji jest więcej. Kolejna polega na podgrzewaniu starego sporu pomiędzy twórcami i urzędnikami: “Naukowcy nie godzą się na automatyzm urzędniczej oceny …”. A przecież, oparte o Listę Filadelfijską, algorytmy “oceny parametrycznej układali nasi koledzy profesorowie, członkowie KEJN – Komitetu Ewaluacji Jednostek Naukowych. Wcześniej Listę Filadelfijską jako podstawę oceny badań naukowych rekomendowało inne ciało profesorskie – KBN. Przeciętny czytelnik jednak tego nie wie, i po przeczytaniu artykułu Segregacja prasowa zobaczy biednego polskiego naukowca w kleszczach nieuczciwych amerykańskich korporacji i polskich, nie rozumiejących nauki, urzędników.
Będę bronił honoru Listy Filadelfijskiej – co oczywiście nie musi oznaczać, że jestem zwolennikiem traktowania jej z przesadną estymą i wykorzystywania jej do zadań, do których się nie nadaje. Lista ta jest konstruowana w sposób całkowicie przejrzysty i uczciwy. Nie ma zresztą żadnych powodów, aby ktokolwiek przy tworzeniu tej listy manipulował. Wymagania Instytutu Thomsona dotyczą spraw formalnych – publikacje muszą być recenzowane, poprzedzone streszczeniem, czasopismo musi ukazywać się regularnie. Są też dodatkowe wymagania, dla mnie i wielu moich kolegów oczywiste: czasopismo nie może być forum dla członków komitetu redakcyjnego, a grono czytelników nie powinno pokrywać się z listą autorów. Lista nie jest i nie pretenduje do listy czasopism elitarnych. Są na niej czasopisma bardzo kiepskie, także publikujące żenujące teksty.
Próba uczynienia z Listy Filadelfijskiej ekskluzywnego klubu, ma osłodzić fakt, że redagowane przez profesora Tumańskiego czasopismo znikło z tej listy, a pisma techniczne na tej liście można policzyć na palcach jednej ręki. Chciałbym zwrócić uwagę na fakt, że znika pojęcie narodowego czasopisma naukowego. Oczywiście jest niewielka grupa, na ogół wysoko cenionych, czasopism z tradycją, wydawanych przez uczelnie lub narodowe stowarzyszenia naukowe. Rynek czasopism naukowych jest jednak opanowywany przez komercyjne korporacje wydawnicze. Jest też na nim miejsce dla dużych międzynarodowych organizacji naukowych, takich jak choćby wymienione w artykule IEEE. Jest to zrozumiałe, gdyż w zglobalizowanym i skomercjalizowanym świecie jednym z najtrudniejszych zagadnień każdej instytucji jest znalezienie rynków zbytu dla swoich produktów, dotarcie do potencjalnych klientów i czytelników, a wydawców pojedynczych czasopism nie stać na finansowanie akcji marketingowych i dużych sieci dystrybucji. Nie ma więc powodu do załamywania rąk z powodu małej liczby polskich czasopisma liście filadelfijskiej. Uważam wręcz, że to dobrze. Odbiera bowiem młodym uczonym pokusę publikowania w czasopismach wydawanych przez swego mentora lub jego kolegów i zmusza do próbowania swoich sił na konkurencyjnym rynku międzynarodowym.
Z tekstu profesora Tumańskiego wyłania się bardzo smutny obraz polskiej nauki. Przede wszystkim odnosi się wrażenie, że publikacja jest celem do osiągnięcia awansu, że wartościowe są publikacje sławnych autorów. A przecież celem publikacji jest podzielenie się z kolegami pracującymi na całym świecie swoim odkryciem naukowym, nowym związkiem chemicznym lub lepszym wyjaśnieniem znanego zjawiska. Nowym algorytmem lub pomysłową konstrukcją. Jeśli uzyskane osiągnięcie jest ciekawe i ważne, opublikują je czołowe wydawnictwa na świecie. Nie trzeba być sławnym, żeby pisać do najlepszych czasopism. Trzeba mieć coś ciekawego do powiedzenia. Oczywiście, trzeba też umieć zredagować publikację tak, aby recenzent nie znający polskiego potrafił ją ze zrozumieniem, a najlepiej także z przyjemnością, przeczytać. To wymaga wysiłku, czasem pomocy bardziej doświadczonych kolegów, ale trzeba się tego nauczyć. Nie ma sensu bowiem publikować ważnych odkryć w wydawnictwach, których nikt nie czyta. A na publikowanie bezwartościowych szkoda czasu, papieru i farby drukarskiej.
Kilkanaście lat temu, gdy powołano Komitet Badań Naukowych i budowano zręby systemu oceny badań naukowych w Polsce, jednym z najważniejszych celów byłą walka z odziedziczoną po latach realnego socjalizmu izolacją polskiej nauki. Temu miało służyć oparcie metody punktacji czasopism na istniejących za granicą bazach danych. Wybrano największą i najbardziej znaną bazę, stworzoną przez ISI, mieszczący się w Filadelfii Instytut Informacji Naukowej, którą Andrzej Kajetan Wróblewski nazwał „listą filadelfijską”. Plan umiędzynarodowienia polskiej nauki udał się tylko częściowo – wciąż, o czym świadczy choćby tekst profesora Tumańskiego, znaczna część środowiska tkwi w zaścianku (wiele zostało do zrobienia).
Oczywiście zgadzam się z profesorem Tumańskim, że ocena osiągnięć naukowych nie może polegać na zliczaniu punktów. Nie wierzę, że uda się wymyślić algorytmiczny system odporny na pomysłowość niektórych pracowników naukowych i redaktorów czasopism. Prawie każdy potrafi podać kilka przykładów przypadkowych paradoksów lub mozolnie konstruowanych patologii. Niedawno musiałem przeczytać nową publikację publikacji trzech polskich uczonych. Lektura nie pozostawiała żadnych wątpliwości że dzieło nie zawierało żadnej nowej myśli, żadnej oryginalnej obserwacji, nie opisywało nowego eksperymentu ani nowych obliczeń. Nic. To oczywiście zdarza się bardzo często i nie warto byłoby o tym pisać, gdyby nie to, że czasopismo, w którym ten bubel został opublikowany, eksperci ministerstwa ocenili na maksymalną liczbę punktów – 50, oczywiście biorąc pod uwagę tak zwany impact factor czasopisma. Możliwe, że czasopismo jest doskonałe, a autorzy mieli niezwykłe szczęście bo ich dzieło trafiło do niedysponowanego recenzenta. Możliwe też, że impact factor został mocno dopompowany. Od lat wiadomo, jak to się robi. Już ponad 50 lat temu Derek J. De Solla Price w, przetłumaczonej na język polski i wydanej w Bibliotece problemów, książeczce – Mała Nauka, Wielka Nauka – opisał metody tworzenia pozorów wielkiej nauki poprzez wzajemne wspieranie się cytatami. A od tego czasu pojawiło się wiele nowych tricków.
Jaki stąd morał? Po pierwsze należy się bać listy filadelfijskiej, ani na siłę na nią wciskać. A jeśli już ktoś bardzo chce, aby czasopismo na trwałe się na liście filadelfijskiej znalazło, to nie może na stronie czasopisma pokazywać, że korzysta wyłącznie z recenzji pisanych przez Polaków. I musi dbać o to, by drukować dobre publikacje, niekoniecznie pisane przez zasłużonych i sławnych autorów. Po drugie, nie można przy ocenie badań naukowych opierać się tylko na jednej bazie danych. Jest wiele baz zawierających ważne i ciekawe informacje. Bezpłatny Google Scholar łatwiej oszukiwać, bo cytują każdy tekst w Internecie. Ale można się z niego dowiedzieć, że ktoś jest istotnie cytowany w niepublikowanych notatkach noblisty z Princeton, co może mieć większą wartość od cytowania przez słabego uczonego z przeciętnym czasopiśmie. Inna bezpłatna baza Microsoft Academic Search pozwala obliczyć impact factor czasopism i recenzowanych konferencji, które nie są indeksowane przez Instytut Thompsona, ale w niektórych środowiskach odgrywają rolę większa od czasopism i tam publikują głównie informatycy z MIT. Po trzecie jeśli musimy ocenić instytucję, a tym bardziej indywidualnego uczonego, nie możemy ograniczyć się do sprawdzenia liczby cytowań i dodawania punktów. Nawet niespecjalista może łatwo sprawdzić, czy duża liczba cytowań pochodzi od uczniów i kolegów z wydziału, czy też z czołowych ośrodków badawczych na świecie. A przede wszystkim róbmy dobrą naukę, wtedy będą nas cenić i cytować.