Podnoszenie poziomu badań czy wyścig o punkty?

03.01.2024

Zapraszamy wszystkich do zapoznania się aktykułem napisanym przez prof. dr hab. Jana Cieślińskiego w magazynie Forum Akademickim. https://forumakademickie.pl/sprawy-nauki/podnoszenie-poziomu-badan-czy-wyscig-o-punkty/ 

Podnoszenie poziomu badań czy wyścig o punkty?

Aby stwierdzić, czy poziom badań się podniósł, trzeba go najpierw jakoś zmierzyć, a po pewnym czasie zmierzyć ponownie, stosując te same mierniki. Tymczasem każda kolejna ewaluacja rządzi się swoimi prawami, ich wyniki są w zasadzie nieporównywalne. Niestety, mimo swego kluczowego znaczenia, to jeden z najsłabszych elementów systemu – pisze w FA prof. Jan Cieśliński, dziekan Wydziału Fizyki Uniwersytetu w Białymstoku.  

Ewaluacja działalności naukowej jeszcze kilka lat temu służyła głównie do podziału środków na tzw. badania statutowe, które w przypadku uczelni były tylko niewielkim uzupełnieniem budżetu, mającym jednak duże znaczenie dla wydziałów pozyskujących te fundusze. Miało tu miejsce sprzężenie zwrotne pomiędzy wysokością środków na badania a uzyskaną kategorią naukową. Obecnie, w świetle ustawy z roku 2018, sytuacja się zmieniła. Dotacja na badania statutowe rozpłynęła się w subwencji uczelnianej, a ewaluacja stała się podstawą całego systemu szkolnictwa wyższego. Uzyskane kategorie są teraz jedynym kryterium uzyskiwania uprawnień akademickich, regulują status uczelni oraz odgrywają istotną rolę w podziale subwencji, czyli mają duży wpływ na wielkość funduszu płac.

Niestety, mimo swego kluczowego znaczenia, ewaluacja jest jednym z najsłabszych elementów systemu. Miało to być narzędzie pomiaru jakości badań naukowych, ale uzyskany efekt niepokojąco przypomina klasyczny caucus race.

Po pierwsze, [Dodo] nakreślił tor wyścigowy, mniej więcej przypominający koło (– Dokładny kształt nie ma znaczenia – powiedział), a później całe zgromadzenie ustawiło się, to tu, to tam, wzdłuż toru. (…) każdy rozpoczynał i kończył bieg, kiedy przyszła mu na to ochota, tak że niełatwo było stwierdzić, kiedy nastąpiło zakończenie wyścigu. Jednak gdy biegli już około pół godziny i wyschli już zupełnie, Dodo zawołał nagle: – Wyścig zakończony! – i wszyscy stłoczyli się wokół niego, dysząc i pytając: — Ale kto wygrał? (…) – Wszyscy wygrali i każdy musi otrzymać nagrodę.

(..) Wypadło dokładnie po cukierku na każdego. (…) Z kolei należało zjeść cukierki: spowodowało to nieco zgiełku i zamieszania, gdyż wielkie ptaki uskarżały się, że nie mogą ich nawet posmakować, a małe dławiły się i trzeba je było klepać po grzbiecie.

[Lewis Carroll, „Alicja w Krainie Czarów”, przekład Macieja Słomczyńskiego]

W przypadku tej opowieści przynajmniej cel całej zabawy był jasno określony (osuszenie przemoczonego towarzystwa) i skutecznie osiągnięty. W przypadku naszej ewaluacji też było dużo zamieszania i wszyscy mieli pełne ręce roboty. Cukierki w postaci uprawnień akademickich dostali chyba wszyscy, którzy wyciągnęli po nie rękę.

Nie ma jednak co narzekać, bo równie dobrze w roku 2022 mógł zapaść inny werdykt. Wystarczyło tylko (nie zmieniając dosłownie niczego w ocenie punktowej dyscyplin) inaczej poustawiać progi referencyjne, ustalane przecież post factum i wyglądające na wzięte z sufitu, aby oznajmić, że połowa uczelnianych dyscyplin „przegrała”, dostaje kategorię C i jest do natychmiastowej likwidacji. Wszystko na bazie tych samych wyników i tego samego rozporządzenia. Niezależnie od tego, kto i jak ustala te progi, poziom odniesienia (wysokość poprzeczki) jest zagadką dla uczestników tych „zawodów”. Progi pełnego przewyższania (kto pamięta, co to właściwie jest?) także mogą dużo namieszać (ich złe ustawienie zaniżyło i wypaczyło punktację kryterium II dla większości uczelnianych dyscyplin). Wszechwładza nietransparentnych progów jest elementem niezmiennym od wielu lat.

W sposobie zarządzania nauką tak mocno przebija chaos i brak spójnego celu, że aż dziwne, iż na papierze cel taki istnieje i jest zdefiniowany w dokumentach Ministerstwa Finansów związanych z ustawą budżetową. Zatem można by rzec, że oczekiwania wobec sektora naukowego są precyzyjnie wyartykułowane (nomen omen), odkąd tylko funkcjonuje tzw. budżet zadaniowy. Chodzi mianowicie o poziom badań naukowych mierzony liczbą artykułów indeksowanych w międzynarodowych bazach danych oraz liczbą patentów.

Warto literalnie przytoczyć aktualne sformułowania („Zestawienie zbiorcze celów i mierników funkcji państwa do WPFP na lata 2023 – 2026”).

  • Cel: „Podniesienie poziomu wyników badań naukowych”.
  • Miernik: „Liczba publikacji autorów z Polski w czasopismach zawartych w bazie danych Scopus”.

Uzasadnienie wyboru miernika: „Liczba publikacji indeksowanych, o wysokim prestiżu, odzwierciedla aktywność naukową polskich naukowców. Miernik adekwatny do celu. Jest to miernik oddziaływania oddający długofalowe efekty działań dla podniesienia jakości badań naukowych prowadzonych w Polsce. Zaletą miernika jest jego obiektywność i brak podatności na manipulację”. Nie ma tu mowy o umiędzynarodowieniu, czyżby zatem wskazanie zagranicznej bazy Scopus było motywowane nieufnością do ocen czasopism dokonywanych przez czynniki krajowe? Obawa ta nie jest bezpodstawna.

  • Drugim miernikiem tego samego celu jest liczba patentów polskich, europejskich i amerykańskich (o tych ostatnich zapomniano w regułach ewaluacji).

Uzasadnienie: „Miernik pokazuje międzynarodową wartość wyników badań naukowych prowadzonych w Polsce, pozwala ocenić podejmowane działania mające na celu wzmocnienie jakości badań” (czy jednak patenty polskie mają przełożenie na efekty międzynarodowe?).

Innych celów i mierników dla nauki nie wskazano. Stabilność tych budżetowych zapisów (na przestrzeni  ostatnich 15 lat) jest wręcz zadziwiająca.

Reguły ewaluacji powinny brać pod uwagę zalecenia budżetu zadaniowego, zwłaszcza, że sformułowano je z tak niezwykłą konsekwencją, ponad wszelkimi podziałami. Niestety, takiego związku nie widać. Klasycznym przykładem tej rozbieżności jest to, że przez dobrych kilka lat (przed rokiem 2018) wiele czasopism indeksowanych w Scopusie nie widniało na liście ministerialnej (zatem nie miały one żadnego znaczenia w ewaluacji), mimo iż jednocześnie w budżecie zadaniowym rozliczano już sektor nauki na podstawie liczby publikacji tylko w tej bazie.

Manipulowanie punktacją w oderwaniu od „obiektywnych mierników” stoi w wyraźnej sprzeczności z literą i duchem cytowanego dokumentu. To samo dotyczy niezwykle zawyżonej roli prac powstałych w wyniku krajowych kooperacji. Jedna publikacja mogła w ostatniej ewaluacji „obsłużyć” kilka (a może nawet kilkadziesiąt) instytucji czy dyscyplin, w każdej licząc się z pełną wagą. Podobnie ocena poziomu badań poprzez skuteczność pozyskiwania środków z budżetu państwa (przypomina to ocenę jakości artykułu poprzez liczbę jego stron, co kiedyś poważnie brano pod uwagę). Dlaczego premiowana jest maksymalizacja kosztu badań, a nie ich efekty? 

Fundamentalnym błędem rozporządzeń ewaluacyjnych jest przeoczenie lub zignorowanie tych prostych słów, definiujących nasz cel: podniesienie poziomu wyników badań naukowych. Aby stwierdzić, czy poziom badań się podniósł, trzeba go najpierw jakoś zmierzyć, a po pewnym czasie zmierzyć drugi raz, stosując te same mierniki. Inaczej żadne porównywanie nie ma sensu i trudno mówić, że coś spadło czy się podniosło. Używając terminologii sportowej, chodzi o poprawienie wyniku, uzyskanie rekordu życiowego, rekordu Polski czy Europy, a nie o wygranie wyścigu zajęcy czy żółwi. Tymczasem z ewaluacji uczyniono coś w rodzaju zawodów w kilkudziesięciu dyscyplinach (może komuś się to faktycznie z dyscyplinami sportowymi skojarzyło?). Zwycięzcy zostają nagrodzeni, a ostatnich gryzą psy. Nie ma znaczenia, czy ktoś poprawił swój wynik, czy też nie. Każda kolejna ewaluacja rządzi się swoimi prawami, ich wyniki są w zasadzie nieporównywalne. Co gorsza,  można podać hipotetyczne przykłady, że jednostka oceniona na A według jednych reguł, otrzymałaby C według reguł poprzednich i vice versa.

Dużą wadą algorytmów ewaluacyjnych jest brak oceny (docenienia) wybitnych osiągnięć (jest tylko zalecenie, aby to uwzględniać przy ocenie A+). Może więc warto trochę „przemeblować” kryteria, aby na przykład kryterium III było związane z oddziaływaniem na gospodarkę i społeczeństwo (zatem pozostałyby tam opisy wpływu, ale doszłaby komercjalizacja, przychody, patenty, czy popularyzacja nauki), zaś kryterium II, obok liczby prestiżowych grantów, zawierałoby wskaźniki związane z doskonałością naukową (teraz nieobecne), jak choćby liczba publikacji w pismach typu Nature czy Science czy prestiżowe wyróżnienia naukowe.

Obecne reguły ewaluacji są bardzo podatne na różne manipulacje, dotyczy to zwłaszcza kwestii slotów i deklarowanych dyscyplin. Ostateczny wynik bardziej zależy od zastosowania lub zaniechania różnych zabiegów optymalizacyjnych (wykonywanych z poziomu uczelni), czy wykorzystaniu „odpowiednich” kanałów publikacyjnych (czasem bardzo kosztownych), niż od faktycznego wzrostu poziomu badań.

Jest też problem miernika, jakim jest liczba publikacji. W ostatnich latach nastąpiła ogromna inflacja, wręcz zalew, prac naukowych (w skali krajowej i światowej). Zatem liczba publikacji (nawet ważona jakimiś punktami) już dawno przestała być dobrym miernikiem. Nie ma sensu ekscytować się wskaźnikami wzrostu liczby publikacji w bazie Scopus. Nawet liczba czasopism w tej bazie dynamicznie rośnie, nie mówiąc o objętości każdego numeru (odkąd wydawcy nie muszą artykułów drukować, puściły wszelkie hamulce). Średnia „wartość” jednej publikacji zatem wyraźnie spadła i wciąż szybko maleje. Ale uśrednianie, zwłaszcza po tak dużych i niejednorodnych zbiorach danych, zawsze grozi utratą wszelkiej sensownej informacji. Nie warto pochopnie uśredniać. W nauce liczą się przede wszystkim istotne osiągnięcia. Duża liczba prac o słabym poziomie nie ma żadnego znaczenia. Warto też identyfikować publikacje, w których dany ośrodek jest liderem (większość autorów, pierwszy i/lub ostatni autor, albo jedno i drugie), i liczyć je z większą wagą, albo nawet w innej rubryce, niż publikacje, w których udział ocenianego ośrodka jest tylko niewielkim przyczynkiem.

Na koniec chciałbym zasygnalizować swoje nowe pomysły dotyczące punktacji czasopism.

  1. Proponuję utworzenie dwóch list czasopism punktowanych:
  • lista międzynarodowa, oparta na bazie Scopus,
  • lista polskojęzyczna, grupująca czasopisma (w tym wielojęzyczne) przyjmujące artykuły w języku polskim.
  1. Dla poszczególnych dyscyplin należałoby ustalić, jaka powinna być proporcja obu list w zbiorze 3N artykułów przedkładanych do ewaluacji.
  2. Jeśli czasopismo jest na obu listach, to polskojęzyczny artykuł może być wykazany do ewaluacji albo jako polski, albo jako międzynarodowy (w zależności od tego, co dla uczelni będzie korzystniejsze).
  3. Uwaga: polskojęzyczność nie dotyczy tylko humanistów. Warto promować język polski oraz rozwój polskiej terminologii w wielu dyscyplinach, choćby w medycynie czy technice, wszędzie tam, gdzie jest szerokie grono potencjalnych czytelników krajowych, także spoza uczelni. Dlaczego Polak dla Polaków ma pisać po angielsku?
  4. Punktacja czasopism międzynarodowych, ustalona wstępnie według wskaźników bibliometrycznych, powinna podlegać empirycznej weryfikacjipost factum, nazasadzie sprzężenia zwrotnego. Jeśli nastąpi wzrost odsetka polskich afiliacji w danym piśmie (powyżej ustalonego poziomu właściwego dla danej punktacji), to punktacja czasopisma jest automatycznie obniżana (stosownie do skali tego wzrostu).
  5. Prestiż czasopisma to przede wszystkim stabilność i tradycja. Prestiż nie powstaje w wyniku skoku jakiegoś wskaźnika. Prestiż buduje się latami, choć istnieją sytuacje, gdy można go stracić bardzo szybko. Tu nie ma symetrii. Czasopismo będące w fazie dynamicznego wzrostu lub upadku (mierząc liczbą artykułów) nie powinno mieć zbyt wysokiej punktacji. Szybki wzrost pociąga za sobą niedobór rzetelnych recenzentów i obniżenie jakości, a malejąca liczba autorów źle świadczy o prestiżu czasopisma.
  6. Duże wahania liczby artykułów powinny skutkować obniżeniem punktacji czasopisma. To kryterium może dotyczyć obu list. Dla listy polskojęzycznej trudniej jednak wskazać proste kryterium post factum związane ze strukturą afiliacji autorów. Struktura ta  powinna odzwierciedlać jakiś średni rozkład krajowy, tym dokładniej, im bardziej prestiżowe jest czasopismo.

Gdyby udało się opracować dobre i precyzyjne zasady weryfikacji post factum (co jest trudne, ale wydaje się wykonalne), to ostateczna punktacja czasopism byłaby dość obiektywnym miernikiem ich poziomu, odpornym na nieoptymalne lub błędne ustawienie punktacji początkowej (z czym zawsze są problemy).

©2024 Wszystkie prawa zastrzeżone.

W ramach naszego serwisu www stosujemy pliki cookies zapisywane na urządzeniu użytkownika w celu dostosowania zachowania serwisu do indywidualnych preferencji użytkownika oraz w celach statystycznych. Użytkownik ma możliwość samodzielnej zmiany ustawień dotyczących cookies w swojej przeglądarce internetowej. Więcej informacji można znaleźć w Polityce Prywatności Uniwersytetu w Białymstoku. Korzystając ze strony wyrażają Państwo zgodę na używanie plików cookies, zgodnie z ustawieniami przeglądarki.