Lacunele culturii ştiinţifice

Lacunele culturii ştiinţifice
În diferite ţări (este suficient să observăm Marea Britanie sau Germania sau Japonia!) politica cercetării ştiinţifice este asumată cu strategii şi criterii de evaluare îndelung chibzuite.

Stabilirea criteriilor de evaluare a devenit, în ultimii ani, cheia finanţării şi orientării cercetării (sau a blocării ei). De aceea, mă opresc asupra acesteia, cu ocazia lansării, de către Consiliul Naţional al Cercetării Ştiinţifice din învăţământul Superior, a “metodologiei” de recunoaştere a “centrelor de cercetare” şi, apoi, a excelenţei. Acesta ameninţă evoluţia cercetării ştiinţifice din universităţi şi, cu aceasta, a părţii celei mai mari a cercetării din ţară.

Desigur, “metodologia” pusă de CNCSIS în joc în februarie 2010 nu este cu totul nouă.

 

S-a mai încercat, fără succes, să se aplice o “metodologie” similară. Autorii ei se revendică din Hotărârea de Guvern nr. 551 din 6 iunie 2007 (un document el însuşi anacronic în multe locuri, pe care nu le discut aici). Acea hotărâre se referă, însă, la “sistemul cercetare-dezvoltare”, prin care autorii înţeleg, de fapt, cercetare tehnologică. Trebuie spus, cu toată răspunderea: cercetarea tehnologică este crucială pentru România, dar, evident, nu acoperă întreaga cercetare ştiinţifică. “Metodologia” pusă în discuţie are, însă, ea însăşi lacune de concepţie. Mă refer doar la două dintre ele.

 

Prima lacună a “metodologiei” CNCSIS este rămânerea în urmă în raport cu concepţia Comisiei Europene şi a altor organizaţii europene, care au lucrat mult în anii din urmă la criteriile de evaluare a cercetării ştiinţifice. Dacă luăm în seamă, de pildă, Assessing Europe’s University Based Research (2008), document al Comisiei Europene, se observă bine accentul pe “research productivity”, dar şi pe “impact”, “premii şi distincţii internaţionale” etc., ca şi specificările pe “ştiinţe ale naturii”, “ştiinţele vieţii”, “ştiinţe inginereşti”, “ştiinţe sociale şi umaniste”, “arte”. Criteriile de evaluare din Marea Britanie – care rămân un reper – sunt trei: “publicaţii”, “impact”, “mediu înconjurător”. Din păcate, autorii “metodologiei” nu iau în seamă opţiunile europene şi îmbrăţişează o imagine de mult depăşită asupra ştiinţei.

 

A doua lacună de concepţie a “metodologiei” rezidă în confuzia dintre “centru de cercetare”, înţeles ca facultate (poate ca centru universitar), şi “centru de cercetare”, în înţeles precis, ca unitate specializată. Sunt domenii (fizica, chimia, tehnologiile etc.) în care, într-adevăr, rezultatele importante se obţin în grup (ceea ce nu justifică şirul lung de coautori, care semnează câte o lucrare banală). Există, însă, “centre de cercetare” (laboratoare, institute etc.) în care cei care dau performanţa sunt trei-patru cercetători bine calificaţi. De aceea, a pretinde cel puţin zece cercetători la un “centru”, cum face “metodologia”, este aberant (inclusiv pentru că obligă la comasarea de grupuri, încât se atenuează specializarea). în multe specializări cerinţa este contraproductivă.

 

Mulţi universitari argumentează în favoarea unei specificări a criteriilor de evaluare pe diferitele tipuri de ştiinţă. Opinia mea este că specificarea poate interveni, dar abia după ce se stabilesc criterii generale, valabile pentru orice domeniu. De pildă, publicarea în reviste cotate internaţional şi în edituri reputate este un criteriu valabil pentru orice ştiinţă. Dar, în vreme ce publicarea de articole ce conţin descoperiri este concludentă în ştiinţele experimentale, abia publicarea de volume ce conţin monografieri este performanţa în istorie, filosofie, litere, teologie, geografie etc.

 

Sau, ca un alt exemplu, orice publicaţie, din indiferent care ştiinţă, trebuie să aibă un impact ştiinţific (să fie citată de confraţi) şi un impact în societate. Dar, în vreme ce impactul în ştiinţele inginereşti şi ştiinţele experimentale, în general, trebuie să fie înnoirea tehnologiilor industriale, impactul în ştiinţele sociale şi umaniste trebuie să fie sporirea autocunoaşterii societale şi înţelegerii. în discuţie este, evident, o chestiune de pricepere a diverselor tipuri de ştiinţe şi de înţelepciune a formulării şi administrării criteriilor evaluării.

Destul de mulţi oameni se reped, atunci când discută “metodologia” CNCSIS, în punctaje.

 

 

Este un aspect important, dar fără adoptarea unei alte concepţii (în “metodologie” concepţia însăşi este greşită de la început!) punctajele nu capătă sens. în altă ordine de idei, preiau observaţia făcută de o profesoară de biologie moleculară de la Iaşi, care arăta, pe bună dreptate, că granturile nu ar trebui să fie criteriu de evaluare (nici nu este în Uniunea Europeană!), căci grantul este doar ocazia cercetării ştiinţifice, nicidecum rezultatul ei. Din păcate, în România de astăzi argumentele sunt desconsiderate, crezându-se că forţa rezolvă problemele. Este datoria universitarilor, însă, să atragă atenţia că prin “metodologii” precum cea amintită România se izolează.

 

Pe de altă parte, este cât se poate de evident că nu se poate concepe profesional politica cercetării fără cunoştinţe de epistemologie, teoria ştiinţei, sociologia cunoaşterii şi că trebuie pusă întrebarea: cât de fundamentate pe cunoştinţe profesionalizate sunt deciziile de felul “metodologiei” amintite. Nici România nu poate construi durabil pe lacune ale culturii ştiinţifice a decidenţilor şi nu ar trebui să încerce această cale înfundată.

 

“Metodologia” CNCSIS condamnă cercetarea ştiinţifică din România la operaţii primare (de pildă, măsurările de corelaţii), la un mimetism de duzină, lăsând complet altora formularea ipotezei, conceptualizarea, adică tocmai miezul teoretic ce aduce valoarea propriu-zisă, competitivă. Nu este, însă, cultura din România actuală plină de subiecte mărunte ce trec drept teme, de semidocţi ce se cred savanţi, de veleitari ce par oameni de cultură? Prăbuşirea culturii ştiinţifice din România în interese de partid sau de clică nu rezolvă vreo problemă, ci le agravează pe toate.

 

Comenteaza