România se bate adesea în piept cu meritocrația. Hai să vedem cât de
meritocrat este mediul academic. Iau ca exemplu un organism de care v-am mai povestit: Comisia de Sociologie, Științe Politice și Administrative a CNATDCU. Comisia respectivă evaluează teze de doctorat și teze de abilitare între altele, amendează și supraveghează respectarea criteriilor de promovare. Este prin urmare un actor important, care stabilește de fapt standardele minimale de performanță a celor ce devin profesori, conferențiari, lectori, doctori șamd. dacă ei stabilesc standarde înalte, sunt șanse să avem un învățământ performant.
Cine contează în știință
Și la noi, ca mai peste tot în lume, important este cât de influent ești în știință. Adică cu cât ai contribuit la creșterea cunoașterii în domeniul tău. Iar acest lucru se vede prin câte citări ai și cât de mult ai publicat în jurnale de top.În științele sociale se publică mai rar ca în alte științe. Românii au și handicapul c

Având puțini bani la dispoziție, sociologii, politologii, antropologii și alți români asemenea lor nu prea apucă să scrie bine și să fie publicați de jurnale de top.
Jurnalele acestea de top se plasează pe o listă alcătuită de Thompson-Reuters, o organizație privată, listă denumită generic „ISI". În ultimul deceniu, au pătruns și câteva reviste românești pe listă. Dintre ele, una a fost în centrul unui scandal serios: se chema Metalurgia International și publica articole contracost, de o calitate mizerabilă, din tot felul de domenii pretins științifice. Cei de la Thompson au declasat-o, revista a dispărut, dar încă produce efecte: sunt destui cei care au devenit profesori și sunt plătiți bine în urma unei activități pretins academice desfășurată în paginile acelei reviste.
Criterii de analiză
Este greu să publici în reviste din afara României, unde criteriile de selecție sunt destul de drastice. Acest lucru mă face să judec calitatea membrilor comisiei amintite după patru criterii:- Număr de citări în orice publicație, așa cum este el redat de Google Scholar.
- Indicele H calculat pe baza indicatorului amintit: cu cât H e mai mare, cu atât ești mai influent (H=număr de publicații citate de cel puțin H ori: ordonezi publicațiile în ordinea descrescătoare a numărului de citări; apoi te uiți care e cel mai mare număr de ordine al publicației care are cel puțin atâtea citări cât e numărul de ordine; acela este scorul H)
- Număr de articole ISI.
- Indicele-H calculat pe baza articolelor ISI citate de alte articole ISI.
Mod de calcul și prime rezultate
Rezultate
Hai să vedem ce a ieșit din această mică joacă.În tabel, fiecare rând e un membru al comisiei (la stânga), respective perechea sa (la dreapta). Cum spuneam, pe cei doi din afara domeniului nu i-am împerecheat. Cifrele de pe prima și ultima coloană sunt identice, reprezentând numere de ordine. Dacă membrul comisiei are CV pe site-ul acesteia, am bifat cu un x. În rest regăsiți informația despre universitatea de unde vin cei analizați și indicatorii lor de performanță. (H-WoS= indicele H bazat pe ISI/Web of Science)
* pagina de pe Google Academic indică și alte citări, dar la publicații ce nu aparțin autorului (sunt citări la volume coordonate de alții, în care are și autorul contribuții; dar în acest caz citarea este la editor, nu la autor...)
** de la USM-Sv, universitate similară ca dimensiuni
*** Numele este foarte comun, e posibil să fi subestimat numărul de citări, dar nu indicele H
****ISI: nu am inclus proceedings
Cu roșu: cifrele unde „perechile” sunt mai performante decât titularii comisiei.
Cu albastru: cei ce au cont de Google Scholar. Subliniat și cu italice: cei care au exclusiv sau aproape exclusiv publicații ISI și citări ISI în revistele românești
Scurtă discuție
Nu trag concluzii, ci doar descriu ce am observat:Dintre cei 17 membrii ai Comisiei ,
- 2 nu sunt din domeniu;
- 10 au CV-uri mai puțin atractive decât colegii lor de disciplină din aceeași organizație;
- 4 sunt mai buni decât alternativele existente la ei în universitate, dar CV-urile lor sunt inferioare multora dintre cei ce nu fac parte din comisie;
- Unul singur ar fi fost parte din comisie dacă am fi folosit drept criteriu impactul său în știință;
- Niciunul nu vine de la o universitate privată.
Avem însă o comisie din care fac parte:
- un autor cu factor de impact 0 (!!!!!);
- 2 care nu sunt pregătiți în domeniul pe care îl gestionează;
- 5 foști miniștri;
- 10 ale căror publicații ISI sunt în aceleași 4 reviste românești, iar citările ISI vin exclusiv din aceste reviste.
- cu două excepții, majoritatea nu au deloc sau au cel mult o publicație ISI în afara României.
4 comentarii:
Exercițiul este unul cel putin interesant, desi rezultatele nu sunt neaparat surprinzătoare. Cred ca o analiza similara ar merita sa vizeze conducerile universităților. Sunt atâția prorectori responsabili de cercetare cu h sub 5... de iti vine sa plângi. Nici rectorii nu stau mai bine.
Foarte interesant articol, mulțumesc. Analiza datelor bibliometrice este foarte importantă pentru o țară în care cercetarea încă își caută credibilitatea. Rezultatele nu mă miră:
- Datele indică un nivel de corupție a procesului de selecție pentru aceste comisii la care mă așteptam (adică e mai important să fi fost ministru decât să fi făcut cercetare de calitate);
- Cifrele sunt, pentru toată lumea, relativ scăzute, indicând distanța dintre cercetarea din România și nivelul de vârf internațional.
Mi-ar fi plăcut o analiză mai detaliată a fiecărui profil, gen [1], pentru că nu aș vrea ca acești oameni să ascundă lipsa de calitate a cercetării lor în spatele unor ipotetice rezultate valoroase dar încă neînțelese de cei din jur ("dar și Einstein a ajuns la un h-index mic și nu a fost înțeles pentru mulți ani de comunitatea de specialiști").
[1] http://m.ziare.com/scoala/ce-facem-cu-profesorul-escu-ii-1379542
Mulțam și eu de comentariu.
Am fost inițial tentat să iau în calcul doar Indicele H. Dar am decis să las și numărul de publicații în jurnale cotate, tocmai pentru a evita cazul celui care va deveni influent abia peste decenii. Premisa este că, dacă va deveni vreodată influent, trebuie mai întâi să publice...
Altfel, nu știu dacă e mai important să fi fost ministru. Cauzalitatea nu este inclusă în datele de mai sus, mai ales că foștii miniștri nu sunt neapărat mai puțin performanți decât restul.
Cifrele ar trebui citite și printr-o altă grilă:
- științele sociale au fost interzise în România la finalul anilor 70, abia după 1989 reapărând.
- finanțarea lor, dincolo de costurile materiale a fost și este net inferioară celei din științele exacte, inginerii și medicină. În clipa aceasta, științele sociale nu există în Planul Național de Cercetare în vigoare (orizontul de timp al acestuia: 2020)
Prin urmare, distanța față de restul lumii civilizate nu are cum fi mică. Aici ne putem compara cu Ghana, Nigeria și alte țări de acest gen.
Am preferat analiza întregului, nu fiecare profil, tocmai pentru a arăta că avem o comisie mamut (de ce o fi nevoie de 17 membri????), care include membri ce nu au cum să impună standarde înalte, fiindcă o bună parte dintre ei sunt departe de a avea performanțe academice notabile. Mai mult, dacă e să ne uităm la publicații, de fapt majoritatea îndeplinesc doar cel mult la limită standardul oricum foarte scăzut impus de legea educației din 2011 și încă și mai scăzut după amendamentele repetate...
Cum ziare.com nu este tocmai flexibil în a permite comentarii, mai adaug o idee aici, deși am pomenit-o și mai sus:
Cel puțin în științele sociale, pachetul de reglementări ale educației și cercetării din 2011 nu a adus o ștachetă ridicată. Dimpotrivă, pragul a fost foarte jos. Ca dovadă numărul mare de noi conferențiari și profesori. Mai mult, această ștachetă a fost coborâtă prin amendamentele ce au urmat.
Trimiteți un comentariu