Constatări ... meta-academice

De destul de mulţi ani, unităţile de cercetare şi facultăţile sunt evaluate anual, pe baza unor criterii pe care mulţi le consideră bizare. Sunt luate în considerare publicaţiile, prezentările la conferinţe, diferite granturi şi contracte, brevete de invenţie etc. mai nou se discută şi despre indici de impact a citărilor.

Criteriile sunt aceleaşi pentru toate ştiinţele, ceea ce avantajează net, de exemplu, ingineria în faţa ştiinţelor sociale, acolo unde la categoria „brevete de invenţie” nu prea văd cum se poate – onest – să acumulezi puncte (poţi zice că inventezi, omologhezi şi brevetezi o metodologie revoluţionară, aşa cum sugera un coleg, însă, hai să fim serioşi, metodologii care să poată fi brevetate „pe bune” nu există).

Academia Română are şi ea grila proprie de punctare, uşor diferită de cea a Ministerului Educaţiei şi Cercetării. De exemplu, orice publicaţie (carte sau articol în jurnal academic) apărută la Editura Academiei este punctată mult mai bine decât alte publicaţii apărută în ţară (de exemplu, în 2006 lucrurile stăteau aşa: carte la Editura Academiei = 30 de puncte, carte apărută la Polirom = 15 puncte). În unele discipline, Editura Academiei nu este însă chiar atât de valoroasă ... :(

Dezbaterile publice, generalizate sau în interiorul mediului academic continuă să lipsească sau sunt foarte slab conturate (vezi unele eforturi ale Ad-Astra, o iniţiativă a MEC din urmă cu un an, în care noua grilă de evaluare a fost difuzată către unităţile de cercetare, iar acestea au trimis-o înapoi cu observaţiile proprii etc.). Este firesc în condiţiile în care mulţi dintre cei evaluaţi nu înţeleg de ce ar trebui să fie evaluaţi, nu au văzut niciodată un sistem de indexare etc.

Poate nu ar fi rău să ne uităm şi în ograda altora. De exemplu, în Anglia, unde orice schimbare în sistemul de evaluare naşte discuţii şi argumentări variate, aşa cum sugerează articolul acesta din Times Higher Education

0 comentarii: