lunes, 24 de abril de 2023

CoARA e a implantación de principios cualitivos na avaliación da ciencia


O escándalo que provocou o caso de Rafael Luque, investigador suspendido de emprego e soldo por realizar prácticas irregulares na publicación da súa actividade investigadora volveu poñer sobre a mesa unha serie de problemas ao redor da práctica da publicación científica.

Este autor firmaba un artigo cada 37 horas filiado a unha universidade árabe (a pesar de formar parte da plantilla da Universidad de Córdoba) coa finalidade de aumentar os seus indicadores persoais e os da institución (Ansede, 2023).

O actual sistema de investigación descansa nunha estrutura segundo a cal a carreira profesional dos investigadores progresa en función da cantidad e calidade da súa produción científica. Uns bos índices garanten financiación para continuar investigando e conseguir acreditacións e sexenios que redundan ademais nunha mellora salarial e a obtención dun posto de traballo estable.

A produción científica mídese cando se publica, pero publicar e facerlo nunha revista ‘rentable’ implica someterse ás directrices do sistema editorial científico que funciona dun modo bastante singular, xa que os investigadores, a través das instituciones públicas ás que pertencen, pagan por leer e moitas veces por publicar.

Por outro lado, desde hai décadas os comités de avaliación científica que valoran periódicamente a traxectoria académica e produción científica dos investigadores veñen utilizando unhas ferramentas cuantitativas creadas na súa orixe polas bibliotecas para avaliar a compra de revistas académicas. A máis famosa é el JIF (Journal Impact Factor) da Web of Science, pero a ésta fóronse sumando outras similares. Actualmente a bibliometría xerou novos tipos de métricas aínda que os produtos de WoS e Scopus seguen a ser preemientes nos procesos de avalición.

A doctrina que se ven aplicando presupón que se un artigo se publica nunha revista que recibe habitualmente un elevado número de citas, ese artigo é de calidade, independientemente do seu contido. Optar por este método simplificador obedece a distintas causas entre as que se atopa o limitado número de persoas que compoñen os distintos comités e os plazos axustados aos que están suxeitos. As mencionadas limitacións fomentan o uso de recursos inmediatos e estandarizados como son os datos cuantitativos que estas ferramientas ofrecen en lugar de darlle maior peso á análise cualitativa.

A esta ecuación súmanse os rankings universitarios. Do mesmo xeito que os autores vense abocados a unha carrera vertixinosa e muchas veces pouco ética coa fin de publicar artigos nas revistas máis prestixiosas ('Publish or perish'), tambén as universidades ven depender a súa financiación de parámetros como a productividade dos seus investigadores, suxeitas a medición a través dos múltiples rankings que proliferaron.

A presión destes “motivadores de voluntade” a nivel micro (autor) y macro (institución) fixo que se extendera a investigación baleira (‘research waste’) sen interese científico real e sen impacto na sociedade.

Coa fin de corrixir o mal funcionamento del sistema científico véñense multiplicando iniciativas como DORA (Declaration on Research Assessment) (2012), máis coñecida como Declaración de San Francisco, e manifestos como o de Leiden (2015) ou o de Hong Kong (2020) que abogan por unas prácticas nas políticas evaluativas más multidimensionais. A máis actual é a creación, tras un longo debate cos axentes implicados, de CoARA, Coalición para o Avance da Avaluación da Investigación por parte da Unidade de Ciencia Aberta da Comisión Europea. A este proxecto, cuxa finalidade é desterrar os rankings como ferramienta de avaliación científica e pasar dun sistema papercentrista a outro no que os elementos cualitativos sexan tidos en conta,  adheríronse xa 500 institucións.

Xa en particular, desde o campo da bibliometría, urxe establecer unha ética da cuantificación (numeroethics), dotar aos indicadores de significado, promocionar as buenas prácticas e asesorar ás unidades de avaluación para que utilicen unhas métricas responsables que xa se postulaban na Bibliometría Evaluativa dos años 80 sen caer no negacionismo bibliométrico nin desbotar a utilidade dos datos. Nunca debemos olvidar que os indicadores son instrumentos potentes pero también un constructo social cargado de ideoloxía e intereses económicos que poden  (e non deben) perpetuar desigualdades no campo socio-científico.



No hay comentarios: