minha conta a revista fazer logout faça seu login assinaturas a revista
piauí jogos

    papers

Questões da Ciência

Sopa de letrinhas

Perguntar a um professor universitário o que ele acha do sistema de avaliação da produtividade dos pesquisadores brasileiros é garantia de um longo e acalorado debate. É difícil encontrar um deles que não tenha uma única crítica aos critérios adotados. Na semana passada, dezenas de pesquisadores se reuniram na UFRJ para discutir esse sistema e refletir sobre como torná-lo mais adequado à realidade da ciência brasileira.

Bernardo Esteves | 17 jun 2011_15h41
A+ A- A

Perguntar a um professor universitário o que ele acha do sistema de avaliação da produtividade dos pesquisadores brasileiros é garantia de um longo e acalorado debate. É difícil encontrar um deles que não tenha uma única crítica aos critérios adotados. Na semana passada, dezenas de pesquisadores se reuniram na UFRJ para discutir esse sistema e refletir sobre como torná-lo mais adequado à realidade da ciência brasileira.

No Brasil, a avaliação de pesquisadores e programas de pós-graduação é feita por duas agências federais de estímulo à pesquisa: o CNPq e a Capes . Os critérios usados são essencialmente quantitativos. A publicação de artigos em revistas especializadas é um dos itens mais valorizados: quanto mais publica um cientista, maior sua pontuação. A quantidade de vezes que um trabalho é citado por outros cientistas também é levada em conta, bem como o impacto do periódico em que o artigo é publicado.

O resultado desse processo é um ranking baseado num festival de letras e números que pode confundir quem não for da área – e que frequentemente determina a distribuição de recursos para projetos de pesquisa e programas de pós-graduação. Os pesquisadores mais produtivos são classificados como 1A, 1B, 1C e 1D, uma casta acima dos de ranking 2. Na avaliação das revistas especializadas, inverte-se a ordem da letra e do número: um periódico A1 é mais prestigioso que um B3, por exemplo.

A adoção desses critérios reproduz no Brasil um modelo institucional implantado nos Estados Unidos ao longo da segunda metade do século 20. Resgatar a dimensão histórica desse sistema de avaliação – que soa natural para muitos – foi justamente um dos propósitos do encontro realizado semana passada no Rio de Janeiro, promovido pela Sociedade Brasileira de História das Ciências e pelo núcleo de estudos dessa disciplina da UFRJ. O que se viu, nas mesas redondas e no debate com a plateia, foi um festival de críticas ao sistema de avaliação.

O engenheiro de sistemas Henrique Cukierman, da UFRJ, criticou a operação que faz os critérios de avaliação soarem neutros para os pesquisadores. “Publicar em uma revista A1 se torna natural, ao mesmo tempo em que se apaga a problematização das eventuais razões e vantagens decorrentes de uma tal publicação”, disse. “Ficam os números e os gráficos, vai-se a legenda que os explica, tornando-os auto-explicáveis.”

O matemático Otávio Carpinteiro, da Universidade Federal de Itajubá (Unifei), criticou os critérios de avaliação por medirem os professores universitários apenas por seu desempenho na pesquisa, deixando de lado outras competências fundamentais, como a de dar boas aulas. “Não há bolsas de produtividade para ensino, extensão ou administração”, ironizou.

Já Rafael Alcadipani, pesquisador da área de administração da Fundação Getúlio Vargas, vê com preocupação o perfil dos alunos obcecados com a produção de artigos que estão sendo formados pelas universidades. “Essa é uma geração perdida”, acredita ele. “Estamos perdendo o foco fundamental, que é a produção de conhecimento, pensar, estudar.”

Critérios distintos para cada disciplina
A especialista em política científica Lea Velho, pesquisadora da Unicamp, lembrou que é preciso levar em conta as práticas distintas de publicação e citação vigentes nas diferentes áreas da ciência. “O reconhecimento dessa diversidade é fundamental para o estabelecimento dos sistemas de avaliação do desempenho científico”, defendeu ela.

A Capes tenta, a seu modo, usar critérios diferenciados para avaliar áreas da ciência que usam práticas distintas na produção do conhecimento. Durante o evento da UFRJ, a coordenadora-geral de avaliação da agência apresentou o “Qualis artístico”, usado para avaliar a produção dos pesquisadores da área de artes.

Rafael Alcadipani ironizou essa iniciativa em sua fala. “Imagina só: mês que vem vai ter um concerto B2 na Sala São Paulo. Na semana seguinte, uma peça de teatro A1 vai se apresentar no Teatro do Amazonas. O que estamos fazendo?”, provocou a plateia, que reagiu com risos ruidosos.

O historiador Luiz Carlos Soares, pesquisador da Universidade Federal Fluminense (UFF) que trabalhou durante três anos na Capes como coordenador adjunto da área de história, criticou a ironia de Alcadipani e saiu em defesa da agência de fomento durante o debate. Em uma conversa telefônica dias depois do evento, ele me explicou seu ponto de vista.

“A crítica demonstra desconhecimento do Qualis artístico, que foi um ganho importantíssimo para os pesquisadores da área de artes”, explicou Soares. “Ele não foi estabelecido para avaliar a qualidade de uma peça ou música, mas propõe critérios específicos pra avaliar a produção dos pesquisadores vinculados aos programas de pós-graduação dessa área.”

Foto: tillwe (CC 2.0 BY-SA)

Atualizações: Este texto foi atualizado em 20 de junho para corrigir a classificação dos pesquisadores pelo CNPq e em 21 de junho para corrigir a grafia do nome de Rafael Alcadipani.

As apresentações feitas durante o evento da UFRJ foram publicadas on-line em agosto.

Assine nossa newsletter

Toda sexta-feira enviaremos uma seleção de conteúdos em destaque na piauí