CRÉDITO: TOM GAULD_2018
A ciência recalcula sua rota
Pesquisadores lutam por um sistema de publicação mais aberto e menos excludente
Clarice Cudischevitch e Kleber Neves | Edição 212, Maio 2024
Era véspera de Ano-Novo quando a bióloga Vanessa Staggemeier perdeu a paciência. Fazia um ano que ela tentava publicar seu artigo científico em alguma revista especializada. Tentou a primeira, depois a segunda, então a terceira e, agora, vinha lidando com uma quarta, a Biotropica, uma publicação tradicional na área de ecologia e conservação tropical. No último dia de 2015, Staggemeier tinha acabado de escrever 28 páginas em resposta aos questionamentos do editor da Biotropica. Estava confusa. Com tantas revisões – cinco, no total –, Staggemeier e suas duas colegas que também assinavam o artigo já estavam perdidas entre as diversas versões do texto. As respostas das três autoras aos revisores somaram, no total, 87 páginas. Eram mais extensas que o próprio artigo.
Em tom de frustração, Staggemeier anexou uma carta às 28 páginas e escreveu: “Junto com esta carta, você encontrará nossas respostas a todas as preocupações expressas pelo editor e pelos revisores.” E explicou: “Aceitamos a maioria dos comentários, e as alterações sugeridas estão incorporadas na versão recentemente revisada. Contudo, em alguns tópicos a opinião do último revisor incluído foi contraditória à opinião dos revisores anteriores. Nesses casos optamos por seguir o consenso da maioria e respeitar as sugestões anteriores; explicamos nossas decisões nesta carta.”
A batalha só acabou oito meses mais tarde, quando a Biotropica finalmente publicou o artigo na edição de agosto de 2016, depois de outras tantas idas e vindas no processo conhecido como “revisão por pares”, nome que se dá à avaliação de um trabalho científico feita por outros especialistas da área. O artigo levou quase dois anos para ser publicado. Nele, Staggemeier e suas colegas, Eliana Cazetta e Leonor Morellato, discorrem sobre o papel da interação entre plantas e animais na dispersão de sementes na Mata Atlântica. “Eu poderia ter escrito pelo menos dois outros papers com todas as respostas que dei nas revisões ao longo desses dois anos”, lamenta a bióloga, usando o jargão em inglês com que os cientistas se referem aos artigos técnicos.
Staggemeier é professora na Universidade Federal do Rio Grande do Norte (UFRN). Estuda a interação entre plantas e animais que consomem frutas. Nas florestas tropicais, a maioria das espécies vegetais depende de animais para espalhar suas sementes, mas não se sabe exatamente como isso acontece. Por exemplo: como uma ave toma a decisão de comer um fruto pequeno ou grande, com muitas ou poucas sementes, amarelo ou vermelho?
A cientista concluiu seu doutorado em ecologia e evolução em 2014, pela Universidade Federal de Goiás, mas começou o trabalho que queria publicar muito antes, ainda na iniciação científica. Em 2005, quando estava na graduação em biologia na Universidade Estadual Paulista Júlio de Mesquita Filho (Unesp), ela ajudava nas pesquisas de campo de doutorandos que estudavam as diferentes fases do crescimento e desenvolvimento das plantas.
O terreno era a Ilha do Cardoso, região de mais de 13 mil hectares no litoral Sul de São Paulo que integra a maior área de Mata Atlântica contínua no Brasil. “O filé mignon da floresta”, diz a cientista. Ali, Staggemeier fez o que poucos pesquisadores fazem por ser muito trabalhoso: durante 24 meses, ela contou – literalmente – quantos frutos verdes e maduros cada árvore dava naquele trecho de floresta. A cientista teve a ajuda de um mateiro que conhecia bem o local e estudava biologia.
A bióloga passava muitas horas na floresta, com um binóculo em uma mão e um contador na outra, olhando para as copas das árvores e computando seus frutos. Tudo em meio a mosquitos, carrapatos, chuva e calor, que embaçava o binóculo e exigia de tempos em tempos que a cientista parasse para limpá-lo e recomeçasse a contagem. Na etapa seguinte, ela calculava quanta biomassa havia na polpa desses frutos. Isso implica levá-los para o laboratório, medi-los, pesá-los e despolpá-los, antes de proceder a uma nova pesagem e medição. Em seguida, ela registrava num computador os números obtidos nessas operações, que mais tarde dariam origem a tabelas e gráficos.
Com todos esses dados em mãos, Staggemeier e suas colegas mostraram que as palmeiras e mirtáceas – família que abriga muitas árvores frutíferas comuns em pomares e quintais, como goiabeira, jabuticabeira e pitangueira – são fundamentais para sustentar a fauna da Mata Atlântica. As palmeiras fornecem frutos em grande quantidade e muito ricos em lipídios, que atraem mais de quarenta espécies de aves. Já as mirtáceas dão frutos em períodos nos quais a mata está mais pobre, sem outras espécies frutificando.
“Eu me senti confiante de que meu paper trazia uma contribuição bem bacana e original. Então, estava determinada a publicá-lo”, conta Staggemeier. Na primeira tentativa, submeteu o manuscrito a uma revista tradicional de sua área e ouviu dos editores que ele era “muito cheio de história natural”. Queriam dizer que se tratava de um estudo mais preocupado em caracterizar os padrões das espécies em detalhes e a forma como ocorrem na natureza, e menos focado em análises estatísticas. Na segunda revista, acharam o trabalho “excessivamente descritivo”. Na terceira, o artigo “tomou outro pau, com pareceres mais duros”, diz a cientista. Até que chegou à Biotropica.
Staggemeier nunca tinha tido um artigo rejeitado por seus pares até então. “Acho que esgotei meu estoque de negativas com esse paper”, brinca. Alguém menos persistente, ou menos convencido da importância do seu trabalho, talvez tivesse desistido. Ao resumir sua experiência com a revisão por pares, esse mecanismo considerado um controle de qualidade da ciência, a bióloga afirma: “Recebi críticas que me ajudaram a melhorar o artigo, mas também aprendi o quanto a revisão por pares pode ser arbitrária.”
“O paper precisou de várias revisões porque as alterações feitas pelas autoras ainda não atendiam o que tinha sido pedido pelos pareceristas”, explica o ecólogo mexicano Emilio Bruna, professor da Universidade da Flórida, que foi o interlocutor de Staggemeier na Biotropica. “E, embora todos elogiassem e reconhecessem o valor dos dados, faltava um ‘pé no chão’ teórico. As hipóteses não estavam bem contextualizadas até a terceira revisão.” Bruna é fluente em português e um estudioso da Amazônia e do Cerrado.
Ele reconhece que o processo de Staggemeier foi longo, mas acha que esse tempo foi importante para melhorar o trabalho, e reflete a meta da revista de promover a pesquisa de jovens cientistas (Staggemeier tinha 30 anos quando submeteu a primeira versão de seu artigo). Por fim, o editor deu a entender que o longo prazo até a publicação não teve maiores prejuízos para a ciência. “Na ecologia, estamos contando bichos que comem plantas, e não curando o câncer. Não tem problema demorar um ou dois meses a mais.”
Os artigos científicos são a forma com que os pesquisadores compartilham o resultado de suas investigações. Muitas vezes os dados são apresentados antes em congressos ou simpósios, mas só ficam registrados na literatura técnica e passam a integrar a bagagem coletiva da ciência quando são publicados numa revista especializada. Os artigos são o principal fruto do trabalho de um cientista. Quando alguém fala em “produção científica”, costuma se referir ao número de artigos que um cientista publicou.
Uma etapa central desse processo é a revisão por pares. É a avaliação da pertinência de um estudo, a chancela com a qual os especialistas separam resultados legítimos daqueles que não devem ser publicados. O processo funciona da seguinte forma: cientistas escrevem um texto que resume e analisa sua pesquisa e submetem o artigo a uma revista científica. Se considerar o trabalho pertinente, o editor encaminha o texto para dois ou três cientistas independentes, especializados no tema do artigo – são os “pares” que vão atuar como revisores.
Os revisores externos, cuja identidade em geral não é revelada aos autores, leem o trabalho e dão um parecer crítico. Podem recomendar a publicação ou a rejeição do artigo. Porém, se avaliarem que a redação está confusa, que os dados não sustentam a conclusão do artigo ou que as referências citadas não são as mais apropriadas, sugerem ajustes que podem incluir a realização de mais experimentos ou a incorporação de novas referências ao trabalho. Nesse caso, os autores respondem aos pareceres e preparam uma nova versão do texto, e os revisores voltam a avaliá-lo. A decisão final é do editor. Se o artigo for recusado, os autores podem recomeçar o processo em outra revista.
O sistema de publicação e validação científica, no entanto, nem sempre funcionou assim. Desde a primeira revista científica, a Philosophical Transactions of the Royal Society, lançada na Inglaterra em 1665 e publicada até hoje, a decisão de aceitar ou rejeitar um artigo era exclusiva dos editores, eles próprios também cientistas. Em geral, não consultavam pareceristas externos. O sistema durou séculos. Em 1905, quando o físico Albert Einstein publicou seus quatro mais famosos artigos na revista alemã Annalen der Physik, nenhum deles foi formalmente revisado por pares. (A lista inclui a proposta da teoria da relatividade restrita, o trabalho que apresenta a famosa equação E = mc2 e a descoberta do efeito fotoelétrico, que lhe renderia o Nobel em 1922.)
Na verdade, um artigo de Einstein, apenas um, passou pela revisão de pares como é feita hoje. Trata-se de um artigo sobre ondas gravitacionais, inicialmente submetido à Physical Review, em 1936. O físico, no entanto, não gostou de saber que o editor havia enviado seu trabalho para revisores externos e preferiu publicar o artigo em outro periódico, o Journal of the Franklin Institute, que não submeteu o texto a outros pareceristas.
A revisão por pares nos moldes atuais só se tornou comum nos anos 1970, quando o volume de publicações cresceu tanto que os editores não conseguiam mais tomar as decisões sozinhos. A Nature, uma das revistas de maior prestígio no mundo, fundada no século xix, só passou a ter revisão por pares em 1967. Hoje, esse processo é uma engrenagem fundamental na máquina da produção de conhecimento científico.
Um estudo publicado na revista Research Integrity and Peer Review em 2021 calculou que, no ano anterior, revisores no mundo todo trabalharam mais de 100 milhões de horas, o equivalente a cerca de 15 mil anos (estima-se que um cientista gaste em torno de cinco horas para escrever um parecer de revisão e que faça entre quatro e cinco revisões por ano). Se esse tempo fosse dinheiro, só no caso de revisores baseados nos Estados Unidos, valeria mais de 1,5 bilhão de dólares. Desse valor, as editoras científicas não desembolsaram um único centavo, já que a revisão é feita de forma voluntária.
E não falta dinheiro às editoras. A holandesa Elsevier – uma das chamadas “cinco grandes”, que juntas dominam o mercado da publicação científica – lucrou mais de 1 bilhão de libras em 2022 (mais de 6 bilhões de reais) e obteve uma margem de lucro de 37,8%. (As outras gigantes do ramo são a anglo-germânica Springer Nature, a britânica Taylor & Francis e as americanas Wiley e Sage.) É uma margem e tanto. Para comparar, a Petrobras, que registrou o maior percentual entre todas as petroleiras do mundo, chegou a um lucro da ordem de 27,3% em 2022. Editar artigo científico vale mais que petróleo.
É em razão de tudo isso – da concentração de editoras, do monopólio sobre o mercado científico, dos valores bilionários, da arbitrariedade da revisão dos pares – que surgiu e começa a se fortalecer um movimento chamado “ciência aberta”.
O movimento pela ciência aberta é composto por pesquisadores que defendem formas mais transparentes – e menos custosas – de divulgar pesquisa. Longo e trabalhoso, o processo de revisão feito por essas editoras poderia se justificar pelo rigor, que garantiria uma triagem da boa ciência. Mas é crescente o número de cientistas que argumenta que esse filtro não acontece na prática. “A revisão por pares funciona muito mal”, afirma Olavo Amaral, professor da Universidade Federal do Rio de Janeiro (UFRJ) e estudioso da confiabilidade dos resultados científicos.
Uma evidência indireta disso veio num estudo publicado na revista eLife em 2021. O estudo repetiu experimentos descritos em 23 artigos que estão entre os mais citados na área de biologia do câncer entre 2010 e 2012, e só conseguiu replicar 46% dos resultados apontados nos artigos. Um artigo informava, por exemplo, que determinada substância havia se mostrado eficaz para tratar câncer em um grupo de camundongos, mas, quando os pesquisadores repetiram o teste, não obtiveram o mesmo efeito. “Ou seja, uma grande parte dos artigos revisados por pares, mesmo aqueles publicados em revistas de renome, apresentam resultados que outros pesquisadores não conseguem replicar”, diz Amaral. “Isso nos faz questionar até que ponto esses dados estão certos.”
Amaral é uma das principais vozes do movimento em defesa da ciência aberta no Brasil. O princípio é que o conhecimento científico, um bem universal, deve ser acessível, verificável e reutilizável, produzido e validado de forma coletiva, facilitando as colaborações e o compartilhamento de informações em benefício da ciência e da sociedade. Por isso, o movimento defende não só o acesso livre e gratuito às publicações científicas, mas também aos dados, métodos e etapas intermediárias dos estudos.
“Temos várias evidências de que fraudes, erros intencionais e artigos sem sentido passam por revisores e acabam publicados. Que filtro é esse que a revisão por pares está fazendo que não nos permite confiar no material publicado?”, questiona Amaral. Não por acaso, pipocaram nos últimos anos pegadinhas criadas para expor as fragilidades do sistema. Eram artigos de araque propositalmente ruins e sem fundamento, que foram aceitos por revistas científicas supostamente sérias.
Um exemplo famoso é o experimento feito pelo jornalista John Bohannon, da revista Science. Em 2013, ele submeteu centenas de artigos falsos a 304 periódicos. Os artigos descreviam as propriedades anticâncer de uma substância extraída do líquen. Eram assinados por nomes inventados, como Ocorrafoo Cobange. Os “trabalhos” continham erros graves facilmente identificáveis por qualquer revisor experiente, mas foram aceitos por 60% das revistas.
No trote, o jornalista escreveu centenas de artigos parecidos que seguiam o mesmo padrão. Cada um alegava que uma determinada molécula produzida por certa espécie de líquen inibia o crescimento de um dado tipo de célula cancerígena. A cada versão do artigo, ele trocava a molécula, a espécie de líquen e o tipo de célula tumoral (um programa de computador e um banco de dados o ajudaram a montar as diferentes versões). Para criar autores e instituições fictícias, Bohannon combinou aleatoriamente nomes, sobrenomes, palavras institucionais e capitais africanas. O jornalista achou – e aparentemente estava certo – que cientistas de países em desenvolvimento despertariam menos suspeitas caso algum editor não encontrasse informações sobre eles online.
Os artigos diziam comprovar a hipótese de que a molécula testada era um poderoso inibidor do crescimento das células de câncer, além de aumentar a sensibilidade delas à radioterapia. Os problemas do trabalho inventado eram diversos. O erro mais grosseiro aparecia logo no primeiro gráfico: a legenda afirmava apresentar um efeito “dependente da dose” no crescimento celular, mas os dados mostravam justamente o contrário, que o efeito independia da dose. Bohannon fez menção específica a esse erro no ensaio que escreveu na Science revelando os bastidores da pegadinha.
De fato, na revisão por pares típica não se costuma checar os dados, os protocolos, os códigos, nem replicar os experimentos para saber se eles foram feitos corretamente ou se são reprodutíveis. Na maior parte das vezes, os autores sequer disponibilizam esse conteúdo. A revisão consiste em avaliar como os resultados são apresentados, se os métodos usados de fato se prestam a sustentar as alegações dos autores, se os resultados justificam a conclusão, se há limitações no formato do estudo e se o trabalho relatado traz alguma novidade para um problema relevante. Não é pouca coisa, mas, como já se provou, não é o suficiente.
Está cada vez mais difícil encontrar pesquisadores dispostos a trabalhar de forma voluntária no sistema de revisão por pares. A bióloga Cecilia Andreazzi está sentindo essa carência na pele. Ela pesquisa a interação entre espécies e doenças infecciosas na Fiocruz e, além disso, atua como editora de dois periódicos de ecologia, o Perspectives in Ecology and Conservation e o Functional Ecology. Seu trabalho consiste em fazer a triagem dos artigos recebidos e buscar colegas que possam revisá-los. “Muitas vezes demoro meses até conseguir revisores disponíveis”, conta Andreazzi. “Já aconteceu de eu ter que devolver o artigo para os autores porque não consegui encontrar ninguém para revisar.”
Andreazzi não é remunerada por seu trabalho como editora. Seu voluntariado destina-se a cooperar com o sistema e, ao mesmo tempo, turbinar seu currículo. Ela recebe uns oito artigos por ano para cada uma das revistas. A avaliação de cada um deles demanda entre duas e dez horas de trabalho. Para conseguir no mínimo dois revisores, ela costuma convidar pelo menos oito pessoas, já que a maioria não aceita, alegando falta de tempo ou outros motivos.
Ao trabalhar como editora e ver por dentro como funciona o sistema de publicação científica, Andreazzi perdeu a confiança no processo. “As pessoas não têm tempo para revisar um artigo; os editores não têm tempo para se dedicar, e os que acabam sendo mais aceitos são os artigos escritos por cientistas de renome.”
Nesse cenário de editores atribulados e pareceristas desmotivados, não surpreendem os tumultos crassos. A bióloga Ayla Sant’Ana, pesquisadora do Instituto Nacional de Tecnologia, certa vez se espantou com o artigo que uma revista lhe enviou para revisão. O estudo comparava o desempenho de três enzimas na síntese de um tipo de açúcar, mas o problema era outro: ela própria era a autora do estudo e havia submetido o artigo à apreciação da revista havia quatro dias. Sant’Ana explicou que era uma das autoras e não podia revisar o trabalho. “Um mês depois, recebi novamente um convite para revisar o artigo. Avisei mais uma vez o editor, que se desculpou e disse que estava com dificuldades de achar revisores.” Em seguida, outra coautora do trabalho foi convidada para revisar o mesmo trabalho. Também negou.
Três meses depois da submissão, Sant’Ana recebeu a notícia de que seu artigo fora rejeitado. A revista alegava que o trabalho era mais adequado para publicação em um periódico de microbiologia, o que lhe pareceu um disparate. “Isso mostra que nem leram. Na época tive pela primeira vez a sensação de que o processo não era tão sério e que depende da sorte o seu artigo cair na mão de um editor engajado que consiga revisores comprometidos”, diz Sant’Ana. O artigo acabou publicado no mesmo ano na revista Biotechnology Letters.
O movimento pela ciência aberta ganhou novo impulso nos últimos cinco anos depois que um consórcio europeu de agências de fomento à ciência, conhecido pelo nome cOAlition S, determinou o que parecia ser uma boa notícia: os trabalhos científicos financiados pelas agências do consórcio, todos eles, tinham que ser publicados em revistas que promovessem o acesso aberto e gratuito para qualquer pessoa. A determinação começou a valer a partir de 2021. A ideia parecia premiar a democratização da ciência, mas, na prática, ocorreu o contrário.
Até então, os artigos científicos eram fechados. Quem quisesse lê-los nas plataformas das editoras científicas deveria pagar uma taxa. Atendendo à exigência do cOAlition S, no entanto, algumas plataformas passaram a publicar artigos abertos para todos, mas impuseram uma condição draconiana: o autor do artigo tem que pagar para publicá-lo. E não é pouco. Hoje, quem quiser publicar um artigo aberto em quase qualquer revista do grupo Nature Portfolio – que inclui a prestigiosa Nature – precisa desembolsar 12 290 dólares para custear uma taxa de processamento do artigo. São cerca de 60 mil reais, o equivalente a mais de um ano e meio de bolsa de doutorado da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), a agência pública que financia a maior parte das bolsas de pós-graduação no Brasil.
O modelo de publicação de artigo fechado – acessível mediante pagamento, ou por assinatura – ainda existe. Na própria Nature, paga-se desde 1,95 dólar por artigo disponível por 48 horas a 39,95 dólares pelo acesso permanente, enquanto os assinantes, que desembolsam 199 dólares por ano, podem ler tudo a qualquer hora. Mas, desde 2021, nenhum trabalho financiado pelo consórcio europeu pode ser lido nesse modelo na Nature. Aos poucos, outras instituições de pesquisa e outros financiadores estão adotando a mesma exigência: querem que os trabalhos que bancam sejam divulgados em revistas de acesso livre. Na prática, o cientista está sendo forçado a desembolsar um valor significativo para publicar seu trabalho.
“Eu acho a barreira para publicar pior do que a barreira para ler”, afirma a médica e professora Alicia Kowaltowski, da Universidade de São Paulo (usp), que trabalha como pesquisadora na área de metabolismo energético. “Para ler, a gente sempre deu um jeito. Pede o artigo para o autor, que é a forma legal, ou usa o Sci-Hub, que é a forma ilegal.” Criado pela programadora cazaque Alexandra Elbakyan, o Sci-Hub é uma plataforma pirata que disponibiliza gratuitamente milhões de artigos científicos de acesso restrito.
Estima-se que, entre 2015 e 2018, com a disseminação da estratégia das editoras de cobrar pela publicação, autores no mundo todo gastaram mais de 1 bilhão de dólares nas tais taxas de processamento dos artigos. Em um paralelo com o jornalismo, é como se um repórter tivesse que pagar para publicar uma reportagem na piauí. “Na prática, esse modelo está diminuindo a inclusão no mundo das publicações”, alerta Kowaltowski. “As revistas que não cobram para publicar estão sumindo, e colegas do exterior com quem publicamos têm pressionado pelo acesso aberto. E, sem publicar, as pessoas nem sabem que você existe.”
Acessar artigos fechados não era um obstáculo para pesquisadores brasileiros, graças ao Portal de Periódicos da Capes, que tem contratos com as principais editoras internacionais para disponibilizar seus conteúdos às instituições de pesquisa do país. Mas agora, quando se paga cada vez mais para publicar e menos para acessar, surgiu um debate sobre deslocar os recursos destinados aos contratos com editoras para usá-los no pagamento das taxas de publicação.
O problema é que a conta não fecha: enquanto o orçamento do Portal de Periódicos da Capes é de cerca de 100 milhões de dólares por ano, a projeção de custo feita pela agência para o pagamento de taxas de publicação dos artigos brasileiros em um único ano chega a mais de 200 milhões de dólares. “Estamos fazendo vários exercícios de análise e construindo cenários para ter uma visão dos custos e trabalhar no desenho de uma política sustentável”, informou a agência em e-mail enviado à piauí.
Existe, ainda, a preocupação de que o alto custo exclua países mais pobres do sistema de publicação. Um estudo de 2021, publicado na revista Quantitative Science Studies, mostrou que os autores dos artigos divulgados em periódicos que cobravam taxas de publicação tinham uma diversidade geográfica muito menor. Nas revistas que não cobravam taxas, o primeiro autor de 10,4% dos artigos era um pesquisador da América Latina, contra 3,7% no caso das revistas que cobram taxa. O estudo foi liderado por Emilio Bruna, o editor do artigo de Vanessa Staggemeier que é, ele próprio, um entusiasta das questões de ciência aberta e de como elas afetam a América Latina.
Apesar de tudo, o Brasil é um país na vanguarda do acesso aberto por causa da Scielo (Scientific Electronic Library Online). Lançada em 1998, a biblioteca digital, mantida com verba pública, reúne a maioria das revistas científicas brasileiras e disponibiliza seu conteúdo integral gratuitamente. Considerado um modelo internacional, está presente hoje em dezesseis países, com mais de 1,6 mil periódicos ativos, e é especialmente forte na América Latina.
Um terço das revistas reunidas na plataforma Scielo cobra taxas de publicação a um custo médio de 300 dólares. “É um valor baixo, mais perto do custo real, e muito usado para a tradução dos manuscritos [para o inglês]”, explica Abel Packer, um de seus fundadores. Mas o Scielo não vai resolver o problema, porque a maioria das revistas reunidas ali não atrai muito interesse dos cientistas estrangeiros – e, com isso, acabam sendo menos atraentes para os brasileiros. “Eu quero publicar ao lado dos meus pares”, diz Kowaltowski, da usp. “O ser humano é assim: vai achar que o trabalho não é tão bom se sair em revistas locais.”
A maioria dos cientistas almeja publicar na Nature ou em outras revistas do mesmo grupo. Uma parte da reputação da revista decorre do suposto rigor no processo de revisão e do seu alto fator de impacto, calculado com base no número de vezes que os artigos publicados ali são citados em outros trabalhos. É da Nature, por exemplo, o famoso paper de 1953 que descreveu a estrutura em dupla-hélice do DNA (que, aliás, está em acesso fechado no site).
“É caro, sim, mas as pessoas têm uma visão muito simplificada do que acontece em uma revista como a minha”, afirma João Monteiro, brasileiro radicado nos Estados Unidos e editor-chefe da Nature Medicine, cujo fator de impacto, de 82,9, está entre os dez mais altos do mundo. Monteiro explica que o custo banca uma vasta cadeia de profissionais envolvidos na curadoria dos artigos, na busca por revisores e em outras etapas do processo editorial. “Não é simplesmente decidir em uma hora se vamos publicar o paper ou não”, diz. “Tem um monte de coisas construídas naquele artigo que ninguém vê.”
Monteiro está na Nature Medicine desde dezembro de 2017, mas é editor profissional há onze anos. Antes, ele pesquisava o sistema de defesa do corpo humano. Médico formado pela UFRJ com doutorado em imunologia pela mesma universidade, Monteiro investigava por que pessoas que desenvolvem doenças autoimunes têm manifestações clínicas tão diferentes entre si, e por que algumas doenças atacam órgãos específicos do corpo.
Em 2013, quando fazia um pós-doutorado nos Estados Unidos, Monteiro se tornou editor de imunologia da Cell, uma renomada revista na área de biologia experimental. Autor de doze artigos científicos em revistas de nicho como a European Journal of Immunology, ele abandonou de vez a bancada quando assumiu o cargo de editor-chefe, inconciliável com a pesquisa.
A Nature Medicine recebe de 4 mil a 5 mil artigos por ano. Todos passam por Monteiro, mas o processo envolve uma extensa cadeia de atores. Na primeira triagem editorial, eles avaliam o nível de avanço científico e implicações médicas relevantes do trabalho, considerando a audiência diversificada da revista, que abrange todas as áreas da medicina. De 15% a 18% vão para revisão. De 5% a 7% são publicados.
Em outubro de 2020, o Brasil já passava da marca de 150 mil mortos por Covid quando Daniel Martins-de-Souza, professor e pesquisador da Universidade de Campinas (Unicamp), enfrentou a peneira da Nature Medicine. Em tempos normais, o biólogo trabalha com bioquímica de proteínas investigando como transtornos psiquiátricos, como a esquizofrenia, se manifestam em escala molecular no cérebro. Mas, no auge da pandemia, ele mudou a rota de sua pesquisa para tentar entender aquele novo vírus e ajudar a combatê-lo.
Liderou um estudo envolvendo 88 pesquisadores brasileiros, concluindo que, além dos efeitos conhecidos no sistema respiratório e em outras partes do corpo humano, o coronavírus também era capaz de infectar o cérebro. Para isso, analisaram desde imagens de ressonância magnética de pacientes internados até cérebros de pessoas que morreram de Covid, além de conduzirem testes comportamentais em humanos e experimentos in vitro para comprovar o que observaram in vivo. “Fomos um dos primeiros grupos no mundo, se não o primeiro, a demonstrar que de fato o Sars-CoV-2 chegava ao cérebro”, conta Martins-de-Souza.
Confiante, o cientista submeteu o artigo à Nature Medicine. Pouco depois, recebeu a negativa de um dos editores, explicando por que eles sequer mandariam o trabalho para a avaliação dos pareceristas. Ele informou por e-mail que os resultados do grupo brasileiro não traziam um avanço clínico suficiente para atrair leitores da Nature Medicine. O cientista contra-argumentou. Alegou que ainda não havia nenhum estudo sobre aquele assunto na literatura científica, ainda mais com imagens de ressonância. Não adiantou. Em resposta, João Monteiro, que já era editor-chefe da Nature Medicine na época, reiterou que o artigo não seria reconsiderado e que “seria mais produtivo” se ele enviasse o trabalho para outra revista.
Martins-de-Souza submeteu o estudo a outras sete revistas conceituadas, sem sucesso. “Mesmo com revisões positivas, os editores denegavam”, diz. “Só passamos a ter chance depois que um grupo da Universidade Yale publicou um trabalho muito parecido com o nosso.” Liderado pela imunologista Akiko Iwasaki, o artigo de Yale saiu no Journal of Experimental Medicine em janeiro de 2021. Por meio de experimentos com organoides cerebrais e camundongos e de autópsias em pacientes que morreram de Covid, o grupo trouxe evidências de que o coronavírus de fato era capaz de invadir as células cerebrais. Foi tido como o pioneiro em apresentar esses resultados.
Já o paper brasileiro só foi publicado um ano e sete meses mais tarde, em agosto de 2022, já na nona tentativa. Saiu na revista Pnas, os prestigiosos anais da Academia Nacional de Ciências dos Estados Unidos. “Para mim, isso mostra que o estudo ser 100% do Brasil influencia na aprovação”, lamenta o biólogo, que afirma que, em seus estágios de pós-doutorado no Instituto Max Planck, na Alemanha, e na Universidade de Cambridge, na Inglaterra, nunca teve seus artigos barrados. “Não tenho dúvidas de que, se eu estivesse num centro grande da Europa ou dos Estados Unidos, nosso artigo teria sido aceito de primeira. Eles ainda não entendem que somos capazes de fazer ciência de boa qualidade.”
João Monteiro nega que a Nature Medicine faça uma avaliação enviesada dos trabalhos com base no país ou instituição de origem dos cientistas. “Quando me perguntam quem tem mais chance de publicar na Nature Medicine, se alguém de Harvard ou de uma instituição do Brasil, a resposta é sempre a mesma: a gente olha a pesquisa, os dados, a robustez. Não importa quem é o autor.”
O editor não comenta casos específicos de artigos aprovados ou rejeitados, mas diz que existe uma subjetividade ao se avaliar se um dado é robusto ou não. “Meu trabalho não é rejeitar paper. É ajudar as pessoas a publicarem seus trabalhos o mais rápido possível e consumindo o mínimo de recursos, seja por meio da minha revista ou direcionando para outra.” O objetivo, diz Monteiro, é que no final do processo o artigo publicado seja mais sólido e reprodutível do que quando chegou. “Mas não é um processo perfeito. Quem critica a revisão por pares sempre vai encontrar aquele exemplo que deu errado.”
Os críticos da revisão por pares também denunciam a falta de transparência de todo o processo. As discussões entre autores, pareceristas e editores geralmente não se tornam públicas, embora pudessem ser proveitosas para outros cientistas.
Na contramão dessa tendência, a Nature Communications começou em 2016 a oferecer aos autores a opção de divulgar todos os pareceres dos revisores e suas respostas a eles. Cerca de 60% dos autores escolheram a revisão aberta. Em 2022, a revista – que cobre ciências naturais, sociais, aplicadas, matemática e engenharias – adotou esse modelo para todos os artigos que publica.
Embora o processo de revisão por pares seja caro, ineficiente, pouco transparente e enviesado, a carreira dos cientistas continua orientada em função das publicações, e muitos deles continuam empenhados em emplacar seus trabalhos nas revistas de alto impacto. Por que, no fim das contas, os pesquisadores querem tanto publicar na Nature?
A resposta talvez soe óbvia. Os cientistas são recompensados pelo número de publicações, mas também pelo prestígio da revista em que saem seus artigos. Quanto maior o fator de impacto, melhor. A recompensa pode ser uma promoção, um financiamento para a pesquisa, algumas bolsas para técnicos de laboratório ou alunos de mestrado e doutorado. Também valem pontos que podem resultar numa aprovação num concurso público ou num processo seletivo.
“O pessoal da literatura não acha que um livro é bom só por ter saído na Companhia das Letras, mas na ciência tem essa coisa de que a publicação vale por si”, aponta Olavo Amaral, da UFRJ. “Se você precisa publicar na Nature para obter um cargo permanente na universidade, você não está pagando só pela publicação. Por isso, acho que temos que começar o controle de qualidade da ciência e seu sistema de avaliação do zero.”
No Brasil, a lógica que valoriza mais os periódicos internacionais de grande prestígio está embutida no Qualis, sistema da Capes que ranqueia as revistas de acordo com o seu fator de impacto e outras métricas. A avaliação da produção científica dos programas de pós-graduação está atrelada às revistas em que foram publicados os artigos de seus pesquisadores. Na prática, a competência de um cientista é medida quase exclusivamente pela revista na qual ele publica.
O ranking de revistas elaborado pela Capes acaba sendo usado também em concursos e outras avaliações, embora não tenha sido originalmente elaborado com essa finalidade. Na lista do Qualis, alvo de intensas críticas da comunidade científica, revistas internacionais tendem a ter mais peso que os títulos nacionais. Naturalmente, isso deixa os pesquisadores brasileiros reféns das grandes editoras e diminui a importância da Scielo – embora a própria Capes seja uma de suas financiadoras e tenha reservado 15 milhões de reais para a manutenção de suas atividades entre 2024 e 2026.
Uma das premissas do Qualis é induzir a internacionalização da produção científica brasileira. Mas se tornou uma pedra no sapato dos cientistas. “O pesquisador hoje trabalha para conseguir emplacar seus artigos onde vai conseguir mais pontos, e não para comunicar sua pesquisa”, afirma Abel Packer. Para ele, seria mais produtivo que as avaliações considerassem também o desempenho das pesquisas dois ou três anos depois de publicadas, levando em conta o número de citações que receberam, por exemplo. Mas Packer reconhece que essa métrica teria dificuldade para avaliar algumas áreas do conhecimento em que os trabalhos levam mais tempo para acumular citações, como a matemática e a ciência da computação.
A Capes explica que a última avaliação dos programas de pós-graduação, feita no período 2017-2020, passou a dar mais atenção ao que os próprios programas definiram como suas produções de maior destaque ou impacto social. “O deslocamento para uma abordagem mais qualitativa dispensou, em muitas áreas, avaliar a produção em sua totalidade, diminuindo o foco/crítica a uma avaliação ‘produtivista’. Com isso, o Qualis, apesar de ainda ser utilizado, tem hoje um papel menor na avaliação”, informou a Capes, por e-mail.
Para o professor de estudos sociais da ciência Ludo Waltman, pesquisador na Universidade de Leiden, na Holanda, é preciso modernizar a forma como se avalia a produção científica. “Medir o desempenho de um cientista não precisa ser baseado no que foi revisado por pares, mas na sua contribuição global para além dos artigos – no avanço da ciência, no que ele proveu à sociedade”, afirma Waltman. “Uma avaliação holística é mais eficiente e mais importante do que um selo.”
Em outubro de 2023, sete anos depois da batalha para publicar os resultados de sua pesquisa de doutorado, Vanessa Staggemeier adotou um caminho diferente para divulgar os resultados de um novo estudo. Nesse trabalho, ela liderou uma equipe de 24 cientistas, em parceria com a ecóloga Thais Vasconcelos, da Universidade de Michigan. Os pesquisadores fizeram o sequenciamento genético de mais de setecentas espécies de mirtáceas, o grupo de árvores estudadas por Staggemeier. Depois de coletar os espécimes em campo, os cientistas colocaram suas folhas em sílica para desidratá-las rapidamente e, assim, preservar seu DNA. A partir daí, fizeram o sequenciamento em laboratório e reconstruíram seu parentesco.
O estudo traz uma “árvore genealógica” inédita das mirtáceas, tanto por sua extensão quanto por sua diversidade, e deverá ajudar outros ecólogos que trabalham no tema. “Até uns vinte anos atrás, as mirtáceas eram o pesadelo dos taxonomistas”, diz Staggemeier. “Havia poucos especialistas e estudos na literatura para a gente conseguir diferenciá-las. Em pesquisas sobre a flora brasileira, era comum esta ser a família com mais espécies não identificadas.”
Para divulgar os resultados da pesquisa, Staggemeier e seus colegas decidiram não enviá-los de imediato para a avaliação de uma revista especializada. Antes disso, publicaram o artigo numa plataforma online, a bioRxiv, que reúne artigos que ainda não foram revistos pelos pares – chamados pelos cientistas de preprints. Em paralelo, a pesquisadora submeteu o estudo para publicação na revista American Journal of Botany. O artigo já foi aceito e está em fase final de edição.
Cientistas da física, matemática e ciência da computação adotam os preprints há bastante tempo. Nessas disciplinas, os pesquisadores estão habituados a tornar seus resultados públicos no arXiv, um repositório criado em 1991 que já tem mais de 2 milhões de artigos (nenhum deles com revisão formal). O estudo de 2017 que apresentou a base de redes neurais por trás do Chatgpt, por exemplo, foi publicado no arXiv. Em especialidades como a astronomia e a física de partículas, a maioria dos artigos que saem nos periódicos foi postada antes como preprint.
Já nas ciências biomédicas, os preprints ganharam popularidade principalmente durante a pandemia de Covid, quando a velocidade na disseminação dos achados científicos era fundamental para se combater o vírus e evitar mais mortes. Nos primeiros dez meses da pandemia, 10 232 preprints relacionados ao coronavírus foram publicados nos repositórios bioRxiv e medRxiv. O número é 131 vezes maior que a quantidade de artigos publicados durante a epidemia anterior, de zika, em 2015 e 2016.
O preprint é apontado por seus entusiastas como uma das principais soluções para tornar a ciência mais aberta. Isso porque os artigos ficam disponíveis gratuitamente para todos, sem cobrança de taxas para os leitores e sem o pagamento de altos valores pelos autores. Os repositórios em que os artigos são postados geralmente são públicos e mantidos por filantropia. Além disso, o processo de publicação é ágil: os artigos não ficam presos no processo de revisão e os resultados se tornam imediatamente disponíveis para outros pesquisadores, o que favorece, por exemplo, a busca de tratamento para várias doenças.
Para Abel Packer, outra vantagem dos preprints é o fato de que libertam os pesquisadores da curadoria das revistas, que tendem a ser mais conservadoras. “Se você tem um projeto bem louco, ninguém vai querer publicar mesmo que esteja bem-feito, porque é fora da curva. Pode estar errado, mas vai que está certo? O preprint resolve isso.”
De fato, a maioria das revistas, como as do grupo da Nature, já aceita artigos que tenham sido postados previamente como preprint. Em 2021, a eLife deu um passo adiante e começou a exigir que os manuscritos submetidos à revista tenham saído antes como preprint. Além disso, em 2024 passou a publicar todos os papers que o editor decide encaminhar para a revisão – não importa se os avaliadores concluírem que o trabalho é ruim. Os pareceres, positivos ou negativos, são divulgados também, embora de forma anônima.
Mas é possível prescindir do trabalho de curadoria e da revisão por pares das revistas? Sem elas, quem fará a triagem da ciência de qualidade daquela que não merece ser publicada? Como a sociedade e os políticos vão saber quais estudos devem ser levados a sério e quais resultados são confiáveis? Na pandemia, a profusão de preprints se tornou um problema na divulgação dos achados científicos. Em meio a tantos estudos não checados, com pesos e níveis de qualidade diferentes, jornalistas ficaram confusos sobre o que valia a pena ou não noticiar. Com isso, pesquisas com resultados errados ou inconclusivos acabaram ganhando as manchetes. Os preprints entraram então na mira dos críticos, para quem aqueles estudos, por não terem sido formalmente revisados, deveriam ser recebidos com mais cautela.
No entanto, artigos que passaram pela revisão por pares não estão livres de erros. Um exemplo da pandemia é um estudo publicado na The Lancet, a revista com o maior fator de impacto no mundo, que relatava a suposta eficácia da hidroxicloroquina no tratamento da Covid. Duas semanas depois, o artigo foi tirado de circulação depois que vários cientistas questionaram a veracidade dos dados, levando parte dos autores a investigarem seu próprio artigo. No fim, três dos quatro autores não conseguiram acessar os dados brutos fornecidos pelo seu coautor, o que os levou a pedir que a revista retirasse o artigo do ar.
O movimento de ciência aberta sugere uma solução para esse impasse aparente: uma revisão pós-publicação que também seja aberta. Ou seja: os artigos seriam tornados públicos mesmo antes da revisão, como no caso dos preprints, mas só seriam incorporados ao conhecimento científico depois de revisados coletivamente – e, eventualmente, reformulados em função dos comentários. Em alguns repositórios de preprints, como bioRxiv e medRxiv, é possível postar comentários sobre os estudos publicados. Já há plataformas voltadas para isso, como a PubPeer e a prereview.
Com essa saída, o filtro da boa ciência estaria presente, garantido por uma comunidade engajada em fazer a revisão coletiva e aberta. Ainda assim, para que qualquer revisão seja eficiente, é fundamental que, junto com os artigos, os autores compartilhem também os dados, códigos e protocolos por trás dos resultados, facilitando a checagem.
“Para mim esse é o modelo perfeito, altamente implementável com o que temos agora”, destaca Alicia Kowaltowski. “Os repositórios de preprints são grátis, você pode comentar os trabalhos que estão ali, e o mercado editorial já aceita. Então você deposita o preprint, manda para a revista em paralelo, a revisão por pares melhora esse artigo, aí você atualiza tanto o preprint quanto o artigo. Se não estiver em acesso aberto, o texto estará completo nos repositórios. Tudo isso já existe, não precisa mudar o sistema.”
Mas o que precisa mudar não é pouca coisa: são os hábitos, as práticas e os valores dos cientistas e das instituições, que continuam girando em torno dos artigos publicados em revistas de acesso restrito depois da revisão por pares. A transformação dessas práticas tem uma oposição evidente: a indústria poderosa que tira seus lucros bilionários do sistema tal como ele é hoje.
A ideia da revisão coletiva de preprints resolve alguns nós do problema, mas deixa outras questões em aberto. Nesse arranjo, nenhum ator isolado tem a prerrogativa de atestar que um determinado artigo está bom o bastante para ser incorporado à bagagem comum da ciência, como fazem os editores dos periódicos. Ludo Waltman não sente falta dessa chancela, desde que o sistema informe com clareza o estágio de avaliação de cada preprint. “Não há necessidade de ter esses selos de aprovação do tipo ‘isso está certo e isso, não’, porque há coisas no meio”, afirma Waltman. “Precisamos de um sistema transparente que comunique aos leitores que um determinado paper passou pela comprovação de tais e tais pessoas, ou então que está em processo de avaliação.”
Para Luiz Augusto Campos, pesquisador da Universidade do Estado do Rio de Janeiro e editor da revista Dados, é preciso ainda assegurar que, nesse modelo descentralizado de avaliação, todo o material submetido às plataformas de preprints seja avaliado, o que está longe de ser o caso atualmente. “Cerca de 90% dos preprints não são avaliados nunca, a maioria nem é lida”, afirma o sociólogo. “A avaliação coletiva já não funciona porque a tendência é que o número dessas publicações cresça e a maior parte continue não sendo comentada.”
Campos é um entusiasta da ciência aberta, mas acredita que as revistas ainda têm um papel importante: oferecer um selo para os trabalhos mais bem avaliados. “Muitos podem dizer que não importa, mas como hierarquizar milhões de textos com qualidades muito diferentes depositados nesses servidores?”, questiona. O sociólogo observa que a luta por uma ciência mais aberta e equitativa acontece em um mundo capitalista em que ela é muito desigual. “As editoras provavelmente vão buscar modos de reinventar o próprio lucro”, afirma. “Revistas de prestígio podem lançar seus próprios repositórios de preprint e cobrar por isso, por exemplo.”
Campos é a favor de uma avaliação colaborativa da ciência inspirada no modelo de edição dos verbetes da Wikipédia. “Qualquer um pode escrever um artigo, há moderadores por área e uma comunidade gigantesca de avaliadores. Eles podem validar ou levantar suspeitas, e aquilo fica marcado no texto”, explica o sociólogo. “Escalaríamos pessoas para avaliar o parágrafo em que o autor faz a conta, outra que avalia o modelo estatístico, outra que checa a revisão bibliográfica, outra que vai replicar os experimentos. E haveria também uma avaliação dos avaliadores.”
“O poder de mudar essas práticas vem do financiador”, afirma Kristen Ratan, cofundadora do Icor (“Incentivando a pesquisa aberta e colaborativa”, na sigla em inglês), um consórcio que reúne iniciativas de ciência aberta. Quem banca os projetos realizados pelos pesquisadores está em posição de determinar que eles adotem práticas de ciência aberta desde os estágios iniciais das pesquisas, antes que isso fique custoso demais, continua Ratan. “Se o financiador disser que só quem compartilhar dados poderá concorrer a seus recursos, todo mundo vai fazer isso.”
A mudança de cultura tem que passar também pelas agências de fomento, que seguem avaliando os cientistas pelas revistas em que publicam seus artigos. Já há sinais positivos nesse sentido. O Howard Hughes Medical Institute (HHMI), um dos maiores financiadores das pesquisas biomédicas nos Estados Unidos, já orientou seus cientistas a nunca mencionar em suas apresentações o nome das revistas em que seus trabalhos foram publicados.
A medida não é fortuita. O HHMI chancelou a Declaração de São Francisco sobre Avaliação de Pesquisa, lançada em 2012 e já com 24 mil signatários. As instituições que assinam o documento se comprometem a mudar a forma de avaliar os cientistas. A ideia é considerar não só os artigos publicados e as revistas em que saíram, mas também o valor de todos os resultados (incluindo etapas intermediárias das pesquisas, como conjuntos de dados e softwares), além da atuação do cientista em políticas públicas.
A USP está entre os mais de 430 signatários brasileiros da Declaração de São Francisco. “Isso significa que, nas contratações de novos professores, a universidade não pode fazer uma tabelinha com pontuação baseada no índice de impacto das revistas como modo principal de avaliar os candidatos”, explica Alicia Kowaltowski.
Em meio à busca por reformas no modo de se fazer ciência, há quem seja ainda mais radical. Prachee Avasthi, diretora científica do Arcadia Science, quer mostrar que, além de podermos dispensar a revisão por pares e os periódicos tradicionais, sequer precisamos daquele considerado o grande protagonista do processo científico: o paper. Doutora em neurociências, Avasthi fez uma trajetória tradicional na academia como professora de bioquímica e biologia celular na Universidade de Dartmouth, nos Estados Unidos. Há quase três anos, junto com a colega Seemay Chou, fundou o Arcadia Science. É um centro de pesquisa em biologia que nasceu no Vale do Silício. Com um fundo de 500 milhões de dólares, seus investidores são Jed McCaleb, empresário, programador e também um dos fundadores, e Sam Altman, presidente da OpenAI, empresa que criou o Chatgpt.
Ali, os cerca de trinta cientistas buscam novos organismos que possam ser usados em experimentos na pesquisa biomédica, dispensando os animais utilizados habitualmente, como camundongos e moscas-das-frutas. Eles compartilham com o mundo esse trabalho em tempo real: não apenas resultados e descobertas bem-sucedidas, mas também os processos em andamento, dados, protocolos, desafios que não estão conseguindo resolver ou mesmo projetos abandonados no meio. Quem entra no site encontra desde genomas de carrapatos a planilhas de dados sobre micróbios que crescem em queijos. Tudo fica disponível para quem quiser usar, dar continuidade, checar, comentar ou fazer sugestões.
Não existe um formato específico para as publicações. Podem ser PDFs, dados interativos, figuras, diagramas ou uma ideia: qualquer conteúdo, por mais incompleto que possa parecer, é compartilhado diretamente no site. Só não vale submeter para uma revista científica. “Não é só fazer ciência, é também compartilhá-la”, afirmou Avasthi, em entrevista por vídeo à piauí enquanto caminhava na esteira. É assim, em cima de uma esteira, que ela costuma fazer suas reuniões.
“Nossa cultura é estar sempre escrevendo e compartilhando o que temos naquele momento, sem medo de estar errado”, diz. Para Avasthi, o que define a relevância de um estudo não é se ele passou ou não pela revisão por pares, mas se ele está sendo adotado por outros pesquisadores ou pela sociedade. Por isso, ela é entusiasta dos preprints. “Por que não ter acesso àquele conteúdo dois anos antes de sua publicação? Por que esperar para usá-lo?”
Ainda é cedo para dizer se o experimento em curso no Arcadia Science vai dar certo, se é replicável ou se terá algum impacto na forma como se faz e se publica ciência. A ideia, diz Avasthi, é sobretudo experimentar e entender se novos modelos são possíveis. “Fazer com que as pessoas absorvam, usem e construam em cima desse conhecimento, acumular citações, tudo isso demora”, afirma. O certo é que, no curto tempo de existência do centro de pesquisa, nenhum de seus cientistas quis voltar para a academia. “Uma vez que você experimenta essa liberdade de revisores e editores, você não volta mais.”
Embora não fosse o principal fruto de sua pesquisa de doutorado, o trabalho de Vanessa Staggemeier publicado na Biotropica foi, dentre todos os seus 33 artigos já publicados, o de maior repercussão entre os colegas. Além disso, foi o paper mais citado dentre os 94 artigos publicados pela Biotropica naquele ano de 2017. Em janeiro passado, seu artigo já tinha sido citado mais de cinquenta vezes, quase três vezes mais do que um artigo típico daquela área de pesquisa.
Staggemeier acredita que o texto fez sucesso porque muitos colegas precisavam dos dados que ela e suas colaboradoras reuniram ali. “Quando a gente está dentro da Mata Atlântica, dá para notar a importância das palmeiras e mirtáceas porque elas sempre têm espécies frutificando, e esse paper mostrou isso em detalhes”, diz a bióloga. A partir de uma extensa pesquisa de campo, o estudo mostrou quais espécies frutificam a cada mês, como são seus frutos e como eles influenciam a fauna. “Havia poucas referências sobre isso para as pessoas da área citarem”, diz Staggemeier.
A evolução das ferramentas estatísticas nas últimas décadas permitiu avanços importantes na ecologia. Por outro lado, a pesquisa de campo, aquela que faz parte da tal “história natural”, acabou ficando em segundo plano. “Hoje o aluno não vai a campo coletar o dado”, diz Staggemeier. “Ele faz uma revisão da literatura, pega o dado que alguém coletou, mas não tem nenhum contato com a história por trás dele.”
Logo depois da publicação na Biotropica, e ainda um tanto traumatizada pela maratona que enfrentou para emplacá-la, Staggemeier encontrou um dos revisores do estudo – o único que havia escolhido se identificar – quando fazia um pós-doutorado na Unesp de Rio Claro, em São Paulo. O parecerista, um brasileiro radicado no Reino Unido e professor da Universidade de East Anglia, foi apresentado a Staggemeier e reconheceu o sobrenome da conterrânea. “O revisor me disse, então, que aquele tinha sido o artigo mais lindo que ele tinha lido em muitos anos, cheio de história natural e descrições que se perderam no modo como fazemos ciência hoje.” Para a bióloga, a frase valeu mais do que publicar numa revista de alto impacto.
* Os autores trabalham no Instituto Serrapilheira, criado pelo fundador da piauí.
Jornalista, é gerente de Comunicação do Instituto Serrapilheira, onde coordena o blog Ciência fundamental
É doutor em neurociências e trabalha como gestor no Programa de Ciência do Instituto Serrapilheira
Leia Mais