Integridade e (in)sucesso em ciência
Tal como a fraude, a opinião geral tende a ser que o resultado das más práticas é má ciência, e a má ciência, será desmascarada ou corrigida mais tarde ou mais cedo. Sim, mas, entretanto, houve (muito) dinheiro de todos nós desperdiçado e oportunidades perdidas.
Em Portugal, como em muitos outros países, é obrigatório seguir o Código Europeu de Conduta para a Integridade Científica (última revisão de 2017). Mas, também como em muitas outras coisas, investigadores e instituições garantem que o cumprem sem verdadeiramente implementar as ferramentas necessárias, que não seja o famigerado “bom senso”, que tem sempre as costas largas e reduzida capacidade de intervenção.
Neste contexto há sempre a tentação para falar de fraude, que existe em todas as áreas (basta pesquisar Jan Hendrik Schön, Diederick Stapel, ou Woo-suk Hwang para três exemplos muitos distintos na física, ciências sociais e biologia, respetivamente). Mas a fraude é um escape útil, quer para o público, quer para a própria ciência, com uma função tripla: vincar a raridade da ocorrência, mostrar a inevitabilidade de vir a ser descoberta, e racionalizar com a lógica de algumas maçãs podres. Mas integridade não significa (só) não falsificar, e o problema maior são más práticas científicas tomadas por naturais (ou algo que “todos fazem”), e ensinadas aos investigadores mais jovens porque não há formação formal independente e rigorosa a este nível. E devia haver.
Por exemplo, o pouco cuidado em definir metodologias e protocolos, utilizar dados de uma experiência para outra sem razão, não fazer controlos adequados (porque nem se sabe em que consistem), não fazer experiências suficientes para se ter a certeza do resultado, enviesar análises, remover resultados que não “batem certo” sem uma justificação clara, utilizar de modo abusivo programas de tratamento de resultados (estatísticos, de imagem), parar os ensaios assim que “há diferenças” (porque publicar “não diferenças” é sempre mais difícil); ou plagiar fontes na escrita porque dá menos trabalho e “eu não consigo dizer aquilo melhor”.
Tal como com a fraude, a opinião geral tende a ser que o resultado destas más práticas é má ciência, e a má ciência, por definição, será desmascarada ou corrigida mais tarde ou mais cedo. Sim, mas, entretanto, houve (muito) dinheiro de todos nós desperdiçado, oportunidades perdidas, carreiras que, ou se fizeram ou foram destruídas à custa de má ciência. Mais do que corrigir, não seria melhor evitar? Até para não se ouvir ciclicamente falar (com razão) em “crises de reprodutibilidade” em ciência?
Geralmente um denominador comum em tudo isto é a vontade de publicar para não ficar do lado errado da frase inglesa “Publish or Perish” (“Publicar ou Pifar”?), porque quem não publica é como se nada tivesse feito. Se há investigadores para quem a publicação (já) não é um drama, não se pode dizer o mesmo da maioria, mesmo que o trabalho não esteja completo, seja pouco relevante ou não tenha tido o resultado espetacular que inicialmente se previa. Embora o processo de publicação em ciência mereça atenção por si só, não é mistério que surjam empresas e revistas (algumas reputadas) cujo modelo de negócio se baseia nesta angústia, e através das quais é possível publicar (quase) tudo. Mas porquê? Porque quando há concursos é preciso avaliar investigadores, e isso faz-se, em grande medida, com base na sua produção.
Com tão poucos lugares disponíveis (precários ou de carreira), a avaliação é crucial. E não pode depender só de métricas objetivas (quantas publicações alguém tem), mas cegas (podem ser publicações más ou pouco relevantes), devendo ir mais fundo para determinar o impacto de cada um na ciência, e na comunidade em geral, de uma forma mais integrada (até holística), algo que a comunidade europeia está empenhada em fazer (Relatório de Novembro de 2021).
Nos Países Baixos, por exemplo, está já em curso uma mudança radical concreta na avaliação, cujos resultados se aguardam com expectativa. Porque o princípio é muito válido, mas o uso do chamado “currículo narrativo” pode também, de forma perversa, recuperar as avaliações subjetivas e baseadas em questões pessoais, exatamente o que o uso de métricas pretendia eliminar. Por outro lado, um trabalho de avaliação só funciona bem se os avaliadores forem bons, independentes, incisivos, tiverem tempo, forem recompensados. E, sobretudo, se as regras forem claras para todos a priori, com avaliadores e avaliados dispostos a arcar com as consequências, porque o processo fez parte integrante da sua formação. Sujeitar-se a uma avaliação tem de significar estar preparado para perder. E, como as vagas a concurso são sempre menos do que o número de candidatos, avaliar colegas é uma péssima ideia para fazer, ou manter, amigos. Sem ter consciência plena disso mais vale usar (responsavelmente) métricas; é mais linear, há menos possibilidade de recursos, e chateamo-nos menos.
O fundamental aqui, como em tudo, é formar corretamente, e desde cedo. Como disse há tempos um colega numa defesa, em média as teses de mestrado hoje envergonham as do passado; pela profundidade e alcance dos temas, pelos tipos de técnicas utilizadas, pela ambição, pela excelente preparação com que os alunos ali chegam. E isso é ótimo, desde que seja por bons motivos. Há, por exemplo, demasiada ênfase para que as teses “contem uma boa história”, até porque a narrativa é parte integrante do processo científico. Mas a história que deveriam contar é a de quem tem o nome na capa, e não a dos orientadores ou a do grupo de investigação. Para isso servem os artigos científicos, que, regra geral, têm vários autores porque reúnem trabalhos de muitas pessoas ao longo de anos.
A história de uma tese de mestrado é de alguém que está a iniciar-se, e que teve nove a 12 meses de trabalho prático, mais uns tempos antes para se preparar, e outros depois, para analisar resultados e escrever. Acontece que muitas vezes se apresentam trabalhos impossíveis de fazer num só ano por uma só pessoa, para mais principiante. Outros elementos são incluídos para contar a tal “história melhor”. Nada contra, mas tem de ser óbvio quem fez o quê e quando, ou estamos em presença de más práticas. Como corolário inevitável, uma das perguntas quase obrigatórias nas defesas consiste em apurar exatamente o que um candidato fez em termos de trabalho prático, o que é, convenhamos, no mínimo ridículo. Nas teses de doutoramento pode acontecer o mesmo, mas o mal está a montante, no primeiro treino sério que estes alunos tiveram.
Por último é preciso vincar que a relação orientador-orientando é uma relação de poder, estando sujeita exatamente aos mesmos constrangimentos de outras relações similares. E se, por qualquer motivo, alguém se sentir desconfortável com o desenrolar do projeto ou com a relação entre ambos, queixa-se a quem? Em grande medida na avaliação da queixa (se chegar a existir) entra em ação o efeito corporativo a vários níveis, porque nenhuma instituição aprecia ser associada a este tipo de problemas (absolutamente naturais), e outros investigadores temem que lhes suceda algo similar. Independentemente de eventuais responsabilidades, perde sempre o elo mais fraco, mesmo se se optar pelo “divórcio” (unívoco ou mútuo). Até o simples e honesto erro, parte integrante de todo o processo, não é acarinhado na formação como devia.
Em resumo, não se pode garantir que se cumprem todos os preceitos da integridade em investigação, se não há nem mecanismos sistemáticos (e obrigatórios) de formação nem um plano claro (e independente) para lidar com queixas e eventuais abusos. As comissões de ética, ou as de bem estar animal, não cumprem (nem devem cumprir) este tipo de funções; o seu alcance é muito importante e de caráter obrigatório, mas é outro. Não nos devemos orgulhar porque em Portugal os casos de más práticas, e eventuais denúncias a esse nível, são residuais, quando comparados com outros países europeus (basta ver exemplos recentes em vários dos excelentes institutos Max Planck, na Alemanha). O motivo não é certamente o melhor.
O autor escreve segundo o novo acordo ortográfico