Reprodutibilidade em psicologia: o que o megaprojeto de 2015 mostrou

Se um estudo famoso não “repete”, ele estava errado? Em 2015, uma colaboração global refez 100 pesquisas de psicologia e provocou manchetes, threads e dúvidas. Entender o que foi encontrado – e o que não foi – ajuda a ler ciência com mais critério, sem hype nem ceticismo cego.


O estudo, em 1 minuto

O Reproducibility Project (Open Science Collaboration) tentou estimar o quanto achados publicados se mantêm quando replicados com poder estatístico adequado. Para isso, refez 100 estudos publicados em periódicos de alto impacto.

  • o que foi feito: replicações planejadas de 100 estudos experimentais/correlacionais de 2008.
  • amostra e desenho: réplicas feitas por vários laboratórios independentes, seguindo de perto os protocolos originais; os estudos foram planejados para ter, sempre que viável, poder estatístico de ~80% – ou seja, ~8 em 10 de chance de detectar um efeito real do tamanho esperado.
  • achado principal: ~36% das réplicas voltaram a ser “significativas”; quando replicou, o efeito foi menor (em média, cerca de metade do tamanho original).
  • impacto imediato: acendeu o debate sobre métodos, transparência e incentivos editoriais.

No próprio artigo, esses números são apresentados como estimativa inicial – não um veredito sobre “a psicologia inteira”.

E as réplicas?

Críticas apontaram questões de fidelidade de protocolos, amostras e análise. Ainda assim, o quadro geral permaneceu: efeitos costumam replicar menores, e práticas como pré-registro, dados/materiais/código abertos e melhor delineamento reduzem surpresas. Não é “tudo falhou” – é um convite à evidência cumulativa com mais transparência.

O que sobra para o mundo real

Parte 1 – ler com mais critério

A crise de reprodutibilidade existe e pede ceticismo aplicado. Confiabilidade nasce de corpos de evidência, não de um único resultado.

  • não se apoie em um único paper para políticas, produtos ou aulas; priorize revisões e metanálises.
  • espere efeitos menores em réplicas e comunique incerteza (intervalos de confiança, não só p-value)
  • prefira estudos com pré-registro e dados/materiais/código abertos; quando houver, valorize registered reports.
  • “não significativo” ≠ “não existe” – pode ser efeito pequeno, contexto distinto ou estudo subpoderado.

Confiança é graduada – cresce com métodos melhores e resultados consistentes ao longo do tempo.

Parte 2 – quando o problema é o próprio processo

Às vezes, o que parece ciência é procedimento com verniz científico. Se detectar sinais abaixo, trate o achado como provisório.

  • p-hacking / “jardim dos caminhos”: muitas análises até “achar” algo – cobre correções e distinção entre exploração e confirmação.
  • HARKing (hipóteses depois do resultado): exija hipóteses prévias claras e protocolos públicos.
  • viés de publicação: resultados nulos somem – procure preprints, réplicas e estudos de registro.
  • baixo poder / amostras convenientes: prefira multicêntrico, cálculo de poder explícito e relatório transparente.

Sem protocolo claro + poder adequado + transparência, a atitude científica correta é cautela, não crença.

Para saber mais

Nosso trabalho não substitui a leitura do original. Por isso, recomendamos que você acesse o material original:
Estimating the reproducibility of psychological science – Science (2015)


E agora, qual é a sua opinião? A chamada ‘crise de reprodutibilidade’ é um alerta necessário para elevar o rigor científico – ou um exagero que pode distorcer a própria ciência?
Deixe sua visão nos comentários e compartilhe este texto para levar o debate sobre evidências científicas a mais pessoas.

Deixe um comentário