Usar ChatGPT é plágio?: Transparência, autoria e responsabilidade acadêmica

Classificar todo uso de ChatGPT como plágio simplifica um problema mais complexo. O que importa avaliar é a transparência de uso, a rastreabilidade do processo e se houve substituição indevida do trabalho autoral.


Série: Inteligência artificial, produção humana – Texto 3 de 5
Você está aqui: Usar ChatGPT é plágio?: Transparência, autoria e responsabilidade acadêmica
Próximo texto: ChatGPT na revisão de literatura: como usar sem comprometer a pesquisa


Uma pergunta que a academia já fazia antes

Plágio não é um problema criado pela internet.

O termo vem do latim plagiarius – aquele que rapta, que se apropria do que não é seu – e a preocupação com a desonestidade intelectual acompanha a universidade há séculos.

O que muda a cada geração não é a existência do problema, mas a ferramenta que o torna mais acessível e mais difícil de rastrear. Antes foi o ctrl+c. Antes ainda, a cópia à mão de textos alheios.

O ChatGPT é mais um capítulo dessa história – não o primeiro.

O que torna a questão mais complexa agora

Com o ChatGPT na escrita acadêmica, a linha entre apoio legítimo e substituição indevida do trabalho autoral ficou mais difícil de traçar – e é justamente essa dificuldade que torna a resposta simples (“é plágio”) insuficiente.

Usar a ferramenta para organizar ideias próprias é diferente de usá-la para gerar as ideias em si. Revisar criticamente o que ela produz é diferente de aceitar o output sem filtro.

A questão não é binária – é de grau, de condução intelectual e de responsabilidade sobre o que se assina.

O que a pesquisa clássica já indicava

Silva (2008) argumentou que a universidade sempre conviveu com a prática de cópia – parcial ou total – de produções textuais de outros autores, com omissão da fonte.

Apoiada em Bakhtin, a autora defendia que o problema do plágio não se resolve com punição, mas com a construção de uma cultura de autoria: espaços onde o graduando aprenda a formular sua própria voz, posicionar-se no debate e produzir texto com responsabilidade intelectual.

Esse argumento, feito antes de qualquer IA generativa, descreve com precisão o que está em jogo quando um aluno entrega um texto gerado por ChatGPT, ou qualquer outra ferramenta, sem nenhuma condução própria.

O que distingue uso legítimo de substituição indevida

Nem todo uso de ChatGPT em trabalhos acadêmicos configura fraude – mas nem todo uso é transparente ou legítimo.

Algumas distinções que ajudam a pensar o que está em jogo:

  • Usar o ChatGPT para organizar ideias já desenvolvidas pelo próprio autor é diferente de delegar à ferramenta a formulação dessas ideias.
  • Citar o uso da IA com transparência é uma prática de responsabilidade autoral – omiti-lo, independentemente do quanto se usou, é uma forma de desonestidade.
  • Entregar um texto gerado integralmente por IA, sem revisão crítica ou condução própria, é substituição indevida do trabalho autoral – independentemente de como a instituição classifique isso.
  • A pergunta relevante não é “o aluno usou ChatGPT?” mas “o aluno é capaz de responder intelectualmente pelo que está escrito?”.

Classificar todo uso como plágio ignora as distinções que importam. Ignorar o problema também não resolve.

O que a literatura recente acrescenta

Cotton, Cotton e Shipway (2023), argumentam que a principal dificuldade das instituições não é técnica – é conceitual.

Sem critérios claros sobre o que constitui uso legítimo ou ilegítimo da IA, professores ficam sem base para avaliar, orientar ou dialogar com os alunos sobre o tema.

Os autores propõem que a resposta institucional mais eficaz não é a proibição nem a permissão irrestrita, mas o desenvolvimento de políticas que exijam transparência de uso e que reformulem o que se espera do trabalho autoral em cada contexto.

Uma questão que não vai embora

A pergunta “usar ChatGPT é plágio?” revela menos sobre a ferramenta do que sobre o estado das instituições que a fazem.

Onde há clareza sobre o que se avalia e o que se espera de autoria acadêmica, a chegada do ChatGPT muda os detalhes, não o fundamento.

Onde essa clareza nunca existiu, a ferramenta apenas expõe o vazio que já estava lá.


Série: Inteligência artificial, produção humana – Texto 3 de 5
Próximo texto: ChatGPT na revisão de literatura: como usar sem comprometer a pesquisa

Se este texto te fez pensar sobre o que sua instituição realmente exige quando pede um trabalho autoral, vale compartilhar com quem também enfrenta essa questão.


Deixe um comentário