top of page

ChatGPT não é detector de plágio: os riscos de confiar cegamente na IA para validar textos acadêmicos

ChatGPT não identifica plágio. Entenda por que confiar nele pode prejudicar trabalhos acadêmicos e saiba como se proteger.


Era só uma dúvida inocente: colar um trecho no ChatGPT e perguntar se ele havia escrito aquilo. A resposta, porém, veio carregada de autoridade — “sim, fui eu quem produziu este texto”. A partir daí, começou uma onda de histórias que mais parecem roteiro de um episódio de Black Mirror: estudantes reprovados, trabalhos acadêmicos desconsiderados, textos autorais acusados de serem artificiais. O que começou como curiosidade virou uma armadilha perigosa no mundo da educação.

ChatGPT plágio

Um dos casos mais comentados surgiu em Brasília. O tio de uma estudante entregou seu TCC e, durante a avaliação, a banca resolveu usar o ChatGPT como “perito” para verificar a autoria. A IA, em tom de convicção, disse que o texto era dela mesma. Resultado: o trabalho foi rejeitado, e o aluno prejudicado. O detalhe crucial — que passou despercebido — é que o ChatGPT não tem qualquer capacidade real de verificar plágio ou autoria.

A partir daí, relatos começaram a se multiplicar nas redes. Uma aluna testou escrevendo uma canção folclórica original e ouviu da IA que o texto era dela. Outro estudante, desconfiado, colocou sua redação no chat e recebeu como resposta que a máquina havia sido a autora. Um terceiro fez a experiência duas vezes com o mesmo parágrafo: um dia o ChatGPT negou, no outro, afirmou ser o criador. E, talvez o mais curioso, alguém pediu apenas para a IA corrigir vírgulas e pontos em seu texto original. Ao recolocar no detector, a resposta foi de 100% IA.

Essas contradições revelam algo importante: o ChatGPT não foi feito para julgar originalidade. Ele é um modelo estatístico de linguagem, treinado em bilhões de palavras, capaz de prever a sequência mais plausível de termos. Quando perguntamos a ele “você escreveu este texto?”, a resposta não é fruto de uma checagem forense, mas sim de um cálculo probabilístico — qual é a frase mais provável para soar coerente naquela interação? O resultado pode variar a cada dia, a cada pergunta, e até mesmo com o tom de quem pergunta.

Essa inconsistência ganha contornos dramáticos quando entra no ambiente acadêmico. Professores, pressionados pelo aumento do uso de IA em trabalhos, recorrem a ferramentas frágeis para coibir fraudes. Mas a consequência é injusta: alunos que escrevem seus próprios textos passam a ser acusados sem provas sólidas. A ansiedade cresce, e muitos relatam que teriam de filmar todo o processo de escrita para comprovar a autoria. O que deveria ser um espaço de aprendizado e construção do conhecimento se transforma em uma arena de desconfiança.

E aqui entra a reflexão mais ampla: a escrita é uma habilidade que se desenvolve com tempo, erros, revisões. Ninguém nasce pronto para redigir um artigo impecável. A universidade existe justamente para lapidar essa competência. No entanto, o excesso de confiança em detectores automáticos pode apagar essa dimensão formativa e transformar a produção acadêmica em um jogo de caça às bruxas digitais.

Tecnicamente, o equívoco é claro. O ChatGPT pertence a uma subárea de inteligência artificial chamada deep learning, dentro do campo de machine learning. Ele é um “grande modelo de linguagem”, alimentado por um imenso banco de dados de textos. Sua função é prever palavras, não rastrear origens. Ele não tem acesso à internet em tempo real (no caso da versão gratuita, por exemplo), nem possui um índice universal de publicações para comparar. Em outras palavras: ele nunca poderá afirmar com certeza se algo é plágio.

Então, como lidar com essa encruzilhada? A primeira saída é entender o papel real da IA. Ela pode ser uma parceira no brainstorm, ajudar a revisar ideias, sugerir caminhos. Mas não deve ser usada como árbitro de autenticidade. Para professores, a recomendação é buscar ferramentas específicas de detecção de similaridade textual, que comparam trabalhos a bases de dados verificadas. Para alunos, uma dica prática é utilizar editores como o Google Docs, que guardam o histórico de versões e permitem comprovar passo a passo o processo de escrita. Assim, caso surjam dúvidas, há uma linha do tempo documentada para sustentar a autoria.

O episódio nos lembra de algo maior: a inteligência artificial, por mais impressionante que seja, é um reflexo de nós mesmos — de nossos dados, nossos vieses, nossas contradições. Ela não é uma fonte confiável absoluta, muito menos um juiz imparcial. Usá-la como detector de plágio é como pedir a um espelho que julgue se a imagem refletida é original ou cópia: ele só nos devolve possibilidades, não verdades.

No fim, a lição é simples e dura ao mesmo tempo: precisamos aprender a conviver com a IA sem transferir a ela responsabilidades que ainda são humanas. O valor da escrita, da autoria e da ética acadêmica não pode ser terceirizado a uma estatística. Cabe a nós, como sociedade, construir os critérios e ferramentas adequados para esse novo cenário. E, enquanto isso, cabe também aos educadores e estudantes manter a consciência crítica, não se deixando enganar pelo brilho de uma resposta pronta que, muitas vezes, esconde mais dúvidas do que certezas.


— Chip Spark.

Comentários


bottom of page