Estudo conduzido por pesquisadores brasileiros revela falhas em detectores de IA
Fotos: Reprodução/ Pexels
Ferramentas como GPTZero, Turnitin e Copyleaks não são tão confiáveis quanto parecem. E podem gerar injustiças acadêmicas irreversíveis
Detectores de inteligência artificial vêm se tornando presença constante em escolas e universidades ao redor do mundo. Ferramentas como GPTZero, Turnitin e Copyleaks prometem identificar se um texto foi escrito por uma pessoa ou gerado por IA. Mas será que essas tecnologias são realmente confiáveis?
Um estudo publicado na revista Cognitionis sugere que não. Conduzido pela doutoranda Isis Terezinha Santos de Santana e pelo professor Jhonata Jankowitsch, doutor em administração pela Logos University International (EUA), a pesquisa analisou 300 textos dissertativos divididos em seis grupos, com diferentes níveis de intervenção algorítmica.
Os resultados são alarmantes: textos artificialmente manipulados conseguiram “enganar” os detectores, sendo classificados como humanos em até 96% dos casos.
Camuflagem algorítmica é o calcanhar de Aquiles dos detectores
A metodologia do estudo foi rigorosa. Os textos passaram por reescrita automática, remoção de marcas invisíveis (como códigos Unicode e marcas d’água) e alterações semânticas que tornaram o conteúdo mais “natural”. Mesmo com o uso de métricas avançadas, como perplexidade, burstiness e diversidade lexical, os algoritmos falharam.
“Os detectores apresentam bons resultados apenas em cenários extremos, como textos puramente humanos ou completamente gerados por IA. Mas, quando há intervenção, mesmo que sutil, a acurácia despenca”, explica Isis.
Para garantir a confiabilidade dos achados, o experimento utilizou testes estatísticos como ANOVA, regressão logística e qui-quadrado.
Um dado emblemático: o grupo que recebeu o “pacote completo” de camuflagem foi corretamente identificado como IA em apenas 4% dos casos. “Isso significa que basta algum conhecimento técnico para burlar esses sistemas”, reforça o professor Jankowitsch.

O risco de decisões injustas
O estudo alerta para os perigos do uso indiscriminado dessas ferramentas em decisões sérias, como reprovações acadêmicas, investigações de plágio e rejeições editoriais. “Confundir um texto legítimo com uma produção algorítmica pode gerar injustiças irreversíveis”, aponta o artigo.
Além disso, os pesquisadores destacam um paradoxo inquietante: estudantes confiam demais na IA para escrever textos, enquanto professores confiam demais nos detectores para identificá-los. “Ambos estão apoiados em bases frágeis”, resume Isis.
IA na educação entre a atençao e incentivo
A pesquisa não apenas levanta dúvidas técnicas, mas também provoca uma reflexão mais profunda sobre os rumos da educação na era da inteligência artificial. É que, com o avanço das tecnologias generativas, escrever deixou de ser uma habilidade exclusivamente humana.
Ferramentas como ChatGPT permitem que qualquer pessoa produza redações, artigos e até teses com poucos cliques, transformando radicalmente a relação entre autoria, originalidade e avaliação.
Na tentativa de conter essa onda, muitas instituições adotam detectores automatizados de autoria. A promessa é identificar trapaças com precisão algorítmica. A realidade, no entanto, é bem mais complexa.
Esses detectores operam com base em padrões estatísticos, como variação de palavras, estrutura de frases e repetição, o que os torna vulneráveis a manipulações simples, como reescrita automática ou substituição de termos. O resultado? Textos gerados por IA passam despercebidos.
Mais preocupante ainda é o impacto dessa falha em decisões pedagógicas. Alunos podem ser penalizados injustamente por falsos positivos. Professores, por sua vez, podem perder confiança em seus próprios critérios e delegar julgamentos a ferramentas ainda imaturas.
Há também o risco de uma homogeneização do ensino. Se os estudantes passarem a escrever apenas “do jeito que o detector aprova”, corre-se o risco de sufocar a criatividade, a diversidade linguística e a subjetividade, que são elementos essenciais à escrita humana.
Para além dos algoritmos, a mediação humana
Por isso, o estudo defende um caminho mais equilibrado: tecnologia, sim, mas com mediação humana. A IA pode ser uma aliada na educação, desde que usada com senso crítico, transparência e apoio ético.
Na prática, isso significa formar professores para compreender as limitações desses sistemas e incentivar estudantes a desenvolver competências genuínas de escrita. Afinal, detectar é importante, mas ensinar a escrever continua sendo essencial.
Ficha Técnica do Trabalho Científico
Título do artigo:
Um Experimento com Detectores de Inteligência Artificial e seus Limites: Estudo Quantitativo Sobre os Critérios e as Incertezas da Detecção Algorítmica de Autoria Textual
Autores:
Isis Terezinha Santos de Santana
Doutoranda e Mestre em Administração pela Logos University International – Unilogos (2023)Prof. Dr. Jhonata Jankowitsch
Doctor of Business Administration – Logos University International (EUA)
Professor universitário, perito judicial e maestro
Instituição:
Logos University International – Unilogos
Revista:
Cognitionis – Scientific Journal
Volume e Edição:
Volume 8, Edição 2
Páginas:
01–43
Data de publicação:
19 de agosto de 2025
ISSN:
2595-8801
DOI:
https://doi.org/10.38087/2595.8801.665
Link de acesso:
https://revista.cognitioniss.org/index.php/cogn/article/view/665/545