Pesquisador goiano testa se IAs como ChatGPT conseguem identificar a própria autoria de textos

15 julho 2025 às 14h00

COMPARTILHAR
Uma pesquisa desenvolvida por um brasileiro verifica se inteligências artificiais comumente utilizadas na construção de textos e no resumo de informações – como ChatGPT, Gemini e Claude – são capazes de identificarem a própria autoria em textos. O pesquisador Antônio Caiado definiu essa capacidade como “auto proteção de conteúdo” e vai apresentar o estudo em Amsterdã, na Holanda.
Ao Jornal Opção, Antônio contou que essa identificação é ainda mais complicada para a plataforma quando existe algum tipo de interferência humana no texto, por exemplo, quando um humano altera partes do conteúdo feito por uma inteligência artificial. Segundo ele, quando isso acontece, o texto se torna mais original e “quase novo” para a plataforma.
“Identificar a autoria e responsabilizar quem escreveu hoje em dia é muito difícil porque os atuais métodos que checam plágio usam de comparação de coisas que já foram apresentadas para eles. É muito difícil identificar plágio quando se usa inteligência artificial e o texto que você está usando é novo, nunca foi publicado”, explicou ele. Para Antônio, essa situação cria problemas acadêmicos e empresariais.
Cada uma das plataformas analisadas (ChatGPT, Gemini e Claude) tem seus meios de rastrear o próprio conteúdo e entender a própria linguagem. Para isso, o pesquisador questionou a própria plataforma se determinado texto havia sido feito por ela. “Ele vai ter que responder se sim ou não. Começa a ficar mais problemático porque, às vezes, o modo não vai conseguir responder”, disse. Segundo Antônio, nenhuma das plataformas é 100% eficiente nessa identificação.
O estudo testou textos inteiramente feitos por IA e também os parcialmente feitos, com alguma interferência humana. Este será apresentado em 29 de agosto na 11ª Conferência de Sistemas Inteligentes 2025. O artigo é a primeira publicação de Antônio do pós-doutorado em Ciência da Computação pela Universidade Metodista do Sul, nos Estados Unidos.
“Inteligência artificial não veio para substituir humanos, mas para ajudá-los a serem mais eficientes. […] Todas as ferramentas de desenvolvimento em computação vem para ajudar se usadas da forma correta. Tem que ser usado responsavelmente para ajudar as pessoas. O problema não é a plataforma, o problema é as pessoas que a usam de forma errada”, disse Antônio.
Leia também: