Jornais, sites e blogs estão usando inteligência artificial para escrever, revisar e traduzir reportagens. Eticamente, estão corretos? Se alertarem o leitor, não há maiores problemas.

O problema é o jornalista, de tanto usar IA, acabar perdendo a capacidade de escrever e, até, de pensar. Se deixar a IA refletir por ele, então estará perdido… talvez para sempre.

Há outro aspecto: jornais e sites com estrutura inadequada são, possivelmente, os que mais usam IA. Há o risco de estarem copiando materiais de outros jornais, o que fere o direito autoral. A perda de controle é sempre um risco.

Quando um jornalista diz que está escrevendo uma reportagem, de tamanho razoável, em meros cinco minutos, pode-se suspeitar de que “alguém”, a IA, está escrevendo seu texto.

No portal Media Talks, em material reproduzido pelo Portal dos Jornalistas (minha fonte constante, tal sua qualidade), Luciana Gurgel começa seu texto perguntando: “Qual o tamanho da presença da IA na internet?”

Luciana Gurgel menciona um estudo feito por pesquisadores do Imperial College London, do Internet Archive e da Stanford University. A pesquisa “estima que, até meados de 2025, cerca de 35% dos sites recém-publicados tinham textos gerados ou assistidos por inteligência artificial”.

Páginas arquivadas de 2022 a 2025 pela Wayback Machine foram analisadas pela pesquisa, denominada The Impacto f AI-Generated Text on the Internet”, com o objetivo de aferir “a presença da IA na rede e avaliar seus possíveis efeitos”.

De acordo com Luciana Gurgel, “os pesquisadores testaram quatro métodos de detecção e adotaram o Pangram v3 como detector principal, após verificações de solidez envolvendo extensão do texto, html, texto puro, famílias e versões de modelos e idioma”.

Das “seis hipóteses sobre impactos negativos da disseminação de textos gerados por IA” examinadas, o estudo “encontrou apoio estatístico para duas delas”.

“A primeira foi a contração semântica: sites classificados como gerados por IA apresentaram similaridade semântica 33% maior, indicando menor diversidade nos textos. A segunda foi o aumento de sentimento positivo, com pontuação 107 maior nesses sites”.

No Brasil, há alguns detalhes curiosos. Quando uma pessoa usa a IA para compor seus textos, sobretudo na integralidade, aparecem certos “cacos”. Primeiro, há repetições. Segundo, o texto não tem nuances, quase sempre. Terceiro, ao final do texto, aparece “conclusão”.

Se o “sócio” da IA não for esperto, e muitas vezes é, fica perceptível o uso de IA. Quarto, eventualmente, há erros, como troca de nomes de personalidades. Há pouco, li uma resenha na qual o autor, tendo abusado de IA, disse que o romance “Grande Sertão: Veredas” foi escrito por Euclides da Cunha. Quando o verdadeiro autor é Guimarães Rosa. Cunha escreveu “Os Sertões”, que não é romance.

Luciana Gurgel ressalva que “a pesquisa não encontrou evidência significativa de queda na precisão factual, redução de links externos, aumento de textos longos e semanticamente diluídos ou convergência para um estilo único”.

Jornais brasileiros têm usado IA para traduzir reportagens da “Economist”, do “New York Times”, do “Washington Post”, do “Wall Street Journal” e do “Financial Times”. São legíveis, mas, aqui e ali, confusas. Por vezes, fica-se com a impressão de que a IA “não” tem domínio sobre a língua de chegada, o português.

Há uma questão que, claro, não é o foco da pesquisa. O Google, por meio de sua IA, a Geminae, está sintetizando reportagens e oferecendo as informações como se fossem produções de sua lavra. Para disfarçar, apresenta logo abaixo o site de onde retirou a informação. Fica parecendo que o original é mera fonte, bibliografia, do material divulgado pelo Google como seu.

Quem vai consultar um material mais amplo se a IA do Google já o sintetizou? Talvez poucos.