Inteligência artificial já influencia mais do que humanos, dizem estudos do Aisi, Oxford, Cornell e MIT

16 agosto 2025 às 21h00

COMPARTILHAR
A repórter Melissa Heikkilä, do jornal “Financial Times”, publicou uma reportagem — traduzida no Brasil por Mario Zamarian para o “Valor Econômico” (sexta-feira, 15) —, sob o título de “Chatbot de IA influencia mais do que humanos”, que merece leitura e debate.
A inteligência artificial é tão incontornável quando positiva. De alguma maneira, está se tornando imprescindível. Quem não usá-la ficará para trás, ao menos em alguns aspectos. Porém, há aspectos negativos, que é o ponto abordado pelo jornal londrino.
Estudo do AI Security Institute do Reino Unido (Aisi) — divulgado em julho deste ano — mostra que “modelos de inteligência artificial da OpenAI, Meta, xAI e Alibaba podem fazer as pessoas mudaram de opinião política após menos de 10 minutos de conversa. (…) Os modelos de linguagem ampla (LLM) se tornaram ferramentas poderosas de influência”.

Professor da Universidade Cornell, David Rand assinala que “o que torna esses modelos de IA tão persuasivos é sua capacidade de gerar grandes quantidades de evidências relevantes e comunicá-las de maneira eficaz e compreensível”.
O mestre de Cornell poderia ter acrescentado: além de sintetizar uma vasta gama de informações, a IA o faz rapidamente — o que a mente humana não consegue processar na mesma velocidade.
Há, o que não se destaca na reportagem, outro fator: a IA sugere uma neutralidade técnica — que não é verdadeira —, o que os seres humanos, por imparciais que tentem parecer, não conseguem.
Outras pesquisas, enfatiza o jornal da Velha Albion, indicam que “os modelos de IA já conseguem influenciar a opinião de pessoas melhor do que os humanos — levantando preocupações sobre o potencial uso indevido dos chatbots para desinformação e manipulação pública”.
Feito em colaboração com o apoio de universidades, como Oxford e Massachusetts Institute of Technology (MIT), o estudo postula que “é relativamente fácil transformar modelos de IA prontos para uso — como Llama 3 da Meta; GPT-4, GPT-4.5 e GPT-4º da OpenAI; Grok3 da xAI; e Owen da Alibaba — em máquinas poderosas de persuasão”.

O estudo levou em conta conversas, mais de 50 mil, a respeito de temas polêmicos — como financiamento ao NHS (SUS do Reino Unido) e a reforma da política de imigração e acolhimento de refugiados.
De acordo com o “Financial Times”, o estudo da Aisi percebeu “que as pessoas mudaram de ideia rapidamente e o efeito foi duradouro”. Quer dizer, as ideias fixaram-se na mente das pessoas.
“Após conversas sobre política que duraram em média nove minutos, o GPT-4 foi 41% mais persuasivo, e o GPT-4.5” chegou a “52% mais do que quando as pessoas receberam apenas mensagens estáticas. Um mês depois, as pessoas mantinham suas opiniões alteradas em algo entre 36% e 42% das vezes”. O que prova que a IA “sedimenta” ideias, que perduram na cachola dos indivíduos.
Provando seu poder de convencimento, “os chatbots de IA foram eficazes em influenciar as pessoas quando os usuários participavam de conversas nas quais os chatbots podiam apresentar muitas informações e evidências para sustentar seus argumentos”.

O volume de informações, processadas de maneira orgânica, convenceu mais facilmente as pessoas do que se estivessem expostas a informações passadas diretamente por humanos.
Pesquisadores disseram ao “Financial Times” que o uso massivo de IA poderá “beneficiar atores inescrupulosos que desejam promotor ideologias políticas e religiosas radicais, ou estimular a agitação política entre adversários geopolíticos”.
Estudo anterior da London School of Economics e de outras universidades constataram que “os modelos de IA são mais eficazes em mudar a opinião das pessoas do que os humanos”.
Além de persuadirem de maneira mais eficaz, “os LLMs se saíram melhor do que os humanos em enganar os participantes quando encarregados de promover respostas incorretas”.
Os grupos que criaram a inteligência artificial falam que há salvaguardas para proteger as pessoas. No momento, pelo menos, é uma ilusão. O controle do que se faz com IA é mínimo, às vezes inexistente. Nem mesmo os governos e a Justiça estão devidamente aparelhados para agirem rápido em caso de abuso. Mesmo que não sejam analógicos quase sempre chegam tarde em relação a evolução veloz e complexa das criações dos experts em tecnologia.
Os pesquisadores enfatizam que a influência dos modelos de IA não ocorre apenas em termos políticos (eleições e ideologias, por exemplo). O MIT e a Universidade Cornell divulgaram um estudo que mostra que “os LLMs demonstraram ser capazes” — o que é positivo — “de mudar a opinião das pessoas que acreditam em teorias” conspiratórias.
Os LLMs “também podem reduzir o ceticismo em relação às mudanças climáticas e à vacina contra o HPV”. É outra faceta positiva.
O “Financial Times” mostra que há um agravante: “A maneira mais eficaz de transformar chatbots de IA em instrumentos de manipulação parece ser modificá-los especificamente para esse propósito após o modelo ser treinado”. É o que diz o estudo sobre IA.