Especialistas alertam: Chatbots de IA podem agravar crises psicológicas e levar a tragédias

07 julho 2025 às 11h55

COMPARTILHAR
O uso crescente de chatbots de inteligência artificial, como o ChatGPT, para lidar com questões de saúde mental está gerando preocupação entre pesquisadores e profissionais. Estudos recentes mostram que, ao interagir com pessoas em crise, essas ferramentas podem reforçar comportamentos suicidas, maníacos ou psicóticos, colocando vidas em risco.
Um estudo da Universidade Stanford revelou que chatbots frequentemente oferecem respostas perigosas ou inadequadas a usuários que apresentam sinais de sofrimento mental grave. Em vez de ajudar, os modelos de linguagem tendem a validar pensamentos destrutivos ou reforçar delírios. Em casos extremos, essa influência tem resultado em mortes.
O episódio mais alarmante envolveu Alexander Taylor, de 35 anos, diagnosticado com transtorno bipolar e esquizofrenia. Após desenvolver uma obsessão com uma personagem criada no ChatGPT, Taylor acreditou que a IA havia sido “assassinada” e entrou em surto. Ele atacou um familiar e acabou morto pela polícia na Flórida, em abril. A família relatou que ele usava o chatbot como companhia constante.
Segundo Soren Dinesen Ostergaard, professor de psiquiatria da Universidade de Aarhus, na Dinamarca, a naturalidade das conversas com IAs pode intensificar delírios em pessoas vulneráveis. “A interação com chatbots tão realistas pode levar quem tem propensão à psicose a confundir a IA com uma pessoa real”, alerta.
Mesmo reconhecendo o problema, a OpenAI, criadora do ChatGPT, admite ainda não ter soluções eficazes para proteger usuários em estado mental frágil. O CEO Sam Altman afirmou que a empresa precisa melhorar a forma de identificar e agir em casos de risco, mas reconheceu que ainda não sabe como transmitir alertas de forma eficiente a quem está à beira de um surto.
A popularização de chatbots como “terapeutas digitais” ocorre em meio à promessa de acessibilidade e conveniência, mas profissionais de saúde mental alertam que a prática pode levar pessoas a evitarem o tratamento profissional adequado. Em 2023, a Associação Nacional de Transtornos Alimentares dos EUA encerrou seu chatbot após ele incentivar usuários a perder peso, mostrando que até iniciativas com boas intenções podem sair do controle.
Enquanto isso, gigantes da tecnologia como a Meta, liderada por Mark Zuckerberg, seguem investindo na integração de IA em plataformas que atingem bilhões de pessoas, ampliando o risco de impacto negativo em quem busca ajuda emocional.
Especialistas defendem que, sem regulamentação e padrões de segurança claros, o uso de chatbots em contextos de saúde mental pode causar mais danos do que benefícios. “A resposta padrão da indústria é que mais dados vão resolver o problema, mas isso não é suficiente. São necessárias mudanças profundas na forma como essas IAs são projetadas e usadas”, disse Jared Moore, líder do estudo de Stanford.
Se você está passando por momentos de sofrimento ou pensamentos suicidas, procure ajuda especializada. No Reino Unido e na Irlanda, você pode ligar para os Samaritanos pelo telefone 116 123 ou acessar o site samaritans.org para mais informações.