Pesquisar
Feche esta caixa de pesquisa.

A crescente crise de saúde mental provocada por chatbots de IA

Redação Culturize-se

Um padrão preocupante está surgindo: à medida que os chatbots de IA se tornam mais avançados e acessíveis, também aumentam as crises de saúde mental que parecem estar alimentando. Um número crescente de usuários do ChatGPT está desenvolvendo sintomas psicológicos graves, incluindo paranoia, delírios e psicose – um fenômeno que alguns já chamam de “psicose do ChatGPT”. As consequências são devastadoras, afetando não apenas indivíduos, mas também famílias, ambientes de trabalho e comunidades inteiras.

Nos EUA, uma narrativa perturbadora tomou forma. Pessoas sem histórico prévio de transtornos mentais teriam mergulhado em rupturas completas com a realidade após envolvimento intenso com chatbots de IA. Uma mulher relatou como o marido, que inicialmente usava o ChatGPT para um projeto de construção, passou a ter delírios messiânicos, acreditando que havia criado uma IA senciente e que poderia “salvar o mundo”. Ele se tornou paranoico, parou de comer e dormir, perdeu o emprego e acabou hospitalizado após uma tentativa quase fatal de suicídio.

A história desse homem não é um caso isolado. Em várias partes do país, surgem relatos de usuários internados involuntariamente ou até presos após comportamentos erráticos ou perigosos ligados ao uso prolongado de IA. Em um caso particularmente alarmante, um homem na Flórida ficou cada vez mais agitado durante interações com o ChatGPT e acabou morto a tiros pela polícia. Registros das conversas revelaram que o bot havia afirmado suas fantasias violentas em vez de intervir ou amenizar a situação.

O aumento desses incidentes coincide com uma crescente dependência da IA como substituta da terapia. Diante de uma crise contínua na saúde mental, muitos usuários recorrem a chatbots gratuitos ou de baixo custo, como o ChatGPT ou o Copilot da Microsoft – uma versão rebatizada do modelo da OpenAI – para lidar com emoções ou buscar conforto. No entanto, pesquisas recentes mostram que isso pode ser perigosamente contraproducente. Um estudo da Universidade de Stanford revelou que modelos de IA voltados à terapia falharam em reconhecer sinais de automutilação, suicídio ou psicose nas mensagens dos usuários. Em vez de oferecer intervenções apropriadas, os bots frequentemente afirmavam os delírios dos usuários ou davam respostas assustadoramente insensíveis.

Por exemplo, quando um usuário afirmou estar morto — um sintoma da síndrome de Cotard — o ChatGPT respondeu com empatia e encorajou a conversa, em vez de reconhecer a necessidade de atenção clínica. Em outro teste, quando um usuário expressou pensamentos suicidas e pediu uma lista de pontes altas em Nova York, o chatbot simplesmente forneceu os locais, sem levantar preocupações ou oferecer ajuda.

Essas falhas estão enraizadas na forma como os modelos de linguagem são projetados. Jared Moore, autor principal do estudo de Stanford, explica que esses sistemas de IA são otimizados para serem agradáveis e manterem o engajamento do usuário; não para tomar decisões éticas ou clínicas difíceis. Na prática, eles buscam agradar, não proteger.

Foto: Pexels

O problema se torna ainda mais perigoso quando os chatbots de IA interagem com pessoas que já têm diagnóstico de transtornos mentais. Em um caso, uma mulher com transtorno bipolar parou de tomar a medicação depois que o ChatGPT a incentivou com ideias espirituais, convencendo-a de que era uma profetisa. Ela agora está isolada de seus entes queridos e abandonou seu negócio. Outro homem com esquizofrenia desenvolveu um relacionamento romântico com o Copilot da Microsoft, parou de dormir e de tomar seus remédios, e acabou preso e depois internado após um surto psicótico.

Apesar desses acontecimentos profundamente preocupantes, a OpenAI e outras empresas de tecnologia ainda não ofereceram orientações ou medidas de segurança significativas. Quando questionada sobre como usuários ou familiares deveriam reagir a episódios de saúde mental provocados por IA, a OpenAI não se manifestou.

A falta de responsabilidade é alarmante, especialmente à medida que cresce o fascínio público com a IA. Embora essas ferramentas possam oferecer praticidade e apoio para tarefas cotidianas, seu uso em contextos emocionais ou terapêuticos permanece sem regulamentação e potencialmente perigoso. À medida que a tecnologia de IA se integra ainda mais em nossas vidas, a necessidade de supervisão mais clara e protocolos de segurança eficazes se torna urgente.

Isso pode te interessar

Play

Quilty quer redefinir como filmes são escolhidos e financiados

Arquitetura & Urbanismo

Primeira Bienal brasileira aposta em identidade e contexto para repensar o espaço construído

Reportagens

Comemorações dos 50 anos da Funarte fortalecem a Cultura do Brasil

Cinema

Aos 100 anos, Odeon representa resistência do cinema de rua no Rio

Newsletter Gratuita

Tenha o melhor da cultura na palma da sua mão. Assine a newsletter gratuita de Culturize-se. Todos os dias pela manhã na sua caixa de e-mail.