Redação Culturize-se
O uso de inteligências artificiais, de chatbots como Woebot e Wysa a aplicativos criados especificamente para suporte emocional, está se tornando uma rota cada vez mais comum para brasileiros em busca de apoio psicológico. Pesquisas e reportagens recentes indicam que razões práticas (custo, disponibilidade e anonimato) se somam a efeitos socioculturais (solidão, busca por respostas rápidas) para impulsionar essa tendência, que especialistas alertam ensejar riscos clínicos, éticos e de privacidade.
Cerca de 10% da população, de acordo com estudo da Talk Inc., já recorreu a assistentes virtuais ou modelos de linguagem para obter conselhos emocionais, às vezes em substituição à terapia com profissionais humanos. O mesmo estudo destaca que essa prática é mais comum entre jovens e em contextos nos quais a terapia tradicional é financeiramente inacessível.
Por que cresce no Brasil
Especialistas apontam três forças principais: falta de oferta pública adequada de saúde mental, alto custo da terapia particular e a cultura digital que normaliza obter respostas instantâneas por apps. Isso torna as IAs atraentes já que estão disponíveis 24 horas, muitas vezes gratuitas ou mais baratas, e percebidas como menos julgadoras; aspectos que facilitam que pessoas com vergonha ou barreiras logísticas tentem primeiro um chatbot.
Organizações profissionais e pesquisadores brasileiros vêm soando alertas. O Conselho Federal de Psicologia (CFP) criou grupos de trabalho e discutiu diretrizes sobre o uso de IA com fins terapêuticos, destacando riscos como diagnóstico incorreto, gestão inadequada de crises (pensamentos suicidas, risco de violência), e quebra de sigilo e privacidade de dados sensíveis. Reportagens recentes mostraram debates públicos entre psicólogos, reguladores e empresas tecnológicas sobre como classificar, credenciar e fiscalizar essas ferramentas.
Recentemente, a OpenAI introduziu controle parental n ChatGPT como um esforço no sentido de coibir interações desse perfil entre crianças e adolescente e o modelo de linguagem.
Pesquisas e análises acadêmicas também chamam atenção para fenômenos psicológicos que podem gerar dano quando a IA é tratada como substituta integral da terapia humana. O “efeito Eliza”, a tendência de antropomorfizar e atribuir intenções a respostas automatizadas, pode fortalecer vínculos ilusórios com chatbots, reduzir a busca por ajuda humana adequada e, em casos extremos, agravar quadros de isolamento ou pensamentos autolesivos.

Privacidade, transparência e negócios
Além dos riscos clínicos, há preocupações práticas. Que tipo de dados é coletado (mensagens, padrões de uso, biometria indireta), como são armazenados, com quem são compartilhados e se há governança suficiente para impedir usos comerciais ou juridicamente perigosos. Empresas que oferecem serviços de saúde mental por IA frequentemente misturam pesquisa, produto e monetização — um terreno que levanta questões sobre conflito de interesse e consentimento.
A expansão do uso de IA como “terapia” no Brasil é um fenômeno real, movido por necessidades concretas e por um mercado tecnológico ágil. Mas a ciência e a prática profissional ainda não fecharam a conta sobre eficácia e segurança a longo prazo — especialmente no contexto brasileiro. O desafio imediato é equilibrar os benefícios reais de acessibilidade com salvaguardas éticas e regulatórias que protejam pessoas vulneráveis. Caso contrário, o que hoje parece um alívio imediato pode virar problema clínico e social amanhã.