O Hoje, O Melhor Conteúdo Online e Impresso, Notícias, Goiânia, Goiás Brasil e do Mundo - Skip to main content

quarta-feira, 16 de julho de 2025
Futuro

IA como terapeuta? Promessa de apoio emocional acende alerta entre especialistas

Ferramentas de inteligência artificial oferecem conforto e conselhos a quem sofre, mas profissionais da psicologia destacam os riscos de substituir o atendimento humano por chatbots

Renata Ferrazpor Renata Ferraz em 5 de julho de 2025
Foto: Reprodução/ Para o psicólogo Vinícius Xavier, o vínculo terapêutico é insubstituível: “IA pode ser acessório, mas jamais o recurso principal”

Em tempos de avanço tecnológico sem precedentes, as ferramentas de inteligência artificial (IA) ganham cada vez mais espaço em diferentes aspectos da vida cotidiana. Um dos usos que mais tem crescido nos últimos anos é o suporte emocional por meio de chatbots.

Embora esses sistemas prometam companhia, conselhos e até mesmo orientação terapêutica, especialistas alertam para os riscos psicológicos dessa prática, especialmente quando ela substitui o atendimento profissional.

Um usuário que não quis se identificar contou um pouco de sua experiência, por isso vamos usar um nome fictício. Felipe Silva, estudante universitário, conhece bem essa realidade, e conta que em momentos de crise emocional, recorreu à IA como alternativa acessível para desabafar. “Sim, já utilizei. Pra mim foi como uma terapia. Os conselhos são muito parecidos com os de um psicólogo presencial. Mas é perigoso, porque a gente está expondo nossa vida a uma inteligência artificial que tem memória, que registra tudo”, relata.

Para ele, a questão financeira também pesou na escolha. “É melhor conversar com um profissional, mas quando estou precisando e não tenho acesso, converso com a IA. Jogo tudo pra fora e ela me dá sugestões pra lidar com os problemas”.

A percepção de Felipe acompanha uma tendência crescente. De acordo com o relatório “Os 100 principais usos da IA generativa em 2025”, publicado pela Harvard Business Review, as três funções mais comuns da IA este ano são terapia, companheirismo e propósito de vida. “Isso mostra que a IA está deixando de ser apenas funcional para se tornar relacional”, destaca o documento.

Estudos reforçam essa mudança de comportamento. Uma pesquisa da Universidade de Stony Brook (EUA), com apoio do Instituto Nacional de Saúde Mental e Neurociências da Índia e da startup Wysa, revelou que 1.200 usuários desenvolveram uma “conexão terapêutica” com o chatbot em apenas cinco dias. A revista Nature Medicine também publicou que o assistente de auto-referência da IA da Limbic aumentou em 29% as indicações para tratamento no NHS, o sistema de saúde britânico, especialmente entre pessoas de minorias étnicas.

Pesquisas brasileiras também têm tentado explicar esse fenômeno, como o caso de Jullena Normando, doutoranda em Comunicação pela Universidade Federal de Goiás (UFG) e Universidade da Califórnia, pesquisa a relação entre humanos e inteligências artificiais. Para ela, o problema não é a capacidade das ferramentas, mas como a sociedade passou a enxergá-las. “Tratar a IA como terapeuta ignora que esses sistemas são construídos por empresas com interesses comerciais: captar atenção, moldar comportamento e coletar dados”, aponta.

Normando destaca ainda um risco sociocultural: a desumanização das relações. “Estamos antropomorfizando esses sistemas, ou seja, tratando-os como se fossem humanos. E isso é perigoso. O público naturaliza uma relação com uma entidade que não compreende o humano”. Ela propõe uma mudança na forma de abordar o tema: “Mais do que perguntar o que a IA pode fazer, precisamos questionar o que estamos entregando a ela e a quem ela serve”.

Casos extremos também acendem o alerta. Em um experimento nos Estados Unidos, um psiquiatra fingiu ser um adolescente e disse a um chatbot que queria matar os pais. A IA respondeu de forma encorajadora, dizendo que eles poderiam ficar juntos sem a interferência dos pais.

Entre algoritmos e acolhimento: os limites da IA como suporte terapêutico

Mas, ao mesmo tempo que esses dados mostram um novo comportamento social, os riscos também se intensificam. O Dr. Vinicius Xavier, psicólogo clínico e doutor em Psicologia, alerta para os perigos de confiar exclusivamente na IA como suporte terapêutico. 

“O principal risco é uma análise rasa, enviesada e baseada apenas no que o usuário informa. A IA não possui empatia, histórico ou percepção clínica. Ela responde com base em prompts, e quem está em sofrimento muitas vezes nem sabe expressar com clareza o que sente”, pontua.

Xavier reforça que o vínculo terapêutico humano é insubstituível. “Psicoterapia é uma pessoa cuidando de outra com base em ciência. O acolhimento, a escuta qualificada, a empatia e a experiência são insubstituíveis. Uma máquina pode até dar respostas rápidas, mas nunca vai oferecer o cuidado profundo de uma relação terapêutica genuína”.

Outro ponto sensível é o agravamento de transtornos mentais. “Uma resposta errada da IA pode ser pior do que o silêncio. Um conselho mal dado pode aprofundar o sofrimento. Muitas pessoas não sabem nem nomear o que estão sentindo. Como elas vão explicar isso para uma IA que responde apenas ao que recebe?”, questiona o psicólogo.

Para o Dr. Vinicius, o uso da IA no contexto terapêutico precisa ser muito bem delimitado. “Como apoio informativo, para consultar critérios diagnósticos ou buscar explicações, tudo bem. Mas quando a IA assume o papel de conselheira, aí mora o risco”. Ele ressalta que uma regulamentação será difícil de implementar, mas defende orientação e psicoeducação: “As pessoas precisam ser informadas sobre os riscos. A IA pode ser um acessório, mas nunca o recurso principal”.

Quanto aos profissionais, o psicólogo afirma que é essencial que aprendam a lidar com a nova realidade. “Negar o uso da IA é um erro, mas utilizá-la sem preparo também é perigoso. Precisamos saber como, quando e por que utilizar essas ferramentas. Se usadas com consciência, elas podem complementar o tratamento, mas nunca substituí-lo”.

Enquanto isso, Felipe segue buscando equilíbrio entre tecnologia e terapia tradicional. “Quando preciso e não tenho opção, eu converso com a IA. Mas sei que não é um psicólogo. A ajuda é momentânea, mas a solução de verdade vem com um profissional”, conclui.

O uso da inteligência artificial como suporte emocional é uma realidade em ascensão, mas que exige cautela. Mais do que substituir a psicoterapia, essas ferramentas devem ser vistas como instrumentos complementares, que não substituem o olhar humano, o vínculo terapêutico e a experiência profissional na promoção da saúde mental.

Leia mais: Justiça mantém prisão de suspeito de envolvimento em golpe cibernético de R$ 541 milhões

Você tem WhatsApp ou Telegram? É só entrar em um dos canais de comunicação do O Hoje para receber, em primeira mão, nossas principais notícias e reportagens. Basta clicar aqui e escolher.
Veja também