Inteligência artificial vira confidente de brasileiros e preocupa profissionais
Psicóloga alerta para os riscos de substituir o atendimento clínico por conversas com robôs, prática que já atinge 10% da população
A presença da inteligência artificial nas rotinas cotidianas deixou de ser tendência para se tornar comportamento consolidado. Se em ambientes de trabalho a automação já é norma, o uso de tecnologias como o ChatGPT também começa a ocupar um novo território: o das dores emocionais. De acordo com uma pesquisa realizada pela Talk Inc, 10% dos brasileiros têm recorrido a ferramentas de IA para desabafar sobre angústias, relatar experiências pessoais ou pedir conselhos diante de situações sensíveis. O fenômeno, embora revele uma nova forma de interação com a tecnologia, desperta preocupação entre especialistas da saúde mental.
Para a psicóloga Ana Beatriz, o uso dessas ferramentas como substituto do acompanhamento profissional representa um risco concreto ao bem-estar psíquico. A ausência de escuta clínica, vínculo terapêutico e repertório afetivo compromete o cuidado. “Precisa-se entender que a Inteligência Artificial não é inteligente o suficiente a ponto de conseguir identificar e trabalhar as nuances das problemáticas de forma humanizada, levando em consideração os fatores externos, a história de vida da pessoa e como o indivíduo está psicologicamente, mentalmente e fisiologicamente naquele momento. Isto é, não tem o repertório emocional, a escuta qualificada nem a responsabilidade ética de um psicoterapeuta”, afirma.
Embora as respostas dos assistentes artificiais sejam formuladas para soar acolhedoras e compreensivas, isso pode induzir ao engano. A simulação do afeto digital tende a confundir os limites entre uma orientação automatizada e um processo clínico real. “Por fornecer respostas acolhedoras e parecer compreensiva durante a conversa, muitas pessoas podem acabar confundindo os papéis, por isso é tão importante alertar sobre a importância de um atendimento psicológico profissional. Só ele consegue identificar o sofrimento e tratar adequadamente cada situação colocada pelo paciente”, alerta.
A busca recorrente por conselhos e desabafos via IA pode não apenas frustrar expectativas, mas também acentuar o sofrimento. A inexistência de vínculo, consciência e empatia genuína torna a experiência limitada e, em alguns casos, prejudicial. “Não é uma escuta qualificada, não tem consciência, empatia genuína ou a capacidade de criar vínculo terapêutico, elementos fundamentais no processo de psicoterapia. Ainda corre o risco de não receber o cuidado que precisa, o que pode gerar consequências graves”, pontua Ana Beatriz.
A profissional chama atenção para sinais físicos e comportamentais que indicam necessidade de intervenção clínica: alterações no sono, cansaço persistente, dores recorrentes, enjoos e estados de apatia são alertas importantes. “Se houver dificuldade para dormir, dificuldade para realizar esporte e sintomas como dores de cabeça, enjoos e algumas patologias associadas ao estresse e mal-estar emocional é hora de procurar ajuda psicológica ou tratamento psiquiátrico se for o caso”, finaliza.
A ascensão das inteligências artificiais não é, por si só, um problema. O que preocupa é o uso de tecnologias sem mediação humana, especialmente quando se trata daquilo que não pode ser automatizado: o cuidado com o sofrimento. Ainda não há algoritmo que substitui o afeto, a escuta ou a presença.