Da empatia artificial ao risco humano: dilemas éticos de conviver com a IA
ssistentes virtuais, algoritmos e aplicativos oferecem suporte emocional e levantam debates sobre ética, emoções e limites humanos
Em tempos de avanço tecnológico, as ferramentas de Inteligência Artificial (IA) têm conquistado espaço em praticamente todos os aspectos da vida. De assistentes virtuais a sistemas de recomendação de filmes e música, mudança da forma como consumimos, nos comunicamos e até nos relacionamos com o mundo.
Aplicativos como Siri, Alexa e Google Assistente respondem a comandos de voz, controlam dispositivos domésticos inteligentes e ajudam na organização de tarefas rotineiras. Já serviços de streaming, como Netflix e Spotify, utilizam algoritmos para oferecer sugestões personalizadas, enquanto aplicativos de navegação, como Waze e Google Maps, calculam rotas ideais considerando trânsito, acidentes e condições climáticas. Além disso, sistemas de reconhecimento facial já são utilizados para desbloqueio de celulares, autenticação de transações bancárias e segurança pública.
A inteligência também ocupa a vida profissional e a forma como tomamos decisões. Empresas usam análise de dados para melhorar processos, otimizar vendas e identificar padrões de comportamento. Em hospitais, algoritmos ajudam a analisar exames e acelerar diagnósticos, enquanto softwares jurídicos verificam grandes volumes de documentos em segundos.
“Ela muda não apenas como realizamos tarefas, mas também o que esperamos delas e quem as executa”, explica Jullena Normando, pesquisadora em Universidade Federal de Goiás (UFG) e doutoranda com estágio na Universidade da Califórnia, em San Diego (UCSD).
Segundo ela, é fundamental compreender que os algoritmos refletem escolhas humanas: dados enviesados ou decisões limitadas durante o treinamento podem se perpetuar e reforçar desigualdades.
Além das aplicações funcionais, a ela também assume papel relacional. Relatórios recentes, como o “Os 100 principais usos das inteligências generativa em 2025”, mostram que as três funções mais comuns da são suporte emocional, companheirismo e propósito de vida. Isso desataca que a ela está deixando de ser apenas funcional para se tornar uma presença no rorina humana.
Ética e limites de conviver
A presença crescente dela na vida comum também levanta questões éticas complexas. Sistemas de recrutamento automatizados podem reproduzir preconceitos, algoritmos de reconhecimento podem falhar em identificar diferentes tons de pele, e o uso massivo de dados pessoais levanta riscos sérios à privacidade.
“Grupos historicamente marginalizados podem ser ainda mais penalizados se um sistema automatizado não for cuidadosamente desenhado e treinado com dados genuinamente diversos, que refletem diferentes contextos”, alerta Jullena Normando.
Essas ferramentas já se tornou importante em múltiplos setores — desde casas inteligentes que controlam luzes e aquecedores, até reconhecimento médico e segurança pública. No entanto, estudiosos da área enfatizam que mais do que questionar o que a ela pode fazer, é necessário refletir sobre o que estamos entregando a ela e a quem ela serve.
“Ela deve ser encarada como uma ferramenta de apoio, não como substituta do olhar humano, do vínculo terapêutico ou da ajuda profissional”, conclui o psicólogo clínico e doutor em Psicologia, Vinicius Xavier.
O desafio é aprender a conviver com ela, aproveitando seus benefícios, mas reconhecendo seus limites. Para Normando, a questão central é ética: “Precisamos de regulamentação, educação e conscientização. Ela pode ser uma ajuda poderosa, mas apenas se utilizada com responsabilidade. Do contrário, corremos o risco de naturalizar relações enganosas, reproduzir desigualdades e perder o controle sobre o uso”.
Alertam para os riscos emocionais da dependência com a ferramenta

Um dos usos que mais tem crescido nos últimos anos é o suporte emocional por meio de chatbots, prometendo acolhimento e menos solidão, conselhos e orientação terapêutica. Embora sistemas desse tipo possam ser úteis, estudiosos alertam para os riscos psicológicos quando a ela substitui o atendimento profissional.
Apesar da facilidade de acesso e da disponibilidade 24 horas, Xavier alerta que a relação humana na psicoterapia é insubstituível. “Psicoterapia é uma pessoa cuidando de outra com base em ciência. O acolhimento, a escuta qualificada. Uma máquina pode até dar respostas rápidas, mas nunca vai oferecer o cuidado profundo de uma relação terapêutica genuína”, afirma.
O psicólogo clínico destaca que a essas ferramentas tecnológicas não consegue detectar nuances emocionais, sinais sutis de perigo iminente ou discernir a gravidade de sintomas, o que pode agravar quadros de sofrimento psicológico.
Jullena complementa: “Tratar elas como terapeuta ignora que esses sistemas são construídos por empresas com interesses mercadológicas: captar atenção, moldar comportamento e coletar dados. Estamos antropomorfizando esses sistemas, tratando-os como se fossem humanos. E isso é perigoso. O público naturaliza uma relação com uma entidade que não compreende o humano”.
A ferramenta pode servir como ferramenta complementar — ajudando na organização de tarefas, monitoramento de humor ou análise de dados — mas nunca substituir a intervenção profissional.
Pesquisas internacionais mostram que usuários podem desenvolver vínculos temporários com chatbots. Um estudo da Universidade de Stony Brook (EUA), em conjuto com o Instituto Nacional de Saúde Mental e Neurociências da Índia, indicou que 1,2 mil usuários tiveram “conexão terapêutica” com chatbots em apenas cinco dias.
Leia mais: Sisu 2026 permitirá uso das notas das três últimas edições do Enem