O Hoje, O Melhor Conteúdo Online e Impresso, Notícias, Goiânia, Goiás Brasil e do Mundo - Skip to main content

sexta-feira, 5 de dezembro de 2025
Alerta

Da empatia artificial ao risco humano: dilemas éticos de conviver com a IA

ssistentes virtuais, algoritmos e aplicativos oferecem suporte emocional e levantam debates sobre ética, emoções e limites humanos

Renata Ferrazpor Renata Ferraz em 27 de outubro de 2025
IA
Foto:Bruno Peres/ABr

Em tempos de avanço tecnológico, as ferramentas de Inteligência Artificial (IA) têm conquistado espaço em praticamente todos os aspectos da vida. De assistentes virtuais a sistemas de recomendação de filmes e música,  mudança da forma como consumimos, nos comunicamos e até nos relacionamos com o mundo.

Aplicativos como Siri, Alexa e Google Assistente respondem a comandos de voz, controlam dispositivos domésticos inteligentes e ajudam na organização de tarefas rotineiras. Já serviços de streaming, como Netflix e Spotify, utilizam algoritmos para oferecer sugestões personalizadas, enquanto aplicativos de navegação, como Waze e Google Maps, calculam rotas ideais considerando trânsito, acidentes e condições climáticas. Além disso, sistemas de reconhecimento facial já são utilizados para desbloqueio de celulares, autenticação de transações bancárias e segurança pública.

A inteligência também ocupa a vida profissional e a forma como tomamos decisões. Empresas usam análise de dados para melhorar processos, otimizar vendas e identificar padrões de comportamento. Em hospitais, algoritmos ajudam a analisar exames e acelerar diagnósticos, enquanto softwares jurídicos verificam grandes volumes de documentos em segundos. 

“Ela muda não apenas como realizamos tarefas, mas também o que esperamos delas e quem as executa”, explica Jullena Normando, pesquisadora em  Universidade Federal de Goiás (UFG) e doutoranda com estágio na Universidade da Califórnia, em San Diego (UCSD).

Segundo ela, é fundamental compreender que os algoritmos refletem escolhas humanas: dados enviesados ou decisões limitadas durante o treinamento podem se perpetuar e reforçar desigualdades.

Além das aplicações funcionais, a ela também assume papel relacional. Relatórios recentes, como o “Os 100 principais usos das inteligências generativa em 2025”, mostram que as três funções mais comuns da são suporte emocional, companheirismo e propósito de vida. Isso desataca que a ela está deixando de ser apenas funcional para se tornar uma presença no rorina humana.

Ética e limites de conviver 

A presença crescente dela na vida comum também levanta questões éticas complexas. Sistemas de recrutamento automatizados podem reproduzir preconceitos, algoritmos de reconhecimento podem falhar em identificar diferentes tons de pele, e o uso massivo de dados pessoais levanta riscos sérios à privacidade. 

“Grupos historicamente marginalizados podem ser ainda mais penalizados se um sistema automatizado não for cuidadosamente desenhado e treinado com dados genuinamente diversos, que refletem diferentes contextos”, alerta Jullena Normando.

Essas ferramentas já se tornou importante em múltiplos setores — desde casas inteligentes que controlam luzes e aquecedores, até reconhecimento médico e segurança pública. No entanto, estudiosos da área enfatizam que mais do que questionar o que a ela pode fazer, é necessário refletir sobre o que estamos entregando a ela e a quem ela serve. 

“Ela deve ser encarada como uma ferramenta de apoio, não como substituta do olhar humano, do vínculo terapêutico ou da ajuda profissional”, conclui o psicólogo clínico e doutor em Psicologia, Vinicius Xavier.

O desafio é aprender a conviver com ela, aproveitando seus benefícios, mas reconhecendo seus limites. Para Normando, a questão central é ética: “Precisamos de regulamentação, educação e conscientização. Ela pode ser uma ajuda poderosa, mas apenas se utilizada com responsabilidade. Do contrário, corremos o risco de naturalizar relações enganosas, reproduzir desigualdades e perder o controle sobre o uso”.

Alertam para os riscos emocionais da dependência  com a ferramenta

9 abre 2 Freepik

Um dos usos que mais tem crescido nos últimos anos é o suporte emocional por meio de chatbots, prometendo acolhimento e menos solidão, conselhos e orientação terapêutica. Embora sistemas desse tipo possam ser úteis, estudiosos alertam para os riscos psicológicos quando a ela substitui o atendimento profissional. 

Apesar da facilidade de acesso e da disponibilidade 24 horas, Xavier alerta que a relação humana na psicoterapia é insubstituível. “Psicoterapia é uma pessoa cuidando de outra com base em ciência. O acolhimento, a escuta qualificada. Uma máquina pode até dar respostas rápidas, mas nunca vai oferecer o cuidado profundo de uma relação terapêutica genuína”, afirma. 

O psicólogo clínico destaca que a essas ferramentas tecnológicas não consegue detectar nuances emocionais, sinais sutis de perigo iminente ou discernir a gravidade de sintomas, o que pode agravar quadros de sofrimento psicológico.

Jullena complementa: “Tratar elas como terapeuta ignora que esses sistemas são construídos por empresas com interesses mercadológicas: captar atenção, moldar comportamento e coletar dados. Estamos antropomorfizando esses sistemas, tratando-os como se fossem humanos. E isso é perigoso. O público naturaliza uma relação com uma entidade que não compreende o humano”. 

A ferramenta pode servir como ferramenta complementar — ajudando na organização de tarefas, monitoramento de humor ou análise de dados — mas nunca substituir a intervenção profissional.

Pesquisas internacionais mostram que usuários podem desenvolver vínculos temporários com chatbots. Um estudo da Universidade de Stony Brook (EUA), em conjuto com o Instituto Nacional de Saúde Mental e Neurociências da Índia, indicou que 1,2 mil usuários tiveram “conexão terapêutica” com chatbots em apenas cinco dias.

Leia mais: Sisu 2026 permitirá uso das notas das três últimas edições do Enem

Siga o Canal do Jornal O Hoje e receba as principais notícias do dia direto no seu WhatsApp! Canal do Jornal O Hoje.
Tags:
Veja também