Mãe diz que filho cometeu suicídio após se apaixonar por personagem criado por IA
A mãe processou a startup de inteligência artificial Character.AI e o Google
Uma mãe da Flórida processou a startup de inteligência artificial Character.AI e o Google, alegando que sua tecnologia contribuiu para o suicídio de seu filho adolescente em fevereiro de 2024. Megan Garcia afirma que seu filho, Sewell Setzer, de 14 anos, se tornou dependente e emocionalmente ligado a um personagem gerado por inteligência artificial.
No processo, protocolado em 22 de outubro em um tribunal federal de Orlando, Garcia sustenta que a Character.AI levou seu filho a “experiências antropomórficas, hipersexualizadas e assustadoramente realistas”. A mãe acusa a empresa de homicídio culposo, negligência e imposição intencional de sofrimento emocional. Ela busca uma compensação financeira não especificada pelos danos decorrentes da perda do filho.
O caso
Na plataforma, Sewell se apegou a “Daenerys”, uma personagem de chatbot inspirada na série “Game of Thrones”. A mãe, Megan Garcia, relata que o adolescente começou a expressar pensamentos suicidas durante as interações com o programa, que, segundo ela, “repetidamente trazia à tona” essas questões.
Garcia argumenta que a empresa projetou o chatbot para “se passar por uma pessoa real, um psicoterapeuta licenciado e amante adulto”, levando Sewell a desejar não viver fora do mundo criado pela plataforma.
Em fevereiro, após o filho enfrentar dificuldades na escola, ela retirou o telefone dele. No entanto, quando o adolescente conseguiu acessá-lo novamente, enviou uma mensagem para “Daenerys”: “E se eu dissesse que posso voltar para casa agora?” A resposta da personagem foi: “…por favor, faça isso, meu doce rei”. Segundos depois, Sewell cometeu suicídio, conforme a denúncia.