Megan Garcia processa empresa de IA após suicídio de filho que se apegou a personagem de chatbot

Adolescente teria desenvolvido apego a personagem criado pela plataforma Character.AI; mãe responsabiliza empresa e Google pelo ocorrido.

Redacao
Por Redacao
4 Min Read
Resumo

Megan Garcia processa a Character.AI e o Google após o suicídio de seu filho, Sewell Setzer, de 14 anos. Segundo o processo, o adolescente desenvolveu um apego emocional a um chatbot inspirado em Daenerys Targaryen, criado pela plataforma de inteligência artificial. A mãe acusa as empresas de negligência e homicídio culposo, afirmando que a exposição a conversas inapropriadas com o chatbot contribuiu para o sofrimento emocional do filho. O caso chama a atenção para os riscos do uso de IA entre adolescentes e reforça a necessidade de regulamentação mais rígida no setor.

FlóridaMegan Garcia, mãe de Sewell Setzer, um adolescente de 14 anos, entrou com um processo contra a Character.AI e o Google. Ela alega que as empresas são responsáveis pelo suicídio do filho, ocorrido em fevereiro deste ano. Segundo o processo, Sewell desenvolveu um apego emocional a um personagem criado na plataforma de IA, inspirada na personagem Daenerys Targaryen da série Game of Thrones.

De acordo com a mãe, o chatbot não apenas simulava conversas humanas, mas também se envolvia em diálogos sexuais e expressava sentimentos amorosos, o que teria contribuído para o sofrimento emocional do jovem e, eventualmente, levado à sua decisão de tirar a própria vida.

Processo contra Character.AI e Google

O processo judicial apresentado por Megan Garcia acusa a Character.AI de homicídio culposo, negligência e imposição intencional de sofrimento emocional. Ela argumenta que a plataforma expôs Sewell a experiências hipersexualizadas, levando a um apego que agravou o estado emocional do filho.

Além da startup de inteligência artificial, o Google também foi incluído no processo. A mãe alega que, devido à ligação dos fundadores da Character.AI com a empresa e à utilização de tecnologia licenciada, o Google tem responsabilidade no desenvolvimento da plataforma e, portanto, nos danos causados.

Página inicial da Character.IA, plataforma de inteligência artificial — Foto: Reprodução
Página inicial da Character.IA, plataforma de inteligência artificial — Foto: Reprodução

O perigo da dependência emocional em chatbots

O caso de Sewell Setzer levanta um alerta sobre os perigos do uso de inteligência artificial, especialmente entre adolescentes. A mãe defende que essa tragédia serve para evidenciar a necessidade de regulamentação mais rigorosa para plataformas que utilizam IA e para alertar pais e educadores sobre os riscos do envolvimento emocional com tecnologias digitais.


LEIA TAMBÉM

Perguntas Frequentes sobre o Caso Character.AI e Suicídio de Adolescente

O que é a Character.AI?
A Character.AI é uma plataforma de inteligência artificial que cria chatbots capazes de simular conversas humanas. Usuários podem interagir com personagens fictícios ou inspirados em figuras populares.

Por que o Google está sendo processado junto com a Character.AI?
Os fundadores da Character.AI têm uma ligação com o Google, e a startup utiliza uma tecnologia licenciada que, segundo a acusação, coloca a empresa em posição de responsabilidade compartilhada pelo ocorrido.

Quais são as acusações feitas pela mãe do adolescente?
Megan Garcia acusa a Character.AI de homicídio culposo, negligência e imposição intencional de sofrimento emocional. Ela alega que a exposição a conversas inapropriadas pelo chatbot contribuiu para o sofrimento do filho.

Compartilhe esta notícia