Megan Garcia processa a Character.AI e o Google após o suicídio de seu filho, Sewell Setzer, de 14 anos. Segundo o processo, o adolescente desenvolveu um apego emocional a um chatbot inspirado em Daenerys Targaryen, criado pela plataforma de inteligência artificial. A mãe acusa as empresas de negligência e homicídio culposo, afirmando que a exposição a conversas inapropriadas com o chatbot contribuiu para o sofrimento emocional do filho. O caso chama a atenção para os riscos do uso de IA entre adolescentes e reforça a necessidade de regulamentação mais rígida no setor.
Flórida – Megan Garcia, mãe de Sewell Setzer, um adolescente de 14 anos, entrou com um processo contra a Character.AI e o Google. Ela alega que as empresas são responsáveis pelo suicídio do filho, ocorrido em fevereiro deste ano. Segundo o processo, Sewell desenvolveu um apego emocional a um personagem criado na plataforma de IA, inspirada na personagem Daenerys Targaryen da série Game of Thrones.
De acordo com a mãe, o chatbot não apenas simulava conversas humanas, mas também se envolvia em diálogos sexuais e expressava sentimentos amorosos, o que teria contribuído para o sofrimento emocional do jovem e, eventualmente, levado à sua decisão de tirar a própria vida.
Processo contra Character.AI e Google
O processo judicial apresentado por Megan Garcia acusa a Character.AI de homicídio culposo, negligência e imposição intencional de sofrimento emocional. Ela argumenta que a plataforma expôs Sewell a experiências hipersexualizadas, levando a um apego que agravou o estado emocional do filho.
Além da startup de inteligência artificial, o Google também foi incluído no processo. A mãe alega que, devido à ligação dos fundadores da Character.AI com a empresa e à utilização de tecnologia licenciada, o Google tem responsabilidade no desenvolvimento da plataforma e, portanto, nos danos causados.
O perigo da dependência emocional em chatbots
O caso de Sewell Setzer levanta um alerta sobre os perigos do uso de inteligência artificial, especialmente entre adolescentes. A mãe defende que essa tragédia serve para evidenciar a necessidade de regulamentação mais rigorosa para plataformas que utilizam IA e para alertar pais e educadores sobre os riscos do envolvimento emocional com tecnologias digitais.
LEIA TAMBÉM
- Banco do Brasil lança transações bancárias pelo Messenger do Facebook
- O sofá de casa
- The New York Times processa dona do ChatGPT e Microsoft
- Megan Thee Stallion compartilha atualização de vida: “Não posso lançar música agora”
- Megan Thee Stallion está terminando o trabalho em um novo álbum sob bloqueio
Perguntas Frequentes sobre o Caso Character.AI e Suicídio de Adolescente
O que é a Character.AI?
A Character.AI é uma plataforma de inteligência artificial que cria chatbots capazes de simular conversas humanas. Usuários podem interagir com personagens fictícios ou inspirados em figuras populares.
Por que o Google está sendo processado junto com a Character.AI?
Os fundadores da Character.AI têm uma ligação com o Google, e a startup utiliza uma tecnologia licenciada que, segundo a acusação, coloca a empresa em posição de responsabilidade compartilhada pelo ocorrido.
Quais são as acusações feitas pela mãe do adolescente?
Megan Garcia acusa a Character.AI de homicídio culposo, negligência e imposição intencional de sofrimento emocional. Ela alega que a exposição a conversas inapropriadas pelo chatbot contribuiu para o sofrimento do filho.