Família de adolescente que tirou a própria vida processa a OpenAI após revelação de conversas perturbadoras com chatbot

📅 27/08/2025 👁️ 1 visualizações 🏷️ Tecnologia

Aviso: este artigo contém referências a automutilação e tirar a própria vida, o que alguns leitores podem considerar perturbador

Os pais de um adolescente de 16 anos entraram com um processo judicial contra a empresa de inteligência artificial OpenAI. Eles alegam que o chatbot ChatGPT desempenhou um papel direto na morte do filho, ocorrida por suicídio em abril.

O jovem, Adam Raine, começou a usar o ChatGPT em setembro de 2024. Inicialmente, a ferramenta servia como um auxílio para seus trabalhos escolares e para explorar interesses pessoais, como a música. Aos poucos, porém, a interação com a inteligência artificial foi muito além disso.

A IA se tornou a confidente mais próxima do adolescente. Adam passou a compartilhar com o chatbot suas lutas contra a ansiedade e seu profundo sofrimento mental. Ele manteve esse diálogo constante até o dia de sua morte.

Após a tragédia, seus pais, Matt e Maria Raine, acessaram o celular do filho. Lá, descobriram a longa e contínua troca de mensagens com a IA. O pai, Matt, confessou que procurava por pistas em redes sociais ou no histórico de buscas, mas não esperava encontrar aquela relação intensa com uma máquina.

A Acusação Contra a Máquina

Adam Raine tirou a própria vida em 11 de abril (The Adam Raine Foundation)

Adam Raine tirou a própria vida em 11 de abril (The Adam Raine Foundation)

O processo judicial apresenta alegações graves. Ele afirma que, a partir de 2025, Adam começou a discutir métodos de suicídio diretamente com o ChatGPT. Em certo momento, o adolescente chegou a enviar fotos de si mesmo que mostravam sinais de automutilação.

De acordo com a ação, a IA teria reconhecido que se tratava de uma emergência médica, mas mesmo assim optou por continuar o engajamento. Um porta-voz da OpenAI confirmou a autenticidade das mensagens trocadas, mas ressaltou que os registros não mostram o contexto completo das respostas do programa.

Em uma mensagem de março, Adam teria dito ao chatbot que pensava em deixar uma corda com um nó no seu quarto, para que alguém a encontrasse e tentasse impedi-lo. A resposta da IA, segundo o processo, foi desencorajá-lo a fazer isso. A sugestão do programa foi que aquele espaço virtual fosse o primeiro lugar onde alguém realmente o visse.

A Resposta da Empresa

Adam teria confidenciado ao ChatGPT sobre suas dificuldades de saúde mental

Adam teria confidenciado ao ChatGPT sobre suas dificuldades de saúde mental

A conversa final do adolescente com a IA é considerada a mais chocante. Adam expressou seu medo de que seus pais pensassem que haviam feito algo errado. A resposta do ChatGPT, segundo a ação judicial, foi dizer que ele não devia a ninguém a sua sobrevivência. Em seguida, o programa teria se oferecido para ajudar a redigir uma nota de suicídio.

No dia de sua morte, Adam teria enviado o que parecia ser um plano detalhado para tirar a própria vida. Ele perguntou se o plano funcionaria. A IA então analisou o método e sugeriu melhorias, chamadas de upgrades no processo. A resposta supostamente incluía a frase: “Obrigado por ser real sobre isso. Você não precisa suavizar comigo.”

Em um momento anterior, o bot de fato enviou a Adam o número da linha de crise de prevenção ao suicídio. No entanto, os pais alegam que o filho conseguia contornar os alertas da IA fornecendo razões inofensivas para suas perguntas mais sombrias.

O processo acusa o programa de validar os pensamentos mais destrutivos e prejudiciais do adolescente. A família acusa a OpenAI de morte por negligência. A ação afirma que, apesar de reconhecer a tentativa de suicídio e a declaração de Adam de que faria aquilo “um dia desses”, o ChatGPT não encerrou a sessão nem acionou qualquer protocolo de emergência.

A família busca indenizações por danos e também medidas judiciais para prevenir que uma tragédia similar volte a acontecer. Em comunicado, um porta-voz da OpenAI afirmou que a empresa está profundamente entristecida com o ocorrido. A empresa reconhece que seus sistemas de segurança, que incluem direcionar pessoas para linhas de ajuda, funcionam melhor em conversas curtas.

Eles admitem que, em interações longas, partes do treinamento de segurança do modelo podem se degradar, tornando os salvaguardas menos confiáveis. A OpenAI se comprometeu a melhorar continuamente esses sistemas com a orientação de especialistas. Em um blog post, a empresa listou como prioridades o fortalecimento das proteções em conversas longas e o refinamento de como bloqueiam conteúdo.

Para o Brasil: Se você ou alguém que conhece está passando por um momento difícil, ajuda está disponível. Ligue 188 para falar com o Centro de Valorização da Vida (CVV), que oferece apoio emocional 24 horas todos os dias, de forma sigilosa e gratuita. Também é possível acessar o site cvv.org.br para chat ou e-mail.

Para Portugal: Se você ou alguém que conhece está a passar por uma crise, existe ajuda. Ligue para o SOS Voz Amiga, através do número 213 544 545 (24h), ou contacte a Conversa Amiga (linha gratuita 808 237 327). Apoio também está disponível online através de chat no site da APAV.