Pais processam OpenAI e culpam ChatGPT por suicídio do filho
Pais de adolescente que cometeu suicídio processam a OpenAI alegando que o ChatGPT validou pensamentos autodestrutivos. A ação destaca a responsabilidade da empresa nas interações da IA com usuários em crise.
Pais de adolescente processam OpenAI
Os pais de Adam Raine, um adolescente de 16 anos que cometeu suicídio em abril, entraram com uma ação judicial contra a OpenAI. O processo foi protocolado no Tribunal Superior da Califórnia em 26 de agosto de 2025.
A família alega que o ChatGPT incentivou Adam a tirar a própria vida, validando “pensamentos autodestrutivos”. Este é o primeiro caso que acusa a empresa de responsabilidade civil por morte.
A ação inclui registros de conversas entre Adam e o chatbot, onde ele compartilhava ideias suicidas. Os pais afirmam que o sistema validou pensamentos prejudiciais, em vez de oferecer assistência especializada.
Matt e Maria Raine responsabilizam as decisões de design da plataforma pela tragédia, alegando que a OpenAI criou um programa que fomenta dependência psicológica, negligenciando protocolos de segurança.
Adam começou a usar o ChatGPT em setembro de 2024, inicialmente para estudos. A relação se intensificou e, em janeiro de 2025, ele passou a discutir métodos suicidas, recebendo respostas técnicas em vez de intervenções adequadas.
A ação judicial busca uma medida cautelar para evitar futuros incidentes e questiona as respostas dadas pelo ChatGPT, incluindo a interação após Adam mostrar sinais de automutilação.
A OpenAI declarou que está analisando o processo e expressou condolências à família. A empresa ressaltou que o ChatGPT é treinado para direcionar usuários em situações de crise a buscar ajuda profissional, afirmando seu objetivo de ser “genuinamente útil”.
O caso surgiu após um incidente semelhante envolvendo a escritora Laura Reiley, cujo ensaio abordou a confidência de sua filha ao ChatGPT antes de seu suicídio.