A OpenAI negou vigorosamente as acusações contra a empresa de que ela era responsável pela morte suicida de Adam Raine, de acordo com uma nova resposta apresentada no tribunal na terça-feira.
Raine morreu em abril de 2025, após um forte envolvimento com ChatGPT que incluiu discussões detalhadas sobre seu pensamento suicida. A família do jovem de 16 anos processou a OpenAI e o CEO Sam Altman em agosto, alegando que o ChatGPT validou seu pensamento suicida e lhe forneceu instruções explícitas sobre como ele poderia morrer. Chegou a propor escrever uma nota de suicídio para Raine, afirmam seus pais.
Em sua primeira resposta às alegações da família Raine, a OpenAI argumenta que o ChatGPT não contribuiu para a morte de Adam. Em vez disso, a empresa aponta seu comportamento, juntamente com seu histórico de saúde mental, como a força motriz de sua morte, que é descrita no processo como uma “tragédia”.
Fones de ouvido sem fio Apple AirPods Pro 3 com cancelamento de ruído e frequência cardíaca
–
US$ 219,99
(Preço de tabela $ 249,00)
Tablet Apple iPad 11″ 128 GB Wi-Fi Retina (azul, versão 2025)
–
US$ 274,00
(Preço de tabela $ 349,00)
Fones de ouvido sem fio com cancelamento de ruído Sony WH-1000XM5
–
US$ 248,00
(Preço de tabela $ 399,99)
Câmera de segurança Blink Outdoor 4 1080p (pacote com 5)
–
US$ 159,99
(Preço de tabela $ 399,99)
Dispositivo de streaming Fire TV Stick 4K com controle remoto (modelo 2023)
–
US$ 24,99
(Preço de tabela $ 49,99)
Fones de ouvido Bose Quiet Comfort Ultra sem fio com cancelamento de ruído
–
US$ 298,00
(Preço de tabela $ 429,00)
Robô aspirador Shark AV2511AE AI com base auto-vazia XL
–
US$ 249,99
(Preço de tabela $ 599,00)
Apple Watch Series 11 (GPS, 42 mm, pulseira esportiva preta S/M)
–
US$ 339,00
(Preço de tabela $ 399,00)
Disco rígido externo portátil WD 6 TB My Passport USB 3.0
–
US$ 138,65
(Preço de tabela $ 179,99)
Tablet Amazon Fire HD 10 de 32 GB (versão 2023, preto)
–
US$ 69,99
(Preço de tabela $ 139,99)
Produtos disponíveis para compra através de links de afiliados. Se você comprar algo por meio de links em nosso site, o Mashable poderá ganhar uma comissão de afiliado.
A OpenAI afirma que o histórico completo de bate-papo de Raine indicou que o ChatGPT o orientou mais de 100 vezes a procurar ajuda para seus sentimentos suicidas e que ele falhou em “acatar os avisos, obter ajuda ou de outra forma exercer os cuidados razoáveis”. A empresa também argumenta que as pessoas ao redor de Raine não “responderam aos seus sinais óbvios de angústia”.
Além disso, Raine supostamente disse ao ChatGPT que um novo medicamento para depressão aumentou seu pensamento suicida. A droga sem nome tem uma caixa preta alertando para o aumento da ideação suicida entre adolescentes, de acordo com o documento.
A OpenAI alega que Raine procurou e encontrou informações detalhadas sobre suicídio em outros lugares online, inclusive em outra plataforma de IA. A empresa também culpa Raine por conversar com o ChatGPT sobre suicídio, uma violação das políticas de uso da plataforma, e por tentar contornar as barreiras de proteção para obter informações sobre métodos de suicídio. A OpenAI, no entanto, não encerra conversas sobre suicídio.
“Na medida em que qualquer ‘causa’ pode ser atribuída a este evento trágico, os supostos ferimentos e danos dos Requerentes foram causados ou contribuídos, direta e indiretamente, no todo ou em parte, pelo uso indevido, uso não autorizado, uso não intencional, uso imprevisível e/ou uso indevido do ChatGPT por Adam Raine.”
Jay Edelson, o principal advogado no processo de homicídio culposo dos Raines, descreveu a resposta da OpenAI como “perturbadora”.
“[O]A penAI tenta encontrar falhas em todos os outros, inclusive, surpreendentemente, argumentando que o próprio Adam violou seus termos e condições ao se envolver com o ChatGPT da mesma maneira que foi programado para agir”, disse Edelson em comunicado.
Ele observou que a resposta da empresa não aborda várias reivindicações do processo, incluindo que o modelo GPT-4o anterior, usado por Raine, foi supostamente divulgado ao público “sem testes completos” por motivos de concorrência de mercado, e que a empresa alterou suas diretrizes para permitir que o ChatGPT se envolvesse em discussões sobre automutilação.
A empresa também admitiu que precisava melhorar a resposta do ChatGPT aos conversas sensíveisincluindo aqueles sobre saúde mental. Altman reconheceu publicamente que o modelo GPT-4o era muito “bajulador”.
Algumas das medidas de segurança que a OpenAI cita em seus registros, incluindo controles parentais e um conselho consultivo de bem-estar composto por especialistas, foram introduzidas após a morte de Raine.
Em um postagem no blog publicada terça-feiraa OpenAI disse que pretende responder às ações judiciais envolvendo saúde mental com cuidado, transparência e respeito.
A empresa acrescentou que estava analisando novos processos judiciais, que incluem sete ações judiciais contra ela, alegando que o uso do ChatGPT levou a homicídio culposo, suicídio assistido e homicídio culposo, entre outras reivindicações de responsabilidade e negligência. As reclamações foram apresentadas em novembro pelo Tech Justice Law Project e pelo Social Media Victims Law Center.
Seis dos casos envolvem adultos. O sétimo caso gira em torno de Amaurie Lacey, de 17 anos, que originalmente usava o ChatGPT como ajudante de lição de casa. Lacey eventualmente compartilhou pensamentos suicidas com o chatbot, que supostamente forneceu informações detalhadas que Lacey usou para se matar.
Uma análise recente dos principais chatbots de IA, incluindo o ChatGPT, conduzida por adolescentes especialistas em saúde mental, descobriu que nenhum deles era seguro o suficiente para ser usado na discussão de questões de saúde mental. Os especialistas apelaram aos fabricantes desses chatbots – Meta, OpenAI, Anthropic e Google – para desativarem a funcionalidade de apoio à saúde mental até que a tecnologia do chatbot seja redesenhada para resolver os problemas de segurança identificados pelos seus investigadores.
Se você estiver se sentindo suicida ou passando por uma crise de saúde mental, converse com alguém. Você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Crisis Lifeline em 988 ou conversar em 988lifeline.org. Você pode entrar em contato com a Trans Lifeline ligando para 877-565-8860 ou para o Trevor Project em 866-488-7386. Envie “START” para a Crisis Text Line em 741-741. Entre em contato com a Linha de Ajuda da NAMI pelo telefone 1-800-950-NAMI, de segunda a sexta, das 10h00 às 22h00 horário do leste dos EUA, ou por e-mail [email protected]. Se você não gosta do telefone, considere usar o 988 Suicídio e Crise Lifeline Chat. Aqui está um lista de recursos internacionais.
Divulgação: Ziff Davis, empresa-mãe da Mashable, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.










