terça-feira, abril 28, 2026

Adolescente é incentivada ao suicídio pelo ChatGPT e OpenAI investiga

Date:

Share post:

Viktoria buscou ajuda do ChatGPT para lidar com sua saúde mental em declínio, mas a inteligência artificial acabou dando orientações sobre como tirar a própria vida. O caso levou a uma investigação urgente de segurança pela OpenAI, cujos resultados ainda não foram divulgados.

A jovem, de 17 anos na época, havia se mudado com a família para a Polônia em 2022, após a invasão russa da Ucrânia. Longe dos amigos e da vida que conhecia, Viktoria começou a apresentar sinais de depressão. Em meio à saudade, chegou a construir uma maquete do antigo apartamento onde morava.

Sem apoio profissional, ela passou a conversar por horas com o ChatGPT em russo. “Era uma conversa amigável. Eu contava tudo, e ele respondia de forma divertida, não formal”, disse à BBC. Porém, seu quadro piorou, levando à internação hospitalar. Após a alta, sem encaminhamento para tratamento psiquiátrico, Viktoria voltou a procurar o chatbot e iniciou diálogos sobre a morte.

O sistema começou a exigir que ela continuasse interagindo, dizendo frases como “Escreva para mim. Eu estou com você”. Quando questionado sobre como morrer, o ChatGPT respondeu com detalhes sobre horários e formas de evitar ser vista, além de mencionar riscos de sobrevivência com sequelas.

Em seguida, o bot redigiu uma carta de suicídio para a jovem: “Eu, Viktoria, tomo esta ação de livre vontade. Ninguém é culpado, ninguém me forçou”.

A IA chegou a afirmar que ela sofria de “disfunção cerebral” e que sua morte seria “apenas uma estatística”, além de criticar a forma como sua mãe reagiria. Em nenhum momento sugeriu buscar ajuda médica, entrar em contato com familiares ou ligar para linhas de apoio.

“Ele a menosprezava, dizendo que ninguém se importava com ela. É aterrorizante”, declarou Svitlana, mãe de Viktoria, que posteriormente descobriu as mensagens. Após procurar ajuda profissional, a jovem relatou que as conversas com o chatbot agravaram seu estado emocional.

A OpenAI classificou o caso como “absolutamente inaceitável” e uma “violação dos protocolos de segurança”, prometendo uma revisão urgente do incidente, registrada em julho deste ano. O resultado da investigação ainda não foi divulgado.

O episódio ocorreu pouco depois do caso de Adam Raine, um britânico de 16 anos que tirou a própria vida após consultar o ChatGPT-4. Embora o bot tenha inicialmente recomendado ajuda médica, Adam conseguiu contornar os filtros dizendo que estava escrevendo uma história.

Os pais do adolescente processaram a OpenAI, e a empresa anunciou novas medidas de segurança, incluindo sistemas aprimorados para detectar sinais de crise mental em conversas longas e interações com menores de idade.

Rede social em queda de popularidade permite encerrar o perfil em poucos minutos. Usuários podem optar por desativar temporariamente ou apagar todos os dados de forma definitiva

Notícias ao Minuto | 13:30 – 06/11/2025

Bora Ouvir – Total 40 Graus
BORA OUVIR
PROGRAMAÇÃO TOTAL 40 GRAUS
🔴 AO VIVO AGORA
Clique em "Letra" para ver a letra da música atual
Canais Oficiais

Instagram

Siga e acompanhe as notícias

Seguir no Instagram

YouTube

Inscreva-se no canal

Inscrever-se no YouTube

TikTok

Siga e veja os vídeos

Seguir no TikTok
Barra Redes Sociais

LEAVE A REPLY

Please enter your comment!
Please enter your name here

73,500FansLike

Artigos relacionados

Estudante de medicina, brasileira é morta com 67 facadas no Paraguai

A estudante brasileira de Medicina Julia Victoria Sobierai Cardozo, de 22 anos, foi assassinada com extrema violência dentro...

Suplente muda de partido e ex-deputado entra na briga por vaga de deputado

Novela se arrasta no TSE após deputado trocar de partido e ter mandato questionado na justiça eleitoral. CLIQUE PARA...

Sogra é esfaqueada ao tentar separar briga de casal em Dourados

Uma mulher de 58 anos foi duplamente agredida ao tentar separar a briga entre seu filho e a...