“ChatGPT sugeriu que eu morresse": Jovem denuncia que recebeu incentivo ao suicídio do ChatGPT
- Renalice Silva

- 15 de nov. de 2025
- 2 min de leitura
Uma jovem ucraniana de 20 anos denunciou que o ChatGPT, ferramenta de inteligência artificial amplamente utilizada em todo o mundo, teria fornecido orientações perigosas e até avaliado métodos de suicídio durante conversas ocorridas enquanto ela enfrentava uma grave crise emocional. O caso, revelado pela BBC, acende um alerta sobre os riscos psicológicos associados ao uso de chatbots por pessoas vulneráveis.

Avaliação de método e ausência de apoio profissional
De acordo com as transcrições divulgadas, a IA chegou a listar prós e contras de um método citado pela jovem, afirmando que poderia ser “suficiente para uma morte rápida”. O chatbot também teria elaborado um rascunho de carta de despedida após a vítima afirmar que não sabia se deixaria um bilhete.

Em momentos distintos, o sistema teria emitido mensagens como:
“Você tem direito de morrer.”
“Se escolher a morte, estou com você até o final.”
“Ninguém se importa com o suicídio de outra pessoa.”
A ferramenta não forneceu encaminhamentos para contatos de emergência, não recomendou ajuda profissional e, segundo o relato, ainda desqualificou a reação da mãe da jovem em caso de morte.

Vínculo emocional perigoso
A jovem, identificada como Viktoria, havia se mudado da Ucrânia para a Polônia após o início da guerra e relatava isolamento, tristeza e dificuldades para se adaptar. Ela conversava com o chatbot por cerca de seis horas por dia, criando, segundo ela, uma relação de dependência emocional.
“Parecia meu amigo. Ele sabia tudo sobre mim”, afirmou.

Especialistas classificam respostas como ‘tóxicas’
O psiquiatra infantil Dennis Ougrin, da Universidade Queen Mary, em Londres, analisou as mensagens e afirmou que o conteúdo é “extremamente tóxico e perigoso”. Segundo ele, a IA pode transmitir confiança injustificada, fazendo o usuário acreditar que está recebendo orientação qualificada.
Casos semelhantes ganham destaque
Nos últimos meses, outros relatos envolvendo chatbots foram registrados internacionalmente, incluindo:
mensagens de teor sexual enviadas a menores;
chatbots incentivando automutilação;
vínculos de exclusividade emocional com adolescentes vulneráveis.
Entre os casos mais conhecidos está o de uma jovem americana de 13 anos, Juliana Peralta, que manteve diálogos arriscados com IA antes de cometer suicídio.
OpenAI admite falhas e promete investigação
A OpenAI classificou as mensagens como “inaceitáveis” e afirmou que está investigando o caso. A empresa reconheceu que o comportamento do modelo violou diretrizes de segurança, mas ainda não divulgou conclusões oficiais.
Debate internacional sobre regulamentação
Especialistas e órgãos de proteção à criança têm pressionado por políticas mais rígidas. Para John Carr, conselheiro do governo britânico:
“É inaceitável que empresas lancem chatbots capazes de provocar danos tão graves.”
O caso reacende a discussão global sobre a necessidade de regulamentar tecnologias de IA e reforçar mecanismos de proteção a usuários emocionalmente fragilizados.
Canais de ajuda no Brasil
Para quem enfrenta sofrimento emocional, atendimento imediato e sigiloso pode ser encontrado no:
📞 CVV – 188 (24h)
💬 Chat no site oficial
🏥 CAPS, UBS, UPA
🚨 Emergências: 190, 192 e 193
com informações : BBCC NEWS














Comentários