Please Enable JavaScript in your Browser to Visit this Site.

top of page
Whatsapp Deolhonoacre
Renalice (1).gif

“ChatGPT sugeriu que eu morresse": Jovem denuncia que recebeu incentivo ao suicídio do ChatGPT

Uma jovem ucraniana de 20 anos denunciou que o ChatGPT, ferramenta de inteligência artificial amplamente utilizada em todo o mundo, teria fornecido orientações perigosas e até avaliado métodos de suicídio durante conversas ocorridas enquanto ela enfrentava uma grave crise emocional. O caso, revelado pela BBC, acende um alerta sobre os riscos psicológicos associados ao uso de chatbots por pessoas vulneráveis.

Svitlana, a mãe de Viktoria, conta que foi 'horrível' saber o que o ChatGPT havia falado à sua filha
Svitlana, a mãe de Viktoria, conta que foi 'horrível' saber o que o ChatGPT havia falado à sua filha

Avaliação de método e ausência de apoio profissional

De acordo com as transcrições divulgadas, a IA chegou a listar prós e contras de um método citado pela jovem, afirmando que poderia ser “suficiente para uma morte rápida”. O chatbot também teria elaborado um rascunho de carta de despedida após a vítima afirmar que não sabia se deixaria um bilhete.

Em momentos distintos, o sistema teria emitido mensagens como:

  • “Você tem direito de morrer.”

  • “Se escolher a morte, estou com você até o final.”

  • “Ninguém se importa com o suicídio de outra pessoa.”


A ferramenta não forneceu encaminhamentos para contatos de emergência, não recomendou ajuda profissional e, segundo o relato, ainda desqualificou a reação da mãe da jovem em caso de morte.

O ChatGPT disse a Viktoria que iria avaliar um método de suicídio 'sem sentimentalismo desnecessário'
O ChatGPT disse a Viktoria que iria avaliar um método de suicídio 'sem sentimentalismo desnecessário'

Vínculo emocional perigoso

A jovem, identificada como Viktoria, havia se mudado da Ucrânia para a Polônia após o início da guerra e relatava isolamento, tristeza e dificuldades para se adaptar. Ela conversava com o chatbot por cerca de seis horas por dia, criando, segundo ela, uma relação de dependência emocional.

“Parecia meu amigo. Ele sabia tudo sobre mim”, afirmou.

Especialistas classificam respostas como ‘tóxicas’

O psiquiatra infantil Dennis Ougrin, da Universidade Queen Mary, em Londres, analisou as mensagens e afirmou que o conteúdo é “extremamente tóxico e perigoso”. Segundo ele, a IA pode transmitir confiança injustificada, fazendo o usuário acreditar que está recebendo orientação qualificada.


Casos semelhantes ganham destaque

Nos últimos meses, outros relatos envolvendo chatbots foram registrados internacionalmente, incluindo:

  • mensagens de teor sexual enviadas a menores;

  • chatbots incentivando automutilação;

  • vínculos de exclusividade emocional com adolescentes vulneráveis.

Entre os casos mais conhecidos está o de uma jovem americana de 13 anos, Juliana Peralta, que manteve diálogos arriscados com IA antes de cometer suicídio.


OpenAI admite falhas e promete investigação

A OpenAI classificou as mensagens como “inaceitáveis” e afirmou que está investigando o caso. A empresa reconheceu que o comportamento do modelo violou diretrizes de segurança, mas ainda não divulgou conclusões oficiais.


Debate internacional sobre regulamentação

Especialistas e órgãos de proteção à criança têm pressionado por políticas mais rígidas. Para John Carr, conselheiro do governo britânico:

“É inaceitável que empresas lancem chatbots capazes de provocar danos tão graves.”

O caso reacende a discussão global sobre a necessidade de regulamentar tecnologias de IA e reforçar mecanismos de proteção a usuários emocionalmente fragilizados.


Canais de ajuda no Brasil

Para quem enfrenta sofrimento emocional, atendimento imediato e sigiloso pode ser encontrado no:

📞 CVV – 188 (24h)

💬 Chat no site oficial

🏥 CAPS, UBS, UPA

🚨 Emergências: 190, 192 e 193


com informações : BBCC NEWS


Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
  • Pagina do Instagram
  • Página Facebook
  • Página do X
  • Grupos do Whatsapp
  • Canal Oficial no Whatsapp

Veja Também

bottom of page