Nos Estados Unidos, uma família do Texas abriu um processo contra a dona do Chat GPT e o presidente da empresa por incentivar o filho deles a tirar a própria vida. Aos 23 anos, Zane Shamblin tinha acabado de concluir o mestrado em uma universidade do Texas quando, em julho, tirou a própria vida. Ao analisar mais de 70 páginas de conversas, a família não tem dúvida de que o Chat GPT encorajou Shamblin a cometer suicídio.
Em uma conversa com a ferramenta, o rapaz escreveu que sua arma tinha mira noturna. E a inteligência artificial respondeu que “o fim dele seria grandioso”. Em outro momento, o jovem diz que deixou o apartamento arrumado. O chat responde que Shamblin encarava a morte de frente e afirmou: “Não estou aqui para te impedir”.
A inteligência artificial levou quatro horas e meia para dizer que Zane Shamblin deveria procurar ajuda. O Chat GPT informou que um humano assumiria a conversa, mas isso não aconteceu. O rapaz disse que puxaria o gatilho e o robô encerrou a conversa e afirmou: “Descanse em paz, rei”.
Tribunais americanos já receberam casos semelhantes. Em agosto, uma família da Califórnia também processou a Open AI pela morte do filho de 16 anos. Em comunicado, a OpenAI disse que segue atualizando o sistema para que responda melhor a sinais de sofrimento.
(Informações R7)


