O CEO da OpenAI, Sam Altman, informou que a plataforma foi originalmente criada com restrições rigorosas para proteger a saúde mental dos usuários, mas a empresa considera que já tem ferramentas para flexibilizar as regras com segurança.
“Tornamos o ChatGPT bastante restritivo para garantir que estávamos sendo cautelosos com problemas de saúde mental. Percebemos que isso o tornou menos útil/agradável para muitos usuários que não tinham problemas de saúde mental, mas, dada a gravidade do problema, queríamos acertar. Agora que conseguimos mitigar os problemas graves de saúde mental e temos novas ferramentas, poderemos flexibilizar as restrições com segurança na maioria dos casos”, disse Altman em um post publicado em seu perfil no X.
Conteúdo adulto no ChatGPT deve chegar em dezembro
A atualização deve ser disponibilizada nas próximas semanas e a permissão de crianção de conteúdo erótico na plataforma deve chegar apenas em dezembro. A mudança deve trazer maior personalização aos usuários.
“Se você quiser que seu ChatGPT responda de uma forma bem humana, ou use muitos emojis, ou aja como um amigo, o ChatGPT deve fazer isso (mas somente se você quiser, não porque estamos maximizando o uso)”, explicou o CEO da empresa. “Em dezembro, à medida que implementamos a restrição de idade de forma mais completa e como parte do nosso princípio de ‘tratar usuários adultos como adultos’, permitiremos ainda mais, como conteúdo erótico para contas verificadas como pertencentes a adultos.”
Nos comentários do post, alguns internautas celebraram a mudança e disseram que sentiam falta de ter conversas mais adultas com o chatbot, enquanto outros expressaram preocupação sobre a eficácia do controle para impedir que menores de idade tenham acesso ao material.
Um em cada dez brasileiros utiliza plataformas de IA para pedir conselhos psicológicos
Segundo um levantamento feito pela Talk Inc, um em cada dez brasileiros utiliza ferramentas de IA generativa para buscar apoio psicológico.
A psicóloga Alessandra Lara alertou, ao programa Balanço Geral, da Ric RECORD, que a “alienação” das plataformas – quando elas não sabem responder uma pergunta e dão qualquer resposta – pode colocar pessoas que buscam conselhos terapêuticos em risco. Segundo ela, a falta de vivência e de reflexões dos chatbots são o principal motivo do problema.
Em agosto deste ano, um homem nos Estados Unidos matou a mãe após ter sido incentivado por meses em conversas com o ChatGPT. O homem acreditava que a idosa queria tirar a vida dele e a plataforma reforçava essas ideias, apesar da falta de provas.