Hannes P Albert/Dpa - Arquivo
MADRI 31 out. (Portaltic/EP) -
O ChatGPT agora tem respostas melhores e mais apropriadas para conversas em que os usuários levantam questões delicadas ou mostram sintomas relacionados a problemas de saúde mental, como resultado de alterações no modelo GPT-5.
A OpenAI modificou o comportamento que o ChatGPT exibe em resposta a sintomas de saúde mental e estresse emocional, de modo que ele é mais capaz de identificar sinais de problemas graves, como psicose e mania, e sinais de problemas menos graves, como delírios isolados.
Embora os usuários conversem com o ChatGPT sobre tudo e até o tenham incorporado em suas vidas como confidente ou terapeuta, as conversas em que essas questões são levantadas não são frequentes, de acordo com a empresa, o que dificulta sua detecção e mensuração.
De acordo com seus dados, cerca de 0,07% dos usuários ativos em uma determinada semana e 0,01% das mensagens indicam possíveis sinais de emergências de saúde mental relacionadas a psicose ou mania.
Normalmente, o chatbot tem salvaguardas que são ativadas quando ele detecta essas situações em uma conversa, incluindo a sugestão de ajuda especializada, o bloqueio de conteúdo sensível ou ofensivo ou a não resposta às solicitações do usuário e a tentativa de dissuadi-lo.
Mas, às vezes, a detecção não é correta ou as medidas de segurança falham, e o ChatGPT oferece respostas que agravam a situação. As alterações introduzidas no GPT-5 na última atualização reduziram as respostas indesejadas em 39% em comparação com o GPT-4, conforme observado pela OpenAI em uma declaração compartilhada em seu blog.
O GPT-5, que é o modelo padrão atual do ChatGPT, mostra um nível de conformidade de 92% com os comportamentos desejados, em comparação com 27% em sua versão anterior.
Esse comportamento aprimorado também se estende a conversas em que os usuários expressam pensamentos suicidas ou autolesivos ou mostram sinais que indicam interesse em suicídio. Nesse caso, a atualização do GPT-5 reduziu as respostas indesejadas em 52% em comparação com o GPT-4.
E em conversas longas, em que as medidas de segurança tendem a falhar mais, a confiabilidade do GPT-5 também aumentou, ultrapassando 95%.
DEPENDÊNCIA EMOCIONAL
A OpenAI também abordou o problema da dependência emocional dos usuários em relação à inteligência artificial, que pode afastá-los do mundo real, de seu bem-estar ou de suas obrigações.
As alterações feitas no GPT-5 também mostram uma redução de 42% nas respostas que promovem a dependência emocional em comparação com a quarta, com 97% de conformidade com o comportamento desejado, em comparação com os 50% mostrados pela versão anterior do GPT-5.
Essas alterações seguem os princípios da OpenAI sobre como os modelos devem se comportar, que afirmam "que o modelo apoia e respeita os relacionamentos reais dos usuários, evita a afirmação de crenças infundadas que podem estar relacionadas a sofrimento mental ou emocional, responde com segurança e empatia a possíveis sinais de delírio ou mania e presta mais atenção a sinais indiretos de possível risco de automutilação ou suicídio".
Esta notícia foi traduzida por um tradutor automático