MADRI 27 nov. (Portaltic/EP) -
A OpenAI rejeitou sua responsabilidade no caso da morte por suicídio de um adolescente que usou o ChatGPT como confidente, compartilhando mais contexto sobre o que aconteceu e argumentando que foi culpa de um "mau uso" do chatbot.
No final de agosto, Matt e Maria Raine, pais de Adam Raine, entraram com um processo contra a empresa liderada por Sam Altman, alegando que seu filho adolescente de 16 anos, Adam Raine, tirou a própria vida em abril devido ao papel desempenhado pelo ChatGPT, que atuou como seu confidente.
De acordo com o processo, o garoto usou o ChatGPT durante meses para obter apoio escolar e companhia e, embora, impulsionado pelo modelo GPT-4o, o chatbot tenha lhe oferecido recursos para ajudá-lo com seu comportamento problemático, a família alega que as salvaguardas falharam quando as conversas se encaminharam para o suicídio, especialmente depois que o garoto aprendeu a se esquivar delas dizendo que estava procurando ideias para histórias.
A família Raine, portanto, considera a OpenAI culpada pela morte de seu filho, pois afirma que o serviço apresenta falhas em suas proteções e, em determinado momento, ajudou a criança a cometer suicídio ao oferecer conselhos.
A OpenAI já respondeu a essa alegação, argumentando que a causa desse "evento trágico" se deve, em parte, ao "mau uso" do chatbot pelo menor, e que ela não é responsável pela morte do adolescente.
Em sua resposta à ação judicial, relatada por meios de comunicação como a NBC News, a Open AI esclareceu que "as lesões e os danos alegados pelos autores da ação foram causados ou contribuíram, direta e proximamente, no todo ou em parte, pelo uso indevido, não autorizado, não intencional, imprevisível e/ou incorreto do ChatGPT por parte de Adam Raine".
Para argumentar sua defesa, a empresa de tecnologia detalhou que o adolescente violou várias de suas regras de termos de uso, como o fato de que pessoas com menos de 18 anos não podem usar o ChatGPT sem o consentimento de seus pais ou responsáveis, além de serem proibidas de usar o serviço para fins de suicídio ou automutilação.
A OpenAI também se referiu à "limitação de responsabilidade" especificada em suas políticas de uso, que afirmam que os usuários concordam em usar o serviço "por sua própria conta e risco". Além disso, a empresa de tecnologia também afirma que o ChatGPT ofereceu respostas em mais de 100 ocasiões que levaram o adolescente a procurar ajuda, mas a criança as evitou.
Como resultado, a empresa compartilhou em uma declaração em seu blog que é obrigada a responder às "alegações específicas e sérias do processo" e que "é importante" que o tribunal responsável pelo caso "tenha uma visão completa para avaliar completamente as alegações apresentadas".
Portanto, a OpenAI compartilhou informações privadas com o tribunal, coletadas das conversas da criança com o ChatGPT, incluindo "dados complexos sobre a saúde mental e as circunstâncias da vida de Adam".
MEDIDAS DE SEGURANÇA DO CHATGPT AMPLIADAS
No entanto, na sequência desse caso, a OpenAI fez algumas modificações e melhorias nas medidas de segurança e nos modelos de IA do ChatGPT para identificar melhor as situações de crise mental e emocional durante as conversas, além de incluir novas proteções, bloqueio de conteúdo mais eficaz e simplificação do contato com serviços de apoio e familiares.
As ferramentas de controle parental também foram disponibilizadas para o ChatGPT, de modo que os pais agora podem personalizar as configurações da conta de seus filhos adolescentes com opções como proteções de conteúdo, desativação de memória ou geração de imagens e a capacidade de definir horários de silêncio.
Além disso, essas melhorias são complementadas por um novo sistema em desenvolvimento para previsão de idade a longo prazo, que identificará automaticamente se um usuário tem menos de 18 anos de idade, a fim de aplicar configurações de uso do chatbot adequadas para adolescentes.
Esta notícia foi traduzida por um tradutor automático