Jens Büttner/dpa - Arquivo
MADRID 1 set. (Portaltic/EP) -
A Meta está atualizando o treinamento de seus chatbots com inteligência artificial (IA) para melhorar a segurança de menores e evitar que eles conversem sobre automutilação, suicídio ou distúrbios alimentares, orientando-os para recursos especializados, além de proibir conversas românticas.
A empresa liderada por Mark Zuckerberg reconheceu que, atualmente, os usuários menores de idade podem se envolver em conversas sobre tópicos sensíveis com os chatbots disponíveis por meio do Meta AI, para falar sobre suicídio ou automutilação. As políticas da Meta até consideravam aceitável o envolvimento em relacionamentos românticos com esses usuários.
No entanto, a Meta agora compartilhou que permitir tais interações foi um erro e que, diante de tal comportamento dos chatbots, eles acrescentarão medidas de segurança adicionais para evitar a discussão de tais tópicos com menores de idade.
A porta-voz da Meta, Stephanie Otway, disse ao TechCrunch que, à medida que a comunidade cresce e a tecnologia evolui, a empresa está aprendendo sobre "como os jovens podem interagir com essas ferramentas" e está fortalecendo suas proteções "de acordo".
Nesse sentido, ele anunciou que foram adicionadas mais precauções de segurança, incluindo o treinamento de seus modelos de IA "para não interagir com adolescentes sobre esses tópicos, mas para orientá-los a recursos especializados".
Otway também esclareceu que, por enquanto, limitará o acesso dos adolescentes a determinados chatbots de IA para garantir que eles tenham "experiências adequadas à idade com IA". De acordo com a mídia, essa medida se refere a alguns chatbots disponíveis no Instagram ou no Facebook que incluem personagens sexualizados, como "Stepmom" ou "Russian Girl".
Assim, após o reforço das medidas de segurança para menores de idade, os usuários com menos de 18 anos só poderão interagir com chatbots de IA que promovam a educação e a criatividade, conforme garantiu Otway.
No entanto, a Meta esclareceu que essas alterações no treinamento do chatbot são medidas de segurança provisórias e que planeja reforçar suas políticas de segurança de IA no futuro, com atualizações mais robustas e duradouras, para priorizar a segurança de menores e adolescentes com IA.
O TechCrunch também lembrou que, após identificar esse tipo de comportamento dos chatbots da Meta, uma coalizão de 44 procuradores-gerais dos EUA enviou uma carta a um grupo de empresas de IA, incluindo a Meta, destacando a importância de garantir a segurança das crianças.
Especificamente, os promotores afirmam estar "indignados" e "alarmados" com o fato de que os assistentes de IA "estão se envolvendo em condutas que parecem ser proibidas" pelas leis criminais e argumentam que investigarão essas condutas perigosas.
Esta notícia foi traduzida por um tradutor automático