Soeren Stache/dpa - Arquivo
MADRID, 12 maio (EUROPA PRESS) -
Os modelos de linguagem em grande escala (LLM, na sigla em inglês) poderiam resolver o problema do discurso de ódio, que tende a se proliferar nas redes sociais e nas comunidades online, segundo especialistas do Instituto Tecnológico de Nova Jersey (Estados Unidos).
Especificamente, Yuan Zhao, do Instituto Tecnológico de Nova Jersey, apresenta sua pesquisa sobre a criação de um método interpretável e de baixo custo para avaliar a classificação de discursos de ódio na 190ª Reunião da Sociedade Acústica Americana, que acontece de 11 a 15 de maio na Filadélfia, Estados Unidos.
Atualmente, mesmo em sites com normas comunitárias rigorosas, o volume de conteúdo torna a moderação eficaz praticamente impossível. Por isso, os especialistas sugerem que os algoritmos de IA podem analisar rapidamente tanto o conteúdo quanto o contexto de grandes volumes de texto, filtrar automaticamente o discurso de ódio e fornecer feedback aos revisores humanos. No entanto, os LLMs são caros de implementar em grande escala, especialmente quando se exige que expliquem cada fragmento de conteúdo que identificam.
Nesse contexto, o marco teórico de Zhao baseia-se no modelo de Desatenção Racional (IR), uma ideia econômica desenvolvida para explicar o comportamento humano. O modelo descreve como as pessoas agem quando sua atenção é limitada e atribui um custo a ela. De acordo com o modelo, as pessoas tendem a reservar sua atenção para decisões que oferecem uma alta recompensa, dedicando-a àquelas onde ela teria maior impacto.
“Os LLMs são diferentes das pessoas, mas nós os concebemos como tomadores de decisão que devem encontrar um equilíbrio entre desempenho e custo computacional”, explica Zhao. “Nossa abordagem utiliza o modelo IR como uma ferramenta simples, mas interpretável, para compreender como os LLMs tomam decisões.”
Zhao testou os modelos LLM em diversas condições para determinar se eles se comportam como tomadores de decisão racionais. Posteriormente, ele utilizou o modelo IR para simular o comportamento desses modelos e descobriu que ele prevê com precisão como seu desempenho muda em diferentes condições.
Essa análise pode ser utilizada para orientar as comunidades digitais que empregam ferramentas de gerenciamento de privacidade como parte de seus esforços de moderação de conteúdo.
“Os modelos de lógica difusa já são amplamente utilizados, mas ainda existem dúvidas sobre sua confiabilidade. Modelos como o Desatenção Racional podem contribuir para torná-los mais confiáveis, mostrando como seu desempenho muda quando o texto se torna ambíguo ou é disfarçado intencionalmente”, destaca Zhao. “Isso ajuda as plataformas online a identificar quando é necessária a revisão humana e onde o sistema precisa de melhorias.”
Esta notícia foi traduzida por um tradutor automático