MADRI 30 abr. (Portaltic/EP) -
A DeepSeek atualizou o Prover, um modelo de inteligência artificial (IA) projetado para resolução de problemas matemáticos, para trabalhar com a arquitetura de mistura de especialistas (MoE) no modelo V3.
O Prover foi lançado em agosto e esta semana compartilhou sua segunda versão em um modo de código aberto no HuggingFace, depois que a Alibaba apresentou a família Qwen 3, introduz um novo modo de pensar para perguntas que exigem raciocínio mais profundo e é otimizado com recursos de agente.
O Prover foi desenvolvido com base no V3, um modelo treinado com 671 bilhões de parâmetros e construído com a arquitetura MoE, que divide um modelo de IA em pequenas redes neurais para agir separadamente, para cada tarefa, como se fossem especialistas diferentes.
Com isso, a empresa chinesa melhora a eficiência de seu modelo projetado para resolver problemas e teoremas matemáticos, conforme relatado no South China Morning Post. Espera-se que a DeepSeek também lance o modelo de raciocínio R2 em um futuro próximo.
Esta notícia foi traduzida por um tradutor automático