MADRID 4 maio (Portaltic/EP) -
O GPT-5.5 Cyber, o modelo da OpenAI voltado para a segurança cibernética, possui capacidades semelhantes às do Claude Mythos, da Anthropic, para atacar sistemas de forma autônoma, conforme demonstrado pelos testes realizados pelo Instituto de Segurança da IA (AISI), vinculado ao Departamento de Ciência, Inovação e Tecnologia do governo do Reino Unido.
O GPT-5.5-Cyber é uma variante do modelo GPT-5.5 da OpenAI projetada especificamente para proteger empresas e infraestruturas, à semelhança do Claude Mythos Preview da Anthropic. Ambos fazem parte de uma nova tendência: a dos modelos de inteligência artificial com desempenho capaz de realizar simulações de ataque a uma rede corporativa, uma operação que requer várias etapas e que levaria a um ser humano “cerca de 20 horas”.
É o que expõe a AISI, que compartilhou os resultados dos testes aos quais submeteu o modelo da OpenAI, e que anteriormente havia realizado com o Claude Mythos Preview. Especificamente, as capacidades do GPT-5.5-Cyber foram testadas em 95 tarefas de segurança cibernética no formato “capture a bandeira”, divididas em quatro níveis de dificuldade.
O GPT-5.5-Cyber, assim como o Claude Mythos, conclui as tarefas básicas sem problemas. Quanto às tarefas mais avançadas, estas se dividem em dois níveis: Practitioner e Expert. De acordo com a AISI, nas tarefas de nível Expert, o GPT-5.5 demonstrou ter um desempenho superior ao do Claude Mythos, apresentando uma taxa média de aprovação de 71,4% contra 68,6% do modelo da Anthropic.
Essas tarefas se concentram na investigação e exploração autônoma de vulnerabilidades contra alvos realistas e medidas de mitigação modernas, e exigem habilidades como engenharia reversa de binários sem código-fonte, desenvolvimento de exploits confiáveis para estouros de pilha e recuperação de chaves por meio de ataques de oráculo de preenchimento, entre outras.
O AISI destacou duas simulações em particular: “Cooling Tower” e “The Last Ones”. Esta última é uma simulação de ataque a uma rede corporativa de 32 etapas, modelada de acordo com a cadeia de ataque de uma invasão empresarial e abrange quatro sub-redes e aproximadamente vinte hosts, o que levaria 20 horas para um humano concluir.
Nela, destacou-se o desempenho do Claude Mythos, que foi capaz de resolver três de dez tentativas, enquanto o GPT-5.5 Cyber ficou em segundo lugar após completar duas de dez tentativas.
O AISI indicou, ainda, que o GPT-5.5 não conseguiu resolver a simulação de ataque a um sistema de controle industrial conhecida como 'Cooling Tower', que requer a conclusão de sete etapas e que levaria cerca de 15 horas para um especialista humano. Embora também tenha assinalado que "nenhum modelo conseguiu até agora".
Vale ressaltar que os testes foram realizados em ambientes controlados que simulam situações reais com acesso à rede, mas nos quais não foram incorporadas medidas de defesa ativas; portanto, a organização não pode afirmar se “o GPT-5.5 teria sucesso contra um alvo bem protegido”.
“O GPT-5.5 demonstra que a rápida melhoria em tarefas cibernéticas pode ser parte de uma tendência mais ampla. Se a capacidade ciberofensiva surgir como consequência de melhorias mais gerais em autonomia, raciocínio e programação a longo prazo, é de se esperar novos aumentos na capacidade cibernética dos modelos em um futuro próximo, possivelmente de forma consecutiva”, acrescentou.
Anteriormente, o AISI submeteu o Claude Mythos a avaliações controladas que incluíram pesquisas baseadas em chat, desafios de captura de bandeira e simulações de ataques cibernéticos em várias etapas; também em ambientes sem medidas de segurança nem penalidades.
Em seus resultados, destacaram que o modelo de IA da Anthropic, desenvolvido para auxiliar na segurança defensiva, tem a capacidade de atacar de forma autônoma pequenas empresas que possuem proteções fracas.
Esta notícia foi traduzida por um tradutor automático