MADRID 9 mar. (Portaltic/EP) - A Anthropic disponibilizou à Mozilla sua inteligência artificial (IA) Claude para detectar vulnerabilidades presentes no navegador, o que levou à identificação de 14 falhas de alto risco que já foram corrigidas.
As duas empresas iniciaram uma colaboração para utilizar a IA na identificação de vulnerabilidades, aproveitando o caráter aberto do Firefox e sua ampla adoção, o que o torna “um campo de testes ideal para uma nova classe de ferramentas de defesa”, como apontou a Mozilla.
A colaboração segue-se a um teste realizado pela Frontier Red da Anthropic, no qual primeiro verificaram que o Claude Opus 4.6 era capaz de reproduzir vulnerabilidades conhecidas em versões antigas do Firefox e, em seguida, que era capaz de encontrar novas falhas de segurança na versão atual do navegador.
Em duas semanas, a IA da Anthropic detectou 22 vulnerabilidades no Firefox, 14 delas de alta gravidade, conforme informaram as empresas em comunicados separados. O primeiro erro detectado levou apenas 20 minutos. “Durante o tempo que levamos para validar e enviar essa primeira vulnerabilidade ao Firefox, Claude já havia descoberto cinquenta entradas únicas que causavam falhas”, afirmam na Anthropic.
Os erros recém-descobertos foram validados pelos pesquisadores da Anthropic, que os enviaram ao Bugzilla, a plataforma de rastreamento de problemas da Mozilla, em um relatório que também incluía uma proposta de patch escrita por Claude e validada pelos pesquisadores. No total, Claude detectou 112 falhas de diferentes níveis de gravidade. A maioria, incluindo as 14 mais graves, foi corrigida com a versão 148 do Firefox. Além disso, este relatório levou à utilização do Claude pela Mozilla para fins de segurança interna. Com esta experiência, a Anthropic afirma que “a IA permite detetar vulnerabilidades de segurança graves a grande velocidade”, mas adverte que a cibersegurança enfrenta o desafio que os modelos de IA representarão quando forem melhores ferramentas para a exploração do que para a identificação e correção.
“Se os futuros modelos de linguagem ultrapassarem essa barreira de exploração, teremos que considerar medidas de segurança adicionais para evitar que nossos modelos sejam usados indevidamente por agentes mal-intencionados”, concluiu.
Esta notícia foi traduzida por um tradutor automático