MADRID, 20 mar. (Portaltic/EP) -
A empresa de segurança cibernética Check Point alertou sobre o uso de inteligência artificial (IA) agênica por parte de cibercriminosos para criar 'malware' em questão de dias.
A inteligência artificial está mudando o panorama das ameaças, no qual os atacantes aproveitam suas capacidades para executar tarefas complexas de forma autônoma, reduzindo o tempo e a produção necessários para a criação de 'malware'.
De acordo com os pesquisadores da Check Point Research, durante os primeiros meses de 2026, houve um aumento no uso da IA agênica para desenvolver ferramentas avançadas em dias, em comparação com os meses e equipes mais especializadas que eram necessários anteriormente.
Um exemplo dessa mudança foi protagonizado pelo VoidLink, uma estrutura de malware para Linux nativa na nuvem que apresentava um nível de sofisticação que parecia ter sido criado ao longo de meses por uma equipe de trabalho, já que integrava mais de 30 módulos de pós-exploração, recursos avançados na nuvem e uso de rootkits. No entanto, após a análise da Check Point, revelou-se que ele havia sido criado por um único desenvolvedor impulsionado pela IA agênica.
Especificamente, o invasor gerou 88.000 linhas de código em menos de uma semana, um processo que anteriormente exigia cerca de 30 semanas. Além disso, os pesquisadores destacaram que esse tipo de desenvolvimento não deixa evidências do uso de IA, dificultando assim sua detecção e atribuição.
No entanto, embora essa tendência ainda não tenha se generalizado, o relatório da Check Point alerta que essa metodologia se espalhará, reduzindo a diferença entre os cibercriminosos que fazem um uso mais complexo da IA e aqueles que a utilizam de forma limitada.
Nesse sentido, as soluções comerciais continuam sendo as mais eficazes para os atacantes devido aos custos de infraestrutura, precisão e limitações apresentadas pelos modelos de IA auto-hospedados.
Por outro lado, a análise da Check Point apontou uma evolução nas técnicas para contornar controles. Está surgindo uma abordagem mais sofisticada baseada no abuso de arquiteturas “agentic”, na qual os cibercriminosos manipulam a configuração interna dos ambientes de desenvolvimento para alterar o comportamento dos agentes de IA. Dessa forma, está ocorrendo um avanço qualitativo para explorar a lógica operacional desses modelos.
Além do desenvolvimento de 'malware', a IA permite automatizar tarefas complexas, como a análise de vulnerabilidades ou a geração de 'exploits', funções que podem ser aproveitadas no âmbito criminal.
IMPLICAÇÕES E RISCOS DA IA NAS EMPRESAS
Muitas empresas adotaram a inteligência artificial para realizar tarefas. No entanto, a análise do uso de ferramentas de IA generativa em organizações pela Check Point revelou que 90% das empresas registraram atividades de alto risco, 16% dos prompts contêm informações confidenciais e que 1 em cada 31 interações com IA implica risco de exposição de dados.
Nesse contexto, a empresa de segurança cibernética defendeu que a participação da IA deve ser considerada um elemento padrão no desenvolvimento de ameaças, já que ela também está facilitando a evolução do crime cibernético.
Diante desse panorama, a Check Point recomendou que as empresas adotem uma abordagem proativa baseada em inteligência contínua de ameaças, adaptação constante das estratégias de defesa e implementação de controles de segurança projetados especificamente para ambientes impulsionados por IA.
Esta notícia foi traduzida por um tradutor automático