MADRID 26 mar. (Portaltic/EP) -
O uso da inteligência artificial (IA) generativa por parte dos cibercriminosos para criar todo tipo de ataques maliciosos já é uma realidade cada vez mais comum e, além de ajudar a gerar ataques com maior precisão, também os protege, apagando sua “pegada digital” e dificultando a atribuição dos ataques.
Foi o que alertaram os especialistas da equipe Global Research and Analysis Team (GReAT) da empresa de segurança cibernética Kaspersky, no âmbito de seu relatório sobre Previsões de Ameaças Persistentes Avançadas (APT, na sigla em inglês) para 2026, no qual ilustram como evoluirá o panorama de ameaças ao longo deste ano.
Especificamente, os especialistas detalharam que um dos fatores que condicionará o setor de segurança cibernética em 2026 é que será cada vez mais complicado para os investigadores atribuir os ciberataques a um agente malicioso específico.
Isso se deve ao fato de que o uso da IA generativa não representa apenas um problema em termos de sofisticação das operações, mas também está provocando uma mudança na “assinatura digital” dos atacantes, conforme especificado pela Kaspersky no relatório.
Ao gerar um ciberataque, componentes como o código, o conteúdo de “phishing” e os comentários internos dos agentes maliciosos geralmente contêm erros ou nuances distintas. Por exemplo, traços linguísticos específicos ou determinados padrões de programação.
Dessa forma, os analistas podem basear-se em questões como o estilo de codificação ou em erros característicos de falantes nativos de certos idiomas para tentar atribuir os ataques cibernéticos a grupos maliciosos ou cibercriminosos específicos ou já conhecidos.
No entanto, ao introduzir tecnologia de IA generativa para a produção dos ataques, são os modelos de IA os responsáveis por gerar desde o código malicioso até os e-mails de 'phishing'. Portanto, os resultados tendem a ser "neutros e padronizados", eliminando completamente os erros ou traços que poderiam distinguir o agente ou grupo malicioso em questão.
Ou seja, os pesquisadores de ataques cibernéticos não podem mais buscar esse tipo de característica para tentar descobrir de onde eles vêm e, quanto maior for a adoção da IA por parte dos criminosos cibernéticos, “é provável que esses sinais percam confiabilidade”, como afirmou a empresa.
Nesse contexto, deve-se levar em conta que, durante os primeiros meses de 2026, houve um aumento no uso de IA agênica para desenvolver ferramentas maliciosas avançadas em questão de dias, em vez dos meses que eram necessários anteriormente, incluindo equipes mais técnicas, conforme alertou a empresa de segurança cibernética Check Point Research.
Um exemplo dessa mudança foi protagonizado pelo VoidLink, uma estrutura de malware para Linux nativa na nuvem que apresentava um nível de sofisticação que parecia ter sido criado ao longo de meses por uma equipe de trabalho, já que integrava mais de 30 módulos de pós-exploração, recursos avançados na nuvem e uso de rootkits. No entanto, o VoidLink foi, na verdade, criado por um único desenvolvedor que se apoiou na IA agênica.
Também houve outros exemplos, como o caso do Slopoly, um 'malware' gerado por IA que foi utilizado em campanhas de extorsão em grande escala para permitir que os cibercriminosos permanecessem em um servidor durante uma semana.
Esta notícia foi traduzida por um tradutor automático