UNSPLASH/ JOAO PAULO M RAMOS PAULO
MADRID 5 maio (Portaltic/EP) -
Diante do rápido avanço das ameaças impulsionadas pela inteligência artificial (IA), 35% das organizações europeias não sabem afirmar se já sofreram um ciberataque impulsionado por essas tecnologias, sendo os ataques de “phishing” e de engenharia social os mais difíceis de detectar.
É o que revela a última pesquisa “AI Pulse Poll”, elaborada pela associação global para profissionais de confiança digital ISACA, que aponta para uma “lacuna crescente” entre o ritmo das ameaças impulsionadas pela IA e a capacidade das organizações de identificar e gerenciar os riscos que enfrentam.
Especificamente, entre os profissionais entrevistados em nível europeu com perfis em auditoria de TI, governança, segurança cibernética e tecnologias emergentes, 71% afirmam que os ataques de phishing e engenharia social impulsionados por IA são agora mais difíceis de detectar.
Nessa linha, 58% também afirmam que a IA tornou “significativamente mais difícil” autenticar informações digitais e 38% afirmam que sua confiança nos métodos tradicionais de detecção de ameaças diminuiu como consequência disso.
Como consequência, um terço das organizações, especificamente 35% dos entrevistados, reconhece não conseguir diferenciar se sofreu um ciberataque impulsionado por IA ou de forma tradicional.
Parte dessa dificuldade em discernir reside na utilização de informações errôneas e na desinformação como principal risco relacionado à IA atualmente, segundo 87% dos entrevistados. A isso somam-se as violações de privacidade e a engenharia social, em 75% e 60% dos casos, respectivamente.
Ou seja, as equipes de segurança das organizações têm dificuldades para lidar com essa desinformação, com ferramentas nas quais antes confiavam, mas que agora estão se tornando obsoletas diante da IA.
USO DA IA PARA CIBERATAQUES E PARA DEFESA
No caso específico da Espanha, a ISACA apontou para uma pressão crescente sobre os canais de assistência e resposta a incidentes, o que evidencia essa situação de aumento de ciberataques impulsionados pela IA.
A esse respeito, eles lembraram que, de acordo com o balanço de segurança cibernética do INCIBE, no ano passado foram detectados mais de 122.000 incidentes de segurança cibernética e atendidas 142.767 consultas, ou seja, 44,9% a mais do que em 2024.
No entanto, a organização também destacou que a IA não é uma tecnologia “unilateral”, pois, assim como é utilizada para ataques cibernéticos, também está se mostrando uma valiosa ferramenta defensiva.
Nesse contexto, 43% das organizações afirmam que essa tecnologia melhorou a capacidade de sua organização de detectar e responder a ameaças cibernéticas, e 34% já a estão implementando especificamente para melhorar a segurança cibernética.
ADOÇÃO DE IA SEM SUPERVISÃO ADEQUADA
Com tudo isso, a ISACA também destacou que, para concretizar esse potencial defensivo, as organizações devem contar com “a experiência e a governança necessárias” para implantar a IA de forma eficaz.
Ao mesmo tempo, a ISACA ressaltou que é “especialmente preocupante” que essas ameaças com IA estejam se desenvolvendo paralelamente a uma adoção generalizada da IA nos locais de trabalho europeus.
Assim, 82% das organizações permitem expressamente o uso da IA no trabalho e 74% o uso da IA generativa, de modo que incorporam essa tecnologia ao trabalho operacional principalmente para a criação de conteúdo escrito (69%), o aumento da produtividade (63%), a automação de tarefas repetitivas e a análise de grandes conjuntos de dados (54% e 52%, respectivamente).
Como resultado, 77% afirmam economizar tempo e 40% afirmam que a IA aumentou sua capacidade de produção sem a necessidade de aumentar o quadro de funcionários.
A ISACA afirma que essa rápida adoção não foi acompanhada da governança necessária e que apenas 42% das organizações possuem uma política formal e abrangente de IA. Por sua vez, 33% não exigem que os funcionários declarem quando a IA contribuiu para os resultados do trabalho.
Como resultado de tudo isso, 87% dos profissionais manifestam preocupação com o uso não autorizado da IA por parte dos funcionários e 26% afirmam que seu maior desafio com a IA é a falta de confiança de que ela proteja adequadamente a propriedade intelectual e as informações confidenciais.
“O fato de tantas empresas operarem sem a governança necessária para identificar onde a IA está sendo utilizada, sem falar em como, agrava significativamente essa exposição” a ataques cibernéticos impulsionados por IA, segundo avaliou o diretor de Estratégia Global da ISACA, Chris Dimitriadis.
“Fechar essa lacuna começa com o desenvolvimento profissional e com o fomento da experiência necessária para construir e integrar uma governança de IA que resista sob pressão. Fazer isso é agora um imperativo de segurança”, acrescentou.
OS PROFISSIONAIS NÃO SE SENTEM PREPARADOS PARA FECHAR ESSA LACUNA
Por fim, o relatório também revela que a lacuna de governança recai sobre os profissionais e muitos não se sentem preparados para lidar com ela. Assim, mais da metade afirma que precisa aprimorar suas competências nos próximos seis meses para manter seu emprego.
Da mesma forma, 41% apontam a crescente lacuna de competências como um dos maiores riscos apresentados pela IA. No entanto, um quinto (21%) das organizações ainda não oferece nenhum treinamento formal em IA.
Diante de tudo isso, o ambiente regulatório adiciona mais urgência, com o Regulamento de IA da União Europeia sendo o marco de governança mais mencionado na pesquisa, citado por 45% das organizações, à frente do NIST (26%).
“O risco da IA exige profissionais capazes de avaliar a exposição, integrar a supervisão ao longo de todo o ciclo de vida e assessorar sobre as melhores práticas regulatórias. As organizações que investirem agora nessa capacidade não só estarão mais bem protegidas, como também estarão mais bem posicionadas para aproveitar plenamente os benefícios da IA”, concluiu Dimitriadis.
Esta notícia foi traduzida por um tradutor automático