Publicado 11/02/2026 06:36

A Microsoft alerta para o risco dos agentes de IA duplos diante da rápida adoção dessa tecnologia nas organizações.

Computador com Windows
UNSPLASH/GEORGIY LYAMIN

MADRID 11 fev. (Portaltic/EP) - A Microsoft alertou para o risco dos agentes duplos, que aproveitam os acessos e privilégios concedidos aos agentes de inteligência artificial (IA) para realizar ações maliciosas sem que as empresas se apercebam. Os agentes estão cada vez mais presentes nas empresas e organizações. De acordo com o relatório Cyber Pulse 2026 da Microsoft, as empresas pioneiras já trabalham com equipes mistas de pessoas e agentes de IA, e mais de 80% das empresas da Fortune 500 utilizam agentes ativos criados com ferramentas de “low code”.

Setores como software e tecnologia (16%), manufatura (13%), instituições financeiras (11%) e comércio varejista (9%) já utilizam agentes para apoiar a realização de tarefas cada vez mais complexas, como redigir propostas, analisar dados financeiros, classificar alertas de segurança, automatizar processos repetitivos e obter informações na velocidade das máquinas.

Esses agentes podem funcionar de forma assistida, respondendo às instruções do usuário, ou de forma autônoma, executando tarefas com muito pouca intervenção humana.

No entanto, a crescente adoção é acompanhada por novos riscos, uma vez que os agentes de IA estão escalando mais rápido do que algumas empresas podem perceber, o que causa uma falta de visibilidade que pode resultar no que é conhecido como IA na sombra (“shadow IA”) e agentes duplos.

Essa ameaça se traduz no abuso dos agentes de IA, aproveitando-se de que eles têm amplas permissões e acesso aos sistemas para trabalhar de forma autônoma. “Um agente com permissões excessivas — ou com instruções incorretas — pode se tornar uma vulnerabilidade”, alertam na Microsoft em um comunicado.

Assim como acontece com as pessoas, os agentes podem se tornar agentes duplos “se não forem gerenciados, se tiverem permissões inadequadas ou receberem instruções de fontes não confiáveis”. De acordo com o Índice de Segurança de Dados da Microsoft, apenas 47% das organizações de todos os setores afirmam estar implementando controles de segurança específicos para IA generativa, o que

A Microsoft defende a adoção de uma abordagem de segurança de confiança zero ("Zero Trust") com os agentes, o que implica conceder acesso com privilégios mínimos e indispensáveis, verificar quem ou o que solicita acesso e projetar os sistemas partindo do princípio de que os invasores podem conseguir acesso.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado