Publicado 18/02/2026 13:19

A Microsoft reconhece um erro que permite ao Copilot resumir e-mails com conteúdo confidencial.

Archivo - Arquivo - 26 de novembro de 2025, Polônia: Nesta ilustração fotográfica, o logotipo da Copilot é exibido na TV.
Europa Press/Contacto/Mateusz Slodkowski - Arquivo

MADRID 18 fev. (Portaltic/EP) - A Microsoft reconheceu um erro no Office que permitiu que a inteligência artificial (IA) do Copilot acessasse e resumisse o conteúdo de e-mails confidenciais sem permissão desde o final de janeiro.

A empresa incorporou o Copilot Chat em aplicativos do Office como Word, Excel e PowerPoint em setembro passado para que os usuários pudessem trabalhar com o assistente de IA ao redigir um documento, analisar uma planilha ou revisar e-mails.

No entanto, o portal Bleeping Computer recebeu um alerta sobre um erro em 21 de janeiro, identificado como CW1226324, que afetava a função de chat na janela de assistência do Copilot para ler e resumir e-mails, mesmo aqueles marcados com etiquetas de “confidencial”, aos quais ele não deveria ter acesso.

Por sua vez, a Microsoft reconheceu a falha, indicando que ela foi causada por um erro de código não especificado. “Um problema de código permite que o Copilot colete itens das pastas de itens enviados e rascunhos, mesmo que tenham sido definidas etiquetas de confidencialidade”, indicou a empresa.

No início de fevereiro, implementou uma solução, embora atualmente continue monitorando a situação, de acordo com o meio citado. Com isso, já são vários os erros acumulados pela Microsoft nos últimos meses, nos quais foram relatadas várias falhas no funcionamento do sistema Windows 11, o que acabou com a proposta da empresa de reduzir a presença do Copilot no sistema operacional.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado