Europa Press/Contacto/Mateusz Slodkowski - Arquivo
MADRID 18 fev. (Portaltic/EP) - A Microsoft reconheceu um erro no Office que permitiu que a inteligência artificial (IA) do Copilot acessasse e resumisse o conteúdo de e-mails confidenciais sem permissão desde o final de janeiro.
A empresa incorporou o Copilot Chat em aplicativos do Office como Word, Excel e PowerPoint em setembro passado para que os usuários pudessem trabalhar com o assistente de IA ao redigir um documento, analisar uma planilha ou revisar e-mails.
No entanto, o portal Bleeping Computer recebeu um alerta sobre um erro em 21 de janeiro, identificado como CW1226324, que afetava a função de chat na janela de assistência do Copilot para ler e resumir e-mails, mesmo aqueles marcados com etiquetas de “confidencial”, aos quais ele não deveria ter acesso.
Por sua vez, a Microsoft reconheceu a falha, indicando que ela foi causada por um erro de código não especificado. “Um problema de código permite que o Copilot colete itens das pastas de itens enviados e rascunhos, mesmo que tenham sido definidas etiquetas de confidencialidade”, indicou a empresa.
No início de fevereiro, implementou uma solução, embora atualmente continue monitorando a situação, de acordo com o meio citado. Com isso, já são vários os erros acumulados pela Microsoft nos últimos meses, nos quais foram relatadas várias falhas no funcionamento do sistema Windows 11, o que acabou com a proposta da empresa de reduzir a presença do Copilot no sistema operacional.
Esta notícia foi traduzida por um tradutor automático