Publicado 22/04/2026 12:03

A IA generativa pode reduzir os custos dos sistemas de aprendizado de máquina, mas aumenta os riscos de ataques cibernéticos

Archivo - Arquivo - ILUSTRAÇÃO - 22 de outubro de 2025, Mecklemburgo-Pomerânia Ocidental, Schwerin: A tela de um smartphone exibe vários aplicativos de IA, incluindo ChatGPT, Claude, Gemini, Perplexity, Microsoft Copilot, Meta AI, Grok e DeepSeek. Aplicat
Philip Dulian/dpa - Arquivo

MADRID 22 abr. (EUROPA PRESS) -

Utilizar IA generativa para projetar, treinar ou executar etapas dentro de um sistema de aprendizado de máquina traz tantos benefícios quanto riscos, segundo um especialista da Heriot-Watt University (Reino Unido).

Especificamente, em um artigo publicado na revista 'Patterns' da Cell Press, o cientista da computação Michael Lones defende que, embora os modelos de linguagem em grande escala (LLM, na sigla em inglês) possam ampliar as capacidades dos sistemas de aprendizado automático e reduzir os custos e a necessidade de mão de obra, seu uso diminui a transparência e o controle para as pessoas que desenvolvem e utilizam esses sistemas, além de aumentar o risco de ataques cibernéticos maliciosos, vazamentos de dados e preconceitos contra grupos sub-representados.

“Os desenvolvedores de aprendizado de máquina devem estar cientes dos riscos de usar IA generativa no aprendizado de máquina e encontrar um equilíbrio sensato entre as melhorias nas capacidades e os riscos que isso pode acarretar”, argumenta Lones. “Dadas as limitações atuais da IA generativa, eu diria que este é um exemplo claro de que o fato de algo poder ser feito não significa que deva ser feito”.

Os sistemas de aprendizado de máquina são algoritmos que aprendem a reconhecer padrões nos dados, os quais podem ser usados para fazer previsões e tomar decisões sobre novos dados. O aprendizado de máquina existe há décadas e a maioria das pessoas o encontra em sua vida cotidiana na forma de filtros de spam, recomendações de produtos em sites de comércio eletrônico e notícias nas redes sociais.

Nos últimos dois anos, aproximadamente, houve um impulso para a incorporação da IA generativa (na forma de modelos de aprendizado de máquina) aos sistemas de aprendizado de máquina, mas isso acarreta riscos e limitações que os desenvolvedores e o público em geral devem conhecer, afirma Lones.

Neste trabalho, Lones explora quatro formas pelas quais a IA generativa está sendo aplicada atualmente no aprendizado de máquina: como componente dentro de um processo de aprendizado de máquina, para projetar e programar processos de aprendizado de máquina, para sintetizar dados de treinamento e para analisar os resultados do aprendizado de máquina.

Segundo Lones, todas essas aplicações envolvem riscos, e esses riscos se agravam se os modelos de aprendizado de máquina forem usados para múltiplas tarefas dentro de um sistema de aprendizado de máquina, ou se forem “agentes”, ou seja, se puderem utilizar de forma autônoma ferramentas externas para resolver problemas.

“Se a GenAI funcionar de diversas maneiras dentro de seus fluxos de trabalho ou sistema de aprendizado de máquina, ela pode interagir de formas imprevisíveis e difíceis de compreender”, observa Lones. “Meu conselho atual é evitar adicionar demasiada complexidade ao uso da GenAI no aprendizado de máquina, sobretudo se você estiver em um setor em que há muito em jogo, afetando a vida e o sustento das pessoas.”

Um dos maiores riscos é que, às vezes, os LLMs cometem erros, tomam decisões erradas e inventam ou “alucinam” informações. Lones afirma que esses erros não são necessariamente previsíveis e podem ser difíceis de avaliar devido à falta de transparência dos LLMs, o que representa um problema adicional para a conformidade legal.

“Em áreas como medicina ou finanças, existem leis que exigem comprovar a confiabilidade do sistema de aprendizado de máquina e explicar como ele chega às suas decisões”, afirma Lones. “Assim que se começa a usar modelos de aprendizado de máquina, isso se torna muito difícil, porque eles são muito opacos.”

Lones aconselha os desenvolvedores de aprendizado de máquina a sempre avaliarem manualmente o código e os resultados gerados pelos sistemas de aprendizado de máquina. Ele também alerta que os sistemas de aprendizado de máquina maiores, hospedados remotamente, costumam armazenar e compartilhar dados, o que significa que seu uso abre as portas para brechas de segurança cibernética e para o vazamento de dados e informações confidenciais.

“É importante que o público em geral esteja ciente das limitações dos sistemas GenAI”, adverte Lones. “As empresas implementarão esses sistemas para, por exemplo, reduzir custos, o que pode melhorar a experiência dos usuários finais, mas também pode ter consequências negativas, como preconceitos e injustiças.”

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado