Publicado 24/03/2026 10:02

A IA agrava o abuso sexual infantil: as imagens e vídeos realistas gerados por IA aumentaram 14% em 2025

Laptop na mão de uma criança.
UNSPLASH

MADRID 24 mar. (Portaltic/EP) -

O conteúdo realista sobre abuso sexual infantil gerado por inteligência artificial (IA) aumentou 14% no ano passado, em 2025, com um total de 8.029 imagens e vídeos identificados, dos quais 65% dos vídeos receberam a classificação mais extrema.

É o que se depreende do último relatório elaborado pela Internet Watch Foundation (IWF), intitulado “Danos sem limites: material de abuso sexual infantil gerado por IA na perspectiva de nossos analistas”, que mostra que, desde que a organização sediada no Reino Unido começou a monitorar a IA no início de 2023, observou-se um “avanço alarmante” na capacidade de gerar artificialmente imagens desse tipo de conteúdo criminoso.

Especificamente, a IWF analisou 8.029 itens de conteúdo gerado por IA que mostravam abuso sexual infantil realista e que foram encontrados tanto na “dark web” quanto em plataformas comerciais convencionais da web aberta durante o ano de 2025, representando um aumento de 14% na criação desse tipo de conteúdo.

Entre as conclusões do relatório, destaca-se como os vídeos com IA estão “cada vez mais extremos e sofisticados”. Tanto é assim que, dos 3.443 vídeos de abuso sexual infantil identificados gerados por IA, 65% (um total de 2.233 peças) foram classificados na categoria A.

Essa é a classificação mais extrema empregada pela IWF para se referir a material de abuso sexual infantil, uma vez que se refere a crimes como estupro e tortura sexual, com base na legislação britânica.

Se compararmos com os vídeos criminosos não gerados por IA identificados pela IWF em 2025, 43% eram vídeos classificados na categoria A. Essa diferença nas porcentagens demonstra que os criminosos estão aproveitando a IA para criar conteúdo mais violento do que na realidade.

Além disso, o número total de vídeos identificados aumentou mais de 260 vezes em relação aos 13 vídeos encontrados no ano anterior, 2024.

FACILIDADES PARA CRIAR CONTEÚDO ABUSIVO COM IA

Nesse contexto, embora a proporção de material gerado por IA continue sendo “relativamente pequena” dentro do volume de material de abuso sexual infantil processado anualmente pela IWF, o relatório conclui que a quantidade e a gravidade das imagens geradas por IA “aumentaram exponencialmente” devido à disponibilidade e facilidade de uso das ferramentas de IA.

O relatório também inclui trechos de comunidades de criminosos encontradas na “dark web”, onde os usuários celebram abertamente a acessibilidade e a sofisticação dessas ferramentas de IA.

“Cada novo avanço na IA generativa é elogiado por sua capacidade de melhorar o realismo, aumentar a gravidade ou tornar mais imersivo qualquer cenário sexual imaginável envolvendo um menor”, detalharam na IWF, ao mesmo tempo em que alertaram que esse realismo pode ser alcançado por meio da “adição de áudio ao vídeo, da capacidade de representar várias pessoas interagindo ou até mesmo da manipulação bem-sucedida de imagens de um menor real conhecido pelo agressor”.

Um exemplo da facilidade de gerar imagens de abuso sexual infantil foi visto recentemente na rede social X, quando seu gerador de imagens impulsionado pela IA da Grok compartilhou na plataforma cerca de três milhões de imagens sexualizadas, incluindo 23 mil que representavam crianças, atendendo a solicitações de usuários que exigiam esse tipo de conteúdo.

Além disso, analistas da organização captaram criminosos discutindo as possibilidades de utilizar essa tecnologia no futuro. Especificamente, utilizar uma “IA automatizada” que “em um ou dois anos” possa criar filmes de abuso “introduzindo uma instrução a um agente de IA sem censura”.

NECESSIDADE DE ENFOCAR A SEGURANÇA NAS EMPRESAS DE IA E NA LEGISLAÇÃO

Como esclareceu a diretora executiva da IWF, Kerry Smith, em um comunicado, os avanços tecnológicos “nunca devem prejudicar a segurança e o bem-estar de uma criança”. Portanto, ela acrescentou que, embora a IA possa oferecer muitos benefícios, “é assustador pensar que seu poder possa ser usado para arruinar a vida de uma criança. Este material é perigoso".

Seguindo essa linha, ela ressaltou a necessidade urgente de que sejam os próprios governos e empresas de tecnologia a reconhecer os danos causados por esse tipo de prática de abuso sexual infantil gerado por IA, bem como as ferramentas utilizadas para criá-lo. “Deve haver tolerância zero”, afirmou.

A esse respeito, instou as empresas a adotarem uma abordagem de segurança “desde a concepção” que garanta a proteção infantil integrada no desenvolvimento dos produtos. Ou seja, que, por exemplo, sejam os próprios ‘chatbots’ a impedir a criação dessas imagens.

O relatório foi publicado após o Parlamento Europeu ter aprovado uma prorrogação temporária da Diretiva sobre Privacidade Eletrônica, com a qual se estende a isenção à legislação sobre privacidade que permite a detecção voluntária de material de abuso infantil online até 3 de agosto de 2027, em vez de 3 de abril próximo, como estava previsto.

Trata-se, concretamente, de uma derrogação parcial das normas de proteção de dados no setor das comunicações eletrônicas que permite aos prestadores de serviços de comunicações — como serviços de mensagens — utilizar tecnologias específicas para o tratamento de dados pessoais e de outro tipo, com o objetivo de detectar abusos sexuais contra menores na Internet.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado