MADRI 11 dez. (Portaltic/EP) -
O TikTok permite a publicação de vídeos sexualizados de meninas e adolescentes, tanto gerados por Inteligência Artificial (IA) quanto roubados de contas reais, para atrair usuários para esse conteúdo e incentivar sua venda ou troca por meio de outras plataformas, como o Telegram, incentivando esse tipo de prática e violando a Lei de Serviços Digitais (DSA).
Embora a plataforma da ByteDance seja uma das mais utilizadas pelos usuários em todo o mundo, no caso da Espanha, a preferida dos menores de 18 anos, ela é apresentada como um espaço onde é muito fácil acessar conteúdos de menores sexualizados a partir de múltiplos perfis, sem praticamente nenhum impedimento por parte da rede social, que inclusive recomenda essas contas e facilita a comercialização desses conteúdos por meio de comentários.
Isso é o que se depreende de uma investigação realizada pela Maldita.es, que analisou práticas como a criação de imagens de adolescentes sexualizadas por meio de IA, bem como o roubo de conteúdo criado por menores reais, posteriormente publicado no TikTok, e como tudo isso serve de acesso à pornografia infantil.
Especificamente, o estudo reflete o comportamento de 40 contas do TikTok com mais de 1,5 milhão de seguidores, com um total de mais de 5.200 publicações de vídeos de menores sexualizados gerados por IA, além de outros 3.600 vídeos de menores reais.
Nos vídeos gerados por IA de menores sexualizados analisados, as meninas ou adolescentes são normalmente mostradas de biquíni, uniforme escolar ou roupas minúsculas, realizando várias atividades. Entretanto, os vídeos se concentram em mostrar seios e pernas, bem como movimentos de salto.
Quanto às contas que publicam vídeos de menores de idade, elas coletam vídeos de meninas que publicam conteúdo em suas próprias contas do TikTok, geralmente em uniformes escolares ou em espaços escolares. Além disso, às vezes a marca d'água do TikTok aparece com o nome das meninas ou adolescentes em questão, dando assim acesso a seus perfis reais.
Os comentários sobre esses vídeos, tanto reais quanto de IA, não ficam atrás. Na maioria deles, os usuários comentam sobre questões como a aparência da menor, detalhando que querem entrar em contato com ela, emojis, além de postar imagens de cenas de sexo oral ou outras práticas relacionadas.
VENDA DE PORNOGRAFIA COM IA E REAL
Como resultado, descobriu-se que, por trás desses vídeos do TikTok, o objetivo real é direcionar os usuários para outros sites onde a pornografia infantil criada por IA ou real está sendo vendida.
Portanto, muitas das contas realizam essas práticas para monetizar seu conteúdo, seja por meio do sistema de assinatura da própria plataforma, em que as contas cobram uma média de quatro euros por conteúdo exclusivo e o TikTok pode ficar com até 50% dos lucros, ou por meio de links para outros sistemas de mensagens, como o Telegram, ou sites em que a pornografia infantil é vendida e trocada.
Conforme destacado no relatório, várias das contas redirecionam os usuários para sites específicos que oferecem esse tipo de conteúdo. Além disso, nos comentários dos vídeos, outros usuários também promovem contas do Telegram que vendem pornografia infantil real.
Para isso, eles foram identificados postando comentários nos vídeos com a palavra "exchange", que se refere à troca de pornografia infantil em serviços como o Telegram. Por exemplo, em um vídeo de uma menina em um traje de banho brincando em um parque, que tem mais de 655.000 visualizações, os comentários tinham termos como "comprar", "trocar", "trocar e vender" ou "tlg" (Telegram).
Como foi possível verificar ao entrar em contato com 14 das contas que se promovem no Telegram, por meio dessa plataforma de mensagens, 11 delas enviaram automaticamente um menu em que listavam os conteúdos que tinham à venda. Da mesma forma, sete contas enviaram pornografia infantil sem sequer solicitá-la, e depois disso foram denunciadas à Polícia Nacional.
A plataforma da ByteDance, portanto, facilita o acesso dos usuários à pornografia infantil com apenas alguns cliques, incentivando possíveis pedófilos a utilizá-la.
O PAPEL DA TIKTOK NA PROMOÇÃO DESSE CONTEÚDO
O TikTok também tem um papel relevante na promoção desse conteúdo. Para a investigação, o Maldita.es usou uma conta de teste, para a qual o algoritmo do TikTok recomendou repetidamente mais conteúdo que sexualizava menores.
Essas recomendações foram encontradas tanto na seção "Para você" quanto nos resultados do mecanismo de busca da rede social, o que fez com que a conta entrasse em um ciclo de publicações de meninas e adolescentes sexualizadas. O TikTok chegou a oferecer sugestões de pesquisa como "colegiais inocentes", "colegiais dançantes", "mulheres pequenas" ou "garotas bonitas e fofas" após a exibição de alguns vídeos relacionados.
Seguindo essa linha, a rede social também recomendou a possibilidade de se inscrever no quadro de avisos de algumas contas desse tipo de conteúdo, ou seja, um canal para os criadores se comunicarem com seus seguidores.
Isso ocorre porque o algoritmo de recomendação do TikTok se baseia nos gostos e hábitos dos usuários para sugerir conteúdo. Portanto, se um usuário pesquisar esses vídeos na rede social, a plataforma continuará a recomendá-los e mostrará cada vez mais vídeos de meninas reais ou criadas por IA de forma sexualizada.
Isso contrasta com a DSA, que determina que os serviços on-line devem avaliar se seus recursos ou conteúdo representam um risco para usuários menores de idade. Nesse caso, seus algoritmos ou sistemas de moderação de conteúdo. Além disso, esse regulamento também impõe às plataformas a remoção de conteúdo que não seja legal, sempre que tomarem conhecimento dele, seja por meio de seus sistemas de detecção, seja por meio de reclamações de usuários ou investigações externas.
O TIKTOK NÃO REMOVE CONTAS DENUNCIADAS
Essas contas do TikTok estão agindo contra seus Termos de Serviço e Diretrizes da Comunidade, que proíbem a sexualização de menores com conteúdo de IA, bem como a "sexualização ou fetichização de um menor" em conteúdo real.
Portanto, a Maldita.es detalhou que denunciou 15 das contas analisadas por meio dos canais oferecidos pela própria plataforma. Um processo simples que começa pressionando o botão de compartilhamento e, em seguida, a opção "Denunciar" e especificando o motivo.
No entanto, descobriu-se que todas essas contas ainda estavam disponíveis três dias após a denúncia. Especificamente, o TikTok descobriu que não houve violação de suas regras em nenhuma das contas, exceto em uma, onde aplicou restrições que não impediram o acesso posterior aos vídeos.
O mesmo foi aplicado a vídeos e comentários em postagens, sem sucesso. Dos 60 vídeos denunciados, o TikTok removeu apenas sete vídeos e desativou a recomendação "Para você" em 11 deles.
Caso a plataforma continue a tolerar e promover esse vídeo, Maldita.es aponta que o TikTok poderia enfrentar multas da DSA, independentemente de o conteúdo ser proveniente do exterior, por violar gravemente suas diretrizes e assumir a responsabilidade como provedor de hospedagem e disseminação de conteúdo ilegal, de acordo com Marcos Judel, advogado especializado em proteção de dados, IA e direito digital, para o referido meio de comunicação.
Em suma, vale a pena lembrar que, se um menor for vítima desse tipo de comportamento, a violação do direito à imagem pode ser denunciada por meio de processos civis, bem como o processamento de seus dados pessoais à Agência Espanhola de Proteção de Dados (AEPD), conforme destacado pelo meio de comunicação mencionado acima.
Esta notícia foi traduzida por um tradutor automático