Publicado 23/01/2026 08:02

Grok compartilhou mais de 3 milhões de imagens sexualizadas, 23.000 delas de menores, com a opção de gerar imagens pornográficas.

ARQUIVADO - 08 de janeiro de 2026, Reino Unido, Londres: Uma imagem do aplicativo de IA Grok na App Store em um iPhone, tendo como pano de fundo os resultados de pesquisa exibidos na plataforma de mídia social X (antigo Twitter) em um laptop. Foto: Yui Mo
Yui Mok/PA Wire/dpa

MADRID 23 jan. (Portaltic/EP) - O gerador de imagens impulsionado pelo assistente de inteligência artificial (IA) Grok inundou a rede social X com cerca de três milhões de imagens sexualizadas durante os 11 dias em que esteve disponível, incluindo 23.000 que representavam crianças e cerca de 1,8 milhões em que apareciam mulheres.

A ferramenta de geração de imagens do Grok experimentou um aumento no uso por parte dos usuários por volta de 29 de dezembro, coincidindo com uma nova opção disponível no X, que permitia usar o Grok para editar imagens publicadas na rede social com apenas um clique.

Em 2 de janeiro, a própria empresa reconheceu ter identificado falhas nas salvaguardas do Grok, após o aparecimento de várias publicações no X em que o chatbot atendia ao pedido de alguns usuários de despir mulheres e crianças, modificando suas imagens para colocar biquínis ou colocá-las em posições sexuais.

Essas imagens modificadas com IA podiam ser geradas através do chatbot ou como resposta a publicações de outros usuários sem o consentimento das vítimas, apesar de serem práticas ilegais proibidas nas próprias políticas de uso aceitável da xAI, a empresa responsável pelo Grok.

Assim, após receber várias reclamações de usuários e autoridades da União Europeia, Reino Unido e Espanha, entre outros, a empresa limitou o gerador de imagens do Grok em 9 de janeiro, permitindo seu uso apenas para membros pagantes. Finalmente, em 14 de janeiro, a geração de imagens sexualizadas através do Grok foi bloqueada para todos os usuários.

Durante os aproximadamente 11 dias em que a ferramenta esteve mais ativa, a rede social X foi inundada com cerca de três milhões de imagens sexualizadas, conforme relatado pelo Centro de Combate ao Ódio Digital (CCDH) e pelo The New York Times, que elaboraram estimativas do volume de imagens sexualizadas produzidas pelo Grok e publicadas no X durante esse período, de 29 de dezembro a 8 de janeiro. Especificamente, a análise elaborada pelo The Times aponta que o Grok publicou mais de 4,4 milhões de imagens e estima que pelo menos 41% das publicações, ou seja, o equivalente a 1,8 milhão, continham imagens sexualizadas de mulheres.

Assim, foram incluídos casos em que foram modificadas imagens de mulheres famosas como Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande ou a vice-primeira-ministra sueca Ebba Busch e a ex-vice-presidente americana Kamala Harris.

Por sua vez, o relatório compartilhado pelo CCDH, que foi gerado por meio de um modelo estatístico, detalha que 65% das imagens geradas pelo Grok — ou seja, pouco mais de três milhões — continham imagens sexualizadas de homens, mulheres ou crianças. Assim, a ferramenta de IA da empresa dirigida por Elon Musk produziu uma quantidade de imagens durante 11 dias equivalente a 190 imagens sexualizadas por minuto. Entre elas, a IA gerou cerca de 23.000 imagens sexualizadas de menores, incluindo conteúdo de meninas em biquíni ou crianças atores. Além disso, a organização verificou que, em 15 de janeiro, quando essas funções já haviam sido bloqueadas, 29% das imagens sexualizadas de crianças ainda estavam acessíveis. Os dados também refletem que o Grok gerou aproximadamente 9.900 imagens sexualizadas que representavam crianças em formato de desenho animado. Como afirmou o diretor executivo do CCDH, Imran Ahmed, em declarações recolhidas pelo meio citado, este tipo de práticas “contribuem para um abuso em grande escala contra mulheres e meninas”.

Além disso, ele destacou a gravidade de sua distribuição em redes sociais como o X. “Já existiram ferramentas de nudez, mas nunca tiveram a distribuição, a facilidade de uso ou a integração em uma grande plataforma que Elon Musk conseguiu com o Grok”, afirmou.

É importante notar que, para elaborar o relatório, o CCDH utilizou uma amostra aleatória de 20.000 imagens do total de 4,6 milhões produzidas pela função de geração de imagens do Grok durante o período mencionado. Além disso, eles utilizaram uma ferramenta de IA para identificar a proporção dessas imagens que representavam conteúdo sexualizado de pessoas.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado