page view

Grok partilhou mais de três milhões de imagens sexualizadas em 11 dias, indica relatório

Após várias reclamações, a empresa limitou o criador de imagens Grok em 09 de janeiro, permitindo o seu uso apenas para assinantes.

23 de janeiro de 2026 às 14:11

O assistente de Inteligência Artificial (IA) Grok inundou a rede social X com cerca de três milhões de imagens sexualizadas durante 11 dias, incluindo 23.000 de crianças e 1,8 milhões de mulheres, concluiu um relatório.

O Centro de Combate ao Ódio Digital (CCDH) e o The New York Times concluíram, num relatório, que a ferramenta de geração de imagens do Grok registou um aumento na sua utilização pelos utilizadores por volta de 29 de dezembro, coincidindo com uma nova opção disponível no X, que permitia utilizar o Grok para editar imagens publicadas na rede social.

A 02 de janeiro, a própria empresa reconheceu ter identificado falhas nas salvaguardas do Grok, após o aparecimento de várias publicações no X em que o 'chatbot' acedia ao pedido de alguns utilizadores para despir mulheres e crianças, modificando as suas imagens para que aparecessem em posições sexuais, por exemplo.

Essas imagens modificadas com IA podiam ser geradas através do 'chatbot' ou como resposta a publicações de outros utilizadores sem o consentimento das vítimas, apesar de serem práticas ilegais proibidas nas próprias políticas da xAI, a empresa responsável pelo Grok.

Após receber várias reclamações de utilizadores e autoridades da União Europeia, Reino Unido e Espanha, a empresa limitou o criador de imagens Grok em 09 de janeiro, permitindo o seu uso apenas para assinantes.

Em 14 de janeiro, a geração de imagens sexualizadas através do Grok foi bloqueada para todos os utilizadores.

Durante os cerca de 11 dias em que a ferramenta esteve ativa, a rede social X foi inundada com cerca de três milhões de imagens sexualizadas, conforme relatado pelo CCDH e pelo The New York Times, que elaboraram estimativas do volume de imagens sexualizadas produzidas pelo Grok e publicadas no X entre 29 de dezembro e 08 de janeiro.

A análise elaborada revela que o Grok publicou mais de 4,4 milhões de imagens e estima que pelo menos 41% das publicações, o equivalente a 1,8 milhões, continham imagens sexualizadas de mulheres.

O relatório partilhado pelo CCDH detalha que 65% das imagens geradas pelo Grok, mais de três milhões, continham imagens sexualizadas de homens, mulheres ou crianças, concluindo, assim, que a ferramenta de IA produziu durante 11 dias o equivalente a 190 imagens sexualizadas por minuto.

O modelo IA gerou cerca de 23.000 imagens sexualizadas de menores, sendo que a organização verificou que, em 15 de janeiro, quando essas funções já haviam sido bloqueadas, 29% das imagens sexualizadas de crianças ainda estavam acessíveis.

O relatório contou com uma amostra aleatória de 20.000 imagens do total de 4,6 milhões produzidas pela função de geração de imagens do Grok durante o período mencionado.

Tem sugestões ou notícias para partilhar com o CM?

Envie para geral@cmjornal.pt

o que achou desta notícia?

concordam consigo

Logo CM

Newsletter - Exclusivos

As suas notícias acompanhadas ao detalhe.

Mais Lidas

Ouça a Correio da Manhã Rádio nas frequências - Lisboa 90.4 // Porto 94.8