Grok, aplicação de IA de Elon Musk, difundiu dados errados sobre atentado de Sydney

Assistente virtual alegou que as vítimas eram atores e identificou erradamente um herói local.

17 de dezembro de 2025 às 08:08
Grok, assistente de IA de Elon Musk Foto: Silas Stein/AP
Partilhar

O Grok, aplicação de inteligência artificial de Elon Musk, difundiu informações falsas sobre o atentado em Sydney, alegando que as vítimas eram atores e identificando erradamente um herói local, confirmaram especialistas na terça-feira.

O assistente virtual, integrado na rede social X, apresentou falhas graves ao processar os dados do ataque ocorrido no domingo, durante a celebração do Hanukkah. Entre os erros mais críticos, a ferramenta identificou Ahmed al Ahmed --- aclamado como herói por desarmar um dos atacantes --- como sendo um refém israelita detido pelo Hamas.

Pub

Além disso, o chatbot sugeriu que imagens reais do atentado eram "encenações" ou vídeos antigos de uma tempestade, reforçando teorias da conspiração que utilizam o termo "atores de crise" para desacreditar a autenticidade da tragédia.

Tem sugestões ou notícias para partilhar com o CM?

Envie para geral@cmjornal.pt

Partilhar