page view

Grok, aplicação de IA de Elon Musk, difundiu dados errados sobre atentado de Sydney

Assistente virtual alegou que as vítimas eram atores e identificou erradamente um herói local.

17 de dezembro de 2025 às 08:08

O Grok, aplicação de inteligência artificial de Elon Musk, difundiu informações falsas sobre o atentado em Sydney, alegando que as vítimas eram atores e identificando erradamente um herói local, confirmaram especialistas na terça-feira.

O assistente virtual, integrado na rede social X, apresentou falhas graves ao processar os dados do ataque ocorrido no domingo, durante a celebração do Hanukkah. Entre os erros mais críticos, a ferramenta identificou Ahmed al Ahmed --- aclamado como herói por desarmar um dos atacantes --- como sendo um refém israelita detido pelo Hamas.

Além disso, o chatbot sugeriu que imagens reais do atentado eram "encenações" ou vídeos antigos de uma tempestade, reforçando teorias da conspiração que utilizam o termo "atores de crise" para desacreditar a autenticidade da tragédia.

Tem sugestões ou notícias para partilhar com o CM?

Envie para geral@cmjornal.pt

o que achou desta notícia?

concordam consigo

Logo CM

Newsletter - Exclusivos

As suas notícias acompanhadas ao detalhe.

Mais Lidas

Ouça a Correio da Manhã Rádio nas frequências - Lisboa 90.4 // Porto 94.8