Grok, aplicação de IA de Elon Musk, difundiu dados errados sobre atentado de Sydney
Assistente virtual alegou que as vítimas eram atores e identificou erradamente um herói local.
O Grok, aplicação de inteligência artificial de Elon Musk, difundiu informações falsas sobre o atentado em Sydney, alegando que as vítimas eram atores e identificando erradamente um herói local, confirmaram especialistas na terça-feira.
O assistente virtual, integrado na rede social X, apresentou falhas graves ao processar os dados do ataque ocorrido no domingo, durante a celebração do Hanukkah. Entre os erros mais críticos, a ferramenta identificou Ahmed al Ahmed --- aclamado como herói por desarmar um dos atacantes --- como sendo um refém israelita detido pelo Hamas.
Além disso, o chatbot sugeriu que imagens reais do atentado eram "encenações" ou vídeos antigos de uma tempestade, reforçando teorias da conspiração que utilizam o termo "atores de crise" para desacreditar a autenticidade da tragédia.
Tem sugestões ou notícias para partilhar com o CM?
Envie para geral@cmjornal.pt