Aplicações para ‘despir’ famosos em tribunal
Empresa de Mark Zuckerberg processou a Joy Timeline HK Limited por “contornar o processo de avaliação de anúncios".
A Meta avançou pela primeira vez em tribunal contra uma empresa de aplicações suportadas por Inteligência Artificial (IA) que permite 'remover' as roupas de imagens de celebridades, influencers e outras personalidades públicas sem o seu consentimento prévio.
De acordo com o site Engadget, a Meta processou a Joy Timeline HK Limited , que anunciava diretamente as suas aplicações - os chamados Deep Nude - em redes sociais como o Facebook e o Instagram, sendo esta a primeira vez que a gigante tecnológica combate de forma ativa aquela que tem sido uma das mais polémicas e invasivas utilizações da IA.
No processo é referido pela Meta que a Joy Timeline HK Limited tentou “contornar o processo de avaliação de anúncios da Meta para continuar a exibir estes anúncios”, salientando que tais publicações foram removidos por violarem as regras da plataforma.
De forma a suspender eficazmente estas aplicações, os responsáveis da Meta garantiram ter desenvolvido uma “nova tecnologia especificamente para identificar este tipo de anúncios” mesmo quando a publicidade propriamente dita não conta com qualquer tipo de nudez.
“Trabalhámos com especialistas externos e os nossas próprias equipas especializadas para expandir a lista termos, frases e emojis relacionados com segurança que usamos para treinar os nossos sistemas para detetar estes anúncios”, pode ler-se num comunicado emitido pela empresa de Mark Zuckerberg.
Ryan Daniels, da Meta, dona do Facebook e do Instagram, afirmou que este será um passo em frente no cumprimento das regras: “
A Meta proíbe terminantemente nudez infantil, conteúdo que sexualize crianças e serviços que ofereçam imagens de nudez não consensuais geradas por IA. removeremos anúncios e as contas por trás deles.”
De acordo com um recente estudo britânico divulgado pelo Chanel 4, pelo menos 250 celebridades do país já foram vítimas de pornografia 'deepfake', incluindo o caso da sua apresentadora Cathy Newman, que viu as suas fotografias nas redes sociais serem manipuladas para exibir imagens explícitas.
No início do ano, imagens deepfake da estrela pop Taylor Swift foram postadas no 'X', antigo Twitter. A plataforma bloqueou todas as buscas vinculadas à cantora, mas só depois dos fãs pressionarem a plataforma de Elon Musk para tomar medidas.
Tem sugestões ou notícias para partilhar com o CM?
Envie para geral@cmjornal.pt