Divulgadas na Internet imagens pornográficas falsas de Taylor Swift criadas por Inteligência Artificial

Uma das imagens já foi vista mais de 47 milhões de vezes na rede social X. Fãs da cantora estão revoltados.

27 de janeiro de 2024 às 09:34
Taylor Swift Foto: Direitos Reservados
Partilhar

Imagens pornográficas falsas de Taylor Swift, criadas através de Inteligência Artificial (IA) generativa, estão a ser amplamente partilhadas nos últimos dias em redes sociais e a gerar indignação entre a classe política norte-americana e fãs da cantora.

Uma dessas imagens já foi vista mais de 47 milhões de vezes na rede social X, onde de acordo com os 'media' norte-americanos permaneceu durante mais de 17 horas antes de ser excluída, noticiou esta sexta-feira a agência France-Presse (AFP).

Pub

Imagens pornográficas falsas [deepfakes, na expressão em inglês] de mulheres famosas, mas também dirigidas a muitas pessoas anónimas, não são novidade.

Mas o desenvolvimento de programas generativos de IA corre o risco de produzir um fluxo incontrolável de conteúdos degradantes, segundo muitos ativistas e reguladores.

Pub

O facto de tais imagens afetarem desta vez Taylor Swift, segunda entre os artistas mais ouvidos do mundo na plataforma Spotify, poderá, no entanto, ajudar a sensibilizar as autoridades para o problema, perante a indignação dos seus milhões de fãs.

"O único 'ponto positivo' de isto acontecer com Taylor Swift é que ela pesa o suficiente para que seja aprovada uma lei para eliminar isto", sublinhou no X Danisha Carter, influenciadora com várias centenas de milhares de seguidores nas redes sociais.

O X é conhecido por ter regras menos rígidas sobre nudez do que o Instagram ou o Facebook.

Pub

A Apple e a Google têm o direito de controlar o conteúdo que circula nas aplicações através das regras que impõem aos seus sistemas operativos móveis, mas toleraram esta situação no X, até agora.

Num comunicado de imprensa, o X garantiu que tem "uma política de tolerância zero" relativamente à publicação não consensual de imagens de nudez.

A plataforma declarou que estava "a remover todas as imagens identificadas" da cantora e "a tomar as medidas necessárias contra as contas que as publicaram".

Pub

Representantes da cantora norte-americana ainda não comentaram esta situação.

"O que aconteceu a Taylor Swift não é novo, as mulheres têm sido alvo de imagens falsas sem o seu consentimento durante anos", lembrou a congressista democrata Yvette Clarke, que apoiou uma lei para combater o fenómeno.

"Com os avanços na IA, criar estas imagens é mais fácil e barato", lembrou.

Pub

Um estudo realizado em 2019 estimou que 96% dos vídeos 'deepfakes' eram de natureza pornográfica.

De acordo com a revista Wired, 113 mil desses vídeos foram carregados nos principais 'sites' pornográficos durante os primeiros nove meses de 2023.

Tem sugestões ou notícias para partilhar com o CM?

Envie para geral@cmjornal.pt

Partilhar