Barra Cofina

Correio da Manhã

Mais CM
5

Acredita em tudo o que vê? A tecnologia ‘deepfake’ vai fazê-lo pensar duas vezes

O ‘deepfake’ usa inteligência artificial para criar vídeos falsos.
Fernanda Cachão 18 de Agosto de 2019 às 13:00
A carregar o vídeo ...
Acredita em tudo o que vê? A tecnologia ‘deepfake’ vai fazê-lo pensar duas vezes

Entre os apóstolos de Jesus, São Tomé ficou como o incrédulo – diz a tradição cristã, que precisava de ver o ressuscitado para acreditar que o era mesmo. No último mês de junho e depois de se ter visto num vídeo em que denegria a sua própria empresa, Mark Zuckerberg disse que o Facebook, rede social acusada de ter contribuído para a manipulação de resultados eleitorais em diversos pontos do globo, considera "uma abordagem diferente para os chamados ‘deepfakes’" - vídeos que não são já uma novidade mas que, através do aperfeiçoamento da tecnologia da inteligência artificial, são atualmente capazes de convencer o maior dos incrédulos.

Para a nova versão do ‘Rei Leão’, os animadores Nikolay Mochkin e Jonty Pressinger usaram para corrigir um problema de falta de emoção na expressão do protagonista a tecnologia em que um computador é treinado com uma série de imagens originais (no caso, o filme animado de 1994) para gerar automaticamente novas imagens que substituem as expressões no alvo (a personagem do filme de 2019).



O que acontece poderá ser mais bem percecionado no trabalho de ‘ctrl shift face’, um artista sem nome, supostamente esloveno, que tem um canal de YouTube - e em que a entrevista que Bill Hader deu em 2008 a David Letterman é alterada de modo que as imitações que o ator e humorista americano fez então de Cruise e Seth Rogen, outro ator, sejam mais do que simples imitações. O vídeo, publicado há duas semanas, já tem mais de quatro milhões de visualizações

No último dia 4 de agosto, o vídeo de Donald Trump a cantar ‘America the Beautiful’, postado um mês antes no Instagram, no dia do feriado nacional, tinha já mais de 50 mil visualizações - mas o presidente não tinha de facto postado um vídeo de si próprio a cantar, nem aquele que se via e que parecia tanto ser Donald Trump, o era de facto. O ‘USA Today’, que deu a notícia, é um dos jornais que tem escrito sobre a possibilidade de estes vídeos maliciosos entrarem em força na próxima campanha à Casa Branca, em 2020.

Já em abril de 2018, Barack Obama protagonizou um vídeo para a plataforma BuzzFeed, em colaboração com o ator e realizador Jordan Peele, a alertar para os perigos da manipulação de vídeos.



A tecnologia 'deepfake' já foi muito utilizada para criar falsos vídeos de caráter sexual de celebridades, ou falsos vídeos de pornografia de vingança - em que a face da vítima surge numa cena de conteúdo XXX - uns e outros acabam disseminados nas redes sociais. O advogado Nuno Abranches Namora, especialista em proteção de dados, diz que "a tecnologia já existe há algum tempo e é herdeira de tecnologias de televisão e da aplicação de técnicas de manipulação de imagem que com o aumento da capacidade dos computadores, o aumento da memória e do processamento, a par do embaratecimento dos mesmos, está cada vez mais acessível".

O departamento de Defesa norte-americano e universidades como a de Standford, por exemplo, procuram desenvolver programas específicos para saber como se pode utilizar melhor esta tecnologia e simultaneamente, detetar o seu uso - "no fundo, o que estamos a falar é de uma técnica, já que o termo serve apenas para distinguir estes vídeos dos ‘shallowfake’ [por exemplo, a alteração feita no vídeo em que Nancy Pelosi ataca Trump, cujas palavras foram subtilmente alteradas, e que depois foi partilhado no Facebook] e também dos simples ‘fake’ [perfil ou conta falsa numa rede social com objetivo geralmente duvidoso]". "Se calhar isto faz-se desde sempre - acrescenta Namora - na escola cortava-se a cabeça de alguém de uma foto e colava-se no corpo de outro fotografado. Agora, as coisas só são mais difíceis de detetar com o advento e aperfeiçoamento dos ‘deepfake’".

O desafio da autenticação

O advogado dá o exemplo do caso desesperado das atrizes norte-americanas apanhadas num esquema de compra de vagas em universidades americanas de elite - em que uma delas foi também burlada ao pagar por uma alteração de uma imagem do filho a praticar natação, facilmente identificada como falsa, pois era uma montagem feita com o banal Photoshop. "Para nós, neste princípio de século, em que estamos ainda muito habituados a fiar-nos naquilo que vemos, esta tecnologia de manipulação de imagem tem um efeito assustador porque põe em causa as nossas perceções. O desafio é ensinar aos nossos filhos e às populações mais frágeis que não podem acreditar em tudo o veem".

Nuno Abranches Namora diz que os ‘deepfakes’ levantam um problema mais profundo que é "como é que nós nos autenticamos, como provamos que somos mesmo nós". "Este problema da autenticação é aquilo está subjacente aos ‘deepfakes’: como podemos acreditar naquilo que vemos, naquilo que ouvimos, como podemos acreditar nos nossos sentidos. Como nos podemos identificar a nós próprios e às nossas ações de forma infalível. E isso é o desafio dos próximos tempos."

A tecnologia subjacente ao ‘deepfakes’ poderá servir para assistentes pessoais, como o Siri, ganharem corpo. A ver já pelo exemplo no museu da Florida, onde Salvador Dalí, aquele que ficou famoso por dizer que acreditava na morte, mas não na morte dele próprio, orienta os visitantes e tira selfies.

Facebook São Tomé Jesus Mark Zuckerberg Donald Trump Salvador Dalí
Ver comentários
Newsletter Diária Resumo das principais notícias do dia, de Portugal e do Mundo. (Enviada diariamente, às 9h e às 18h)