page view

Ferramentas de inteligência artificial são mais persuasivas que humanos

Estudo alerta para a possibilidade dos grandes modelos de linguagem serem capazes de interferir em informações pessoais a partir da pegada digital disponível.

20 de maio de 2025 às 14:54

Os grandes modelos de linguagem (LLM) de inteligência artificial (IA) podem ser 64% mais persuasivos do que os humanos em discussões 'online', caso tenham dados personalizados, conclui um estudo da Nature Human Behaviour.

De acordo com o estudo, em 64,4% das vezes os debatentes de IA personalizados foram mais persuasivos do que os humanos em discussões 'online', pois os modelos inteligentes tinham em sua posse informação personalizada sobre o adversário, de forma a moldar a sua argumentação.

Sem acesso a informação pessoal, as capacidades de persuasão do modelo de linguagem eram semelhantes às de um ser humano.

Especialistas ouvidos no estudo expressaram "preocupações sobre o risco de os LLMs serem usados para manipular conversas 'online' e poluir o ecossistema de informações, espalhando desinformação, exacerbado a polarização política, reforçando as câmaras de eco e persuadindo os indivíduos a adotar novas crenças".

O estudo alerta para a possibilidade dos grandes modelos de linguagem serem capazes de interferir em informações pessoais a partir da pegada digital disponível publicamente, em redes sociais, por exemplo.

Neste sentido, "os utilizadores acham cada vez mais desafiador distinguir o conteúdo gerado por IA do conteúdo gerado por humanos, com LLMs imitando eficientemente a escrita humana e assim ganhado credibilidade".

Apesar disso, os intervenientes no estudo conseguiram perceber quando estavam a falar com o 'chatbot' (assistente virtual que usa inteligência artificial e programação para comunicar por texto com utilizadores), embora isso não tenha tido influência nos resultados sobre a persuasão.

Para os autores do estudo, "os LLMs têm sido criticados pelo seu potencial de gerar e promover a difusão de discurso de ódio, desinformação e propaganda política maliciosa. Especificamente há preocupações sobre as capacidades persuasivas dos LLMs, que podem ser aprimoradas criticamente através da personalização, ou seja, adaptando o conteúdo a alvos individuais, criando mensagens que ressoam com seu histórico e dados demográficos específicos".

O estudo tem como base conversas entre o quarto modelo de IA do OpenAI, o ChatGPT-4 e 900 pessoas nos Estados Unidos da América, sendo abordados temas como o aborto, a guerra na Ucrânia e combustíveis fósseis.

Tem sugestões ou notícias para partilhar com o CM?

Envie para geral@cmjornal.pt

o que achou desta notícia?

concordam consigo

Logo CM

Newsletter - Exclusivos

As suas notícias acompanhadas ao detalhe.

Mais Lidas

Ouça a Correio da Manhã Rádio nas frequências - Lisboa 90.4 // Porto 94.8