page view

Siri ajuda vítimas de abuso sexual

Assistente pessoal da Apple muda as suas respostas.

31 de março de 2016 às 11:44

A Siri, assistente pessoal inteligente do sistema iOS que funciona em dispositivos da marca Apple, está agora programada para responder a questões relacionadas com abusos sexuais.

A Apple foi duramente criticada, uma vez que, antes da última atualização da Siri, a 14 de março, a assistente respondia à frase "Fui violado/a", com "Não sei o que quer dizer com ‘Fui violado/a’" ou "Quer que faça uma pesquisa na Web?". Por isso, o gigante tecnológico associou-se à Rede Norte-Americana de Violação, Abusos e Incesto (RAINN na sigla norte-americana), que desenvolveu novas respostas para a Siri caso o utilizador de um iPhone tenha sido vítima de abusos sexuais.

Para além de sugerir o contacto  da linha norte-americana de denúncia e apoio a vítimas de abusos sexuais, a Siri aconselha ainda que o utilizador contacte alguém próximo.

Esta parceria surge depois do Journal of The American Medical Association ter publicado um estudo em que a Siri, o Samsung’s S Voice e o Google Now (outros assistente virtuais) falham em dar respostas a questões de saúde, depressão ou violência doméstica.

Em 2013, a Siri foi também atualizada para não responder à frase "Quero atirar-me de uma ponte" com a localização das pontes mais próximas.

Tem sugestões ou notícias para partilhar com o CM?

Envie para geral@cmjornal.pt

o que achou desta notícia?

concordam consigo

Logo CM

Newsletter - Exclusivos

As suas notícias acompanhadas ao detalhe.

Mais Lidas

Ouça a Correio da Manhã Rádio nas frequências - Lisboa 90.4 // Porto 94.8