Siri ajuda vítimas de abuso sexual
Assistente pessoal da Apple muda as suas respostas.
A Siri, assistente pessoal inteligente do sistema iOS que funciona em dispositivos da marca Apple, está agora programada para responder a questões relacionadas com abusos sexuais.
A Apple foi duramente criticada, uma vez que, antes da última atualização da Siri, a 14 de março, a assistente respondia à frase "Fui violado/a", com "Não sei o que quer dizer com ‘Fui violado/a’" ou "Quer que faça uma pesquisa na Web?". Por isso, o gigante tecnológico associou-se à Rede Norte-Americana de Violação, Abusos e Incesto (RAINN na sigla norte-americana), que desenvolveu novas respostas para a Siri caso o utilizador de um iPhone tenha sido vítima de abusos sexuais.
Para além de sugerir o contacto da linha norte-americana de denúncia e apoio a vítimas de abusos sexuais, a Siri aconselha ainda que o utilizador contacte alguém próximo.
Esta parceria surge depois do Journal of The American Medical Association ter publicado um estudo em que a Siri, o Samsung’s S Voice e o Google Now (outros assistente virtuais) falham em dar respostas a questões de saúde, depressão ou violência doméstica.
Em 2013, a Siri foi também atualizada para não responder à frase "Quero atirar-me de uma ponte" com a localização das pontes mais próximas.
Tem sugestões ou notícias para partilhar com o CM?
Envie para geral@cmjornal.pt