ChatGPT vai identificar automaticamente idade dos utilizadores por segurança
Assim quando um utilizador menor for identificado, este será automaticamente direcionado para uma "experiência do ChatGPT com políticas adaptadas à sua idade".
A OpenAI está a trabalhar num novo sistema para o ChatGPT identificar automaticamente quando está a interagir com um adolescente ou menor de idade, de forma a ativar uma experiência adequada à sua idade e bloquear conteúdo impróprio.
A empresa liderada por Sam Altman partilhou a intenção de continuar a melhorar a segurança de todos os utilizadores, concretamente, reforçando a proteção dos adolescentes com ferramentas eficazes, como os controlos parentais aplicados pela plataforma recentemente.
Neste sentido, a OpenAI anunciou que está a desenvolver um sistema que permitirá identificar se uma pessoa tem mais ou menos 18 anos, de modo a adaptar a experiência no ChatGPT com base na sua idade e necessidades, alterando automaticamente a forma como o 'chatbot' responde a um adolescente ou a um adulto.
Conforme explicado num comunicado, citado pela Europa Press, quando um utilizador menor for identificado, este será automaticamente direcionado para uma "experiência do ChatGPT com políticas adaptadas à sua idade".
Nesta matéria, serão tomadas medidas que incluem desde o bloqueio de conteúdo sexual explícito, até "em casos excecionais de angústia extrema" e a possível intervenção das forças se segurança externas.
Caso o modelo de IA não tenha a certeza da idade do utilizador ou disponha de informações incompletas, a ferramenta irá optar pela experiência de menores de 18 anos, a fim de garantir a segurança, enquanto os adultos terão opções para comprovar a sua idade e aceder às funcionalidades para maiores de idade.
Estas medidas juntam-se a outros aos controlos parentais, para que as famílias possam gerir a utilização do ChatGPT.
No final deste mês os pais poderão associar a sua conta à dos filhos e estabelecer regras de comportamento para as interações.
Estas mudanças, que visam aumentar a segurança dos utilizadores, foram precedidas por um incidente que resultou no suicídio de um adolescente de 16 anos nos Estados Unidos, em abril deste ano.
Os pais processaram a empresa devido ao papel que o ChatGPT desempenhou, uma vez que, após rever as conversas que o filho manteve com o 'chatbot' durante vários meses, foi possível ver que, embora lhe tenha oferecido inúmeras vezes recursos para procurar ajuda, as salvaguardas acabaram por falhar e a conversa começou a girar em torno do suicídio.
Tem sugestões ou notícias para partilhar com o CM?
Envie para geral@cmjornal.pt