A OpenAI também está introduzindo uma opção de “contato confiável” no ChatGPT para alertar um ente querido quando um usuário está emitindo sinais de socorro, especialmente se automutilação ou pensamentos suicidas forem detectados pelos computadores.
Os chatbots de inteligência artificial tornaram-se gradualmente um “membro da família”… um formulário digital para alguns usuários. De acordo com um estudo europeu recente do Grupo VYV e da CNIL, estas ferramentas não são utilizadas apenas para informação ou aprendizagem: tornam-se locais de confiança para discutir preocupações ou dificuldades pessoais, por vezes sem que os jovens compreendam como estão. Um desenvolvimento que preocupa as famílias.
Dentre essas ferramentas, o ChatGPT é a mais utilizada. OpenAI agora usa um novo recurso de segurança opcional chamado “Comunicação confiável”. A start-up manifestou o desejo de oferecer tal ferramenta em março passado.
Ele permite que usuários adultos designem uma pessoa de confiança (um ente querido, familiar ou cuidador) que pode ser alertado se sinais de socorro associados a automutilação ou pensamentos suicidas forem detectados por sistemas de monitoramento integrados ao chatbot.
Um corpo de especialistas
O sistema complementa as ferramentas existentes, como mecanismos de alerta para adolescentes e linhas de apoio integradas. No entanto, a OpenAI observa que esta funcionalidade não substitui a ajuda médica ou os serviços de emergência, mas visa promover a interação humana em situações de crise. “O ChatGPT continuará a incentivar os usuários a entrar em contato com linhas de apoio em caso de crise ou serviços de emergência”, afirma a empresa.
A empresa finalmente afirma ter projetado o sistema com especialistas em saúde mental. “Desenvolvemos a operação em colaboração com médicos, investigadores e organizações especializadas na prevenção do suicídio”, nota a OpenAI, contando nomeadamente com a sua rede internacional de médicos e uma equipa de especialistas dedicados ao bem-estar e à IA.
“Comunicação Verdadeira” em Poucos Passos
- Os usuários podem adicionar um adulto (pelo menos 18 anos ou 19 anos na Coreia do Sul) como “contato confiável” por meio das configurações do ChatGPT.
- O contato recebe um convite explicando sua função e deve aceitá-lo em até uma semana, caso contrário o usuário poderá escolher outra.
- Se sinais de socorro forem detectados por sistemas automatizados, o ChatGPT notifica o usuário e o incentiva a entrar em contato com sua pessoa de confiança.
- Uma comissão especial avalia então a situação; Caso o risco seja considerado alto, uma notificação é enviada ao contato por e-mail, SMS ou aplicativo.
- Este alerta é intencionalmente breve, sem detalhes da conversa, e inclui dicas para iniciar uma conversa; O dispositivo pode ser alterado ou desativado a qualquer momento pelo usuário ou contato.
Nas últimas semanas, diversas empresas que oferecem chatbots de inteligência artificial têm procurado tranquilizar os pais e entes queridos dos usuários. Este é especialmente o caso do Character.AI, que permite interagir com chatbots inspirados em celebridades. Diante da polêmica, a empresa introduziu ferramentas de controle parental que dão acesso ao tempo de uso e aos tipos de bots com os quais as crianças interagem. O tão esperado recurso foi prometido pela start-up em 2024, relata The Verge.



