ChatGPT terá controle parental e reforço em protocolos de saúde mental após suicídio de adolescente.
Confira!
🎯📢 ChatGPT terá controle parental e reforço em protocolos de saúde mental! 🚀✨
Após suicídio de adolescente, ChatGPT terá controle parental e reforço em protocolos de saúde mental!
Novas medidas da OpenAI incluem monitoramento de interações de jovens, ajustes nas respostas a sinais de sofrimento e a criação de um conselho de especialistas para orientar salvaguardas.
A OpenAI anunciou aprimoramentos na forma como seus modelos de inteligência artificial reconhecem e respondem a sinais de sofrimento mental e emocional.
Essas novas medidas serão implementadas nos próximos 120 dias e, segundo o Ars Technica, ocorrem após vários incidentes relatados em que o ChatGPT supostamente não interveio adequadamente quando os usuários expressaram pensamentos suicidas ou passaram por episódios de saúde mental.
Em um dos casos, Adam, um adolescente de 16 anos, cometeu suicídio após longas interações com o ChatGPT, que incluíram 377 mensagens sinalizadas por conteúdo autodestrutivo. Os pais do garoto entraram com um processo contra a OpenAI e, de acordo com documentos judiciais, a IA mencionou suicídio 1.275 vezes nas conversas, seis vezes mais do que o próprio garoto.
“A IA é uma área nova e em evolução, e queremos garantir que nosso progresso seja guiado por uma profunda expertise em bem-estar e saúde mental”, disse a empresa em comunicado divulgado nesta terça-feira (2).
Uma das principais novidades é o controle parental para a proteção de adolescentes. Com isso, a partir do mês que vem, os pais poderão vincular sua conta do ChatGPT à conta do adolescente (idade mínima de 13 anos) por meio de um convite por e-mail e controlar como o bot responde aos adolescentes com regras de comportamento de modelo adequadas à idade, que são ativadas por padrão.
Além disso, os responsáveis poderão gerenciar quais recursos desabilitar, incluindo memória e histórico de bate-papo, e receber notificações quando o sistema detectar que seu filho adolescente está em um momento de grande sofrimento.
“Esses controles são um complemento aos recursos que lançamos para todos os usuários, incluindo lembretes no aplicativo durante sessões longas para incentivar pausas”, apontou a OpenAI. “Essas etapas são apenas o começo. Continuaremos aprendendo e aprimorando nossa abordagem, guiados por especialistas, com o objetivo de tornar o ChatGPT o mais útil possível.”
Para orientar as melhorias, a empresa está trabalhando com o que chama de Conselho de Especialistas em Bem-Estar e IA. Composto por especialistas em desenvolvimento juvenil, saúde mental e interação humano-computador, ele tem como papel, informa a empresa, “moldar uma visão clara e baseada em evidências sobre como a IA pode contribuir para o bem-estar das pessoas e ajudá-las a prosperar”.
Ela acrescentou que suas contribuições ajudarão a definir e mensurar o bem-estar, definir prioridades e projetar salvaguardas futuras - como futuras iterações de controles parentais - com as pesquisas mais recentes em mente.
O conselho atuará em conjunto com a Rede Global de Médicos. Trata-de um grupo com mais de 250 profissionais, com o qual a OpenAI trabalhou no ano passado em esforços como avaliações de bancada de saúde, projetadas para medir melhor as capacidades dos sistemas de IA para a saúde.
“Desse grupo mais amplo, mais de 90 médicos em 30 países - incluindo psiquiatras, pediatras e clínicos gerais - já contribuíram para nossa pesquisa sobre como nossos modelos devem se comportar em contextos de saúde mental. Suas contribuições influenciam diretamente nossa pesquisa de segurança, treinamento de modelos e outras intervenções, ajudando-nos a contratar rapidamente os especialistas certos quando necessário”, garantiu a criadora do ChatGPT.
Agora, a empresa está adicionando ainda mais clínicos e pesquisadores à sua rede, contemplando aqueles com profundo conhecimento em áreas como transtornos alimentares, uso de substâncias e saúde do adolescente.
Por fim, a OpenAI anunciou que, em breve, começará a encaminhar algumas conversas sensíveis - como quando o sistema detecta sinais de sofrimento agudo - para um modelo de raciocínio, como o GPT-5-thinking, para que ele possa fornecer “respostas mais úteis e benéficas”.
FONTES: Época Negócios IA e Época Negócios