Gemini está tornando mais rápido para usuários em dificuldades acessarem recursos de saúde mental

PUBLICIDADE

Gemini está tornando mais rápido para usuários em dificuldades acessarem recursos de saúde mental

O Google afirma que atualizou o Gemini para direcionar melhor os usuários para obter recursos de saúde mental em momentos de crise. A mudança ocorre no momento em que a gigante da tecnologia enfrenta um processo por homicídio culposo, alegando que seu chatbot “treinou” um homem a morrer por suicídio, o mais recente de uma série de processos que alegam danos tangíveis causados ​​por produtos de IA.

Quando uma conversa indica que um usuário está em uma crise potencial relacionada ao suicídio ou automutilação, a Gemini já lança um módulo “Ajuda está disponível” que direciona os usuários a recursos para crises de saúde mental, como uma linha direta para suicídio ou uma linha de texto para crises. O Google diz que a atualização – na verdade, mais um redesenho – irá simplificar isso em uma interface de “um toque” que tornará mais fácil para os usuários obterem ajuda rapidamente.

O módulo de ajuda também contém respostas mais empáticas destinadas a “encorajar as pessoas a procurar ajuda”, diz o Google. Uma vez ativada, “a opção de procurar ajuda profissional permanecerá claramente disponível” durante o restante da conversa.

O Google afirma que contratou especialistas clínicos para o redesenho e está comprometido em apoiar usuários em crises. Também anunciou 30 milhões de dólares em financiamento global ao longo dos próximos três anos “para ajudar as linhas diretas globais”.

Tal como outros fornecedores líderes de chatbot, a Google sublinhou que o Gemini “não é um substituto para cuidados clínicos profissionais, terapia ou apoio em crises”, mas reconheceu que muitas pessoas o utilizam para obter informações de saúde, inclusive em momentos de crise.

A atualização ocorre em meio a um exame mais amplo sobre o quão adequadas são realmente as salvaguardas da indústria. Relatórios e investigações, incluindo a nossa investigação sobre o fornecimento de recursos para crises, frequentemente sinalizam casos em que os chatbots falham com utilizadores vulneráveis, ajudando-os a esconder distúrbios alimentares ou a planear tiroteios. O Google costuma se sair melhor do que muitos rivais nesses testes, mas não é perfeito. Outras empresas de IA, incluindo OpenAI e Anthropic, também tomaram medidas para melhorar a detecção e o suporte a usuários vulneráveis.

Fonte: theverge

Mais recentes

PUBLICIDADE

WP Twitter Auto Publish Powered By : XYZScripts.com