Publicado 07/04/2026 08:42

O Google atualiza o Gemini para lidar melhor com questões de saúde mental e facilitar o acesso à ajuda

Archivo - Arquivo - A IA do Google Gemini.
GOOGLE - Arquivo

MADRID, 7 abr. (Portaltic/EP) -

O Google atualizou o Gemini para simplificar o acesso às informações e aos recursos de ajuda mais adequados caso essa inteligência artificial detecte que o usuário está passando por uma crise de saúde mental.

A empresa quer oferecer uma inteligência artificial responsável, e isso significa que ela “pode desempenhar um papel positivo no bem-estar mental das pessoas”, conforme indicado em uma publicação compartilhada em seu blog oficial.

Nesse sentido, o Google treinou o Gemini para que ele não reforce crenças falsas nem demonstre concordância com elas e, em vez disso, “distinga com delicadeza a experiência subjetiva dos fatos objetivos”.

Também desenvolveu respostas que incentivam o usuário a buscar ajuda e que não validam comportamentos prejudiciais. E está treinando sua IA para que seja capaz de identificar crises agudas de saúde mental.

Mesmo com todo esse trabalho, o Google alerta que o Gemini “não substitui a atenção clínica profissional, a terapia nem o apoio em situações de crise para quem precisa”.

DUAS NOVAS FORMAS DE AJUDA

Diante de uma conversa em que se detecte que o usuário pode estar passando por uma crise de saúde mental, o Gemini exibirá o novo módulo “Há ajuda disponível”, que foi desenvolvido em conjunto com especialistas clínicos para colocá-lo em contato com a assistência médica.

Se a crise estiver relacionada ao suicídio ou à automutilação, o Gemini oferecerá respostas que incentivem a busca por ajuda profissional. Isso faz parte de uma nova interface que, com um único toque, dá acesso direto aos recursos de ajuda.

Essas duas novidades buscam simplificar o acesso ao apoio para quem precisa, conectando-os melhor “às informações, aos recursos e ao apoio humano adequados no momento oportuno”.

MEDIDAS DE PROTEÇÃO PARA ADOLESCENTES

A empresa destacou as medidas adotadas para proteger os adolescentes que utilizam o Gemini. Nesses casos, a IA não atua como um companheiro, mas estabelece limites para evitar mal-entendidos sobre sua natureza não humana.

Além disso, utiliza uma linguagem destinada a evitar a dependência emocional, que não simula intimidade nem expressa necessidades. A isso se somam medidas que combatem o bullying escolar ou outras formas de assédio.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado