David Zorrakino - Europa Press - Arquivo
MADRID 12 dez. (EUROPA PRESS) -
Os sistemas de chatbot de IA, como ChatGPT, Claude e Copilot, estão sendo cada vez mais usados como confidentes preferidos, mas recorrer a chatbots de IA para companhia e apoio emocional é motivo de preocupação, especialmente em pessoas mais jovens, comentam especialistas do Great Ormond Street Hospital for Children (Reino Unido), na edição de Natal do 'The BMJ'.
Eles alertam que "podemos estar testemunhando uma geração que está aprendendo a formar vínculos emocionais com entidades que não têm capacidades semelhantes às humanas de empatia, cuidado e sintonia relacional" e dizem que estratégias baseadas em evidências para reduzir o isolamento social e a solidão são fundamentais.
Em 2023, o Surgeon General dos EUA declarou que o país estava passando por uma epidemia de solidão, que era um problema de saúde pública comparável ao tabagismo e à obesidade.
No Reino Unido, quase metade dos adultos (25,9 milhões) relata sentir-se solitário ocasionalmente, às vezes, sempre ou com frequência; e quase 1 em cada 10 sente solidão crônica (definida como sentir-se solitário "frequentemente ou sempre"). Os jovens (de 16 a 24 anos) também são afetados.
Considerando essas tendências, não é de surpreender que muitos estejam buscando fontes alternativas de companhia e apoio emocional, dizem os autores. O ChatGPT, por exemplo, tem cerca de 810 milhões de usuários ativos semanalmente em todo o mundo, e alguns relatórios apontam a terapia e o companheirismo como um dos principais motivos de uso.
Entre os jovens, um estudo descobriu que um terço dos adolescentes usa companheiros de IA para interação social; 1 em cada 10 relatou que as conversas com IA são mais satisfatórias do que as conversas com humanos, e 1 em cada 3 relatou que escolheria companheiros de IA em vez de humanos para conversas sérias. À luz dessas evidências, os pesquisadores dizem que parece prudente considerar o uso problemático de chatbots como um novo fator de risco ambiental ao avaliar um paciente com estado mental alterado.
Nesses casos, eles propõem que os médicos comecem com uma pergunta gentil sobre o uso problemático de chatbots, especialmente durante os períodos de férias, quando as populações vulneráveis estão mais em risco, seguida, se necessário, de perguntas mais específicas para avaliar os padrões de uso compulsivo, dependência e vínculo emocional.
Reconhecendo que a IA pode trazer benefícios ao melhorar a acessibilidade e o suporte para pessoas que vivem na solidão, eles dizem que são necessários estudos empíricos "para caracterizar a prevalência e a natureza dos riscos das interações entre humanos e chatbots, desenvolver competências clínicas para avaliar o uso de IA pelos pacientes, implementar intervenções baseadas em evidências para dependência problemática e defender estruturas regulatórias que priorizem o bem-estar de longo prazo em vez de métricas de engajamento superficiais e míopes", argumentam os autores.
Esta notícia foi traduzida por um tradutor automático