MADRI 16 maio (Portaltic/EP) -
A Meta adicionou um recurso de acessibilidade aos seus óculos inteligentes Ray-Ban Meta, que fornecerá descrições mais detalhadas do que o usuário está vendo, enquanto continua a explorar os recursos de interação humano-computador para oferecer novas formas de comunicação.
O assistente Meta AI será capaz de fornecer respostas detalhadas nos óculos Ray-Ban Meta com base no que está à sua frente, sempre que o usuário solicitar, com o objetivo de ser "especialmente útil para a comunidade cega e de baixa visão".
A empresa de tecnologia anunciou que esse novo recurso estará disponível para todos os usuários nos EUA e no Canadá nas próximas semanas e será expandido para outros mercados em um futuro próximo, informou a empresa em seu site.
A Meta também adicionou um recurso chamado 'Chame um voluntário', criado em colaboração com a Be My Eyes, que conectará pessoas cegas ou com baixa visão a uma rede de voluntários em tempo real para ajudá-las com o que quer que estejam fazendo, conforme relatado pela empresa, que também disse que será lançado no final do mês para todos os países que suportam a Meta AI.
Essas funções se somam àquelas já incorporadas pela empresa liderada por Mark Zuckerberg aos óculos inteligentes, que já têm as opções de capturar e compartilhar fotos, enviar mensagens de texto ou de voz, fazer chamadas telefônicas, fazer chamadas de vídeo, ouvir música, traduzir voz em tempo real e interagir com a Meta AI para obter ajuda.
RECURSOS ADICIONAIS DE ACESSIBILIDADE
A Meta também está explorando os recursos de interação humano-computador para pessoas com diversas capacidades físicas, incluindo aquelas com paralisia ou tremor nas mãos, com o objetivo de desenvolver pulseiras de eletromiografia de superfície para interações móveis com sistemas de computador. Essas pulseiras já foram usadas no Orion, seu protótipo de óculos de realidade aumentada.
No metaverso, a Meta incorporou legendas em tempo real e voz ao vivo no sistema de visualização Quest, o chamado Meta Horizon e a plataforma Horizon Worlds. A primeira função converte o que as pessoas dizem em texto, para que possa ser lido enquanto é reproduzido. A segunda converte o texto em áudio sintético.
Esta notícia foi traduzida por um tradutor automático