Em breve, o Google Lens poderá ouvir avisos de áudio

Resumo

  • O Google Lens está testando avisos de áudio, permitindo aos usuários refinar suas consultas de pesquisa sem tocar na tela, tornando-a mais conveniente.
  • O novo recurso visa agilizar a experiência do usuário do Lens, eliminando a necessidade de vários toques na tela, economizando tempo e melhorando a acessibilidade.
  • Embora o novo fluxo de trabalho ainda esteja em testes e ainda não esteja disponível ao público, ele tem o potencial de acelerar pesquisas por informações específicas com uma combinação de avisos sonoros e visuais.


A pesquisa é o principal negócio do Google, e a empresa admitiu recentemente que o Chrome existe com o único propósito de tornar a pesquisa acessível. Ferramentas como Google Lens e Assistant estão no mesmo barco, servindo como veículos para aprimorar a Pesquisa. No entanto, um se concentra distintamente em dicas visuais enquanto o outro escuta consultas e comandos. Agora, parece que o Google está testando prompts de áudio para o Lens, especialmente para refinar as consultas como você faria com o Multisearch.

O Google Lens funciona com todos os nossos telefones Android favoritos e tudo que você precisa fazer é apontar a câmera para a pergunta e tocar no botão do obturador para obter as respostas. O Lens pode ajudar a traduzir texto em tempo real, copiar texto impresso para a área de transferência do seu dispositivo, fazer sua lição de casa e encontrar o preço dos itens que deseja comprar. O Google percebeu recentemente que o Lens é apenas um ponto de partida para a experiência de pesquisa do usuário, e eles geralmente acessam a barra do Google ou uma nova guia do navegador para realizar uma pesquisa de acompanhamento com uma consulta mais detalhada em mente. Isso deu origem ao Multisearch e Multisearch perto de mim em Lens no ano passado.

A Multisearch oferece a opção de refinar sua consulta de pesquisa diretamente no Lens. Isso significa que você pode começar tirando uma foto de um vestido que você gosta e, em seguida, iniciar o Multisearch para encontrar outras cores disponíveis. Embora isso evite o incômodo de abrir uma nova guia do navegador e pesquisar, ainda é necessário tirar uma foto do item, tocando novamente para abrir Multisearch e digitando sua consulta manualmente.

O popular observador de recursos e consertador AssembleDebug do canal GAppsLeaks no Telegram detectou recentemente o Google testando secretamente uma nova maneira de simplificar ainda mais o Lens. Depois de ativar alguns sinalizadores ocultos no aplicativo, o novo recurso permitiu que você simplesmente apontasse o dispositivo para um item e declarasse em voz alta seus parâmetros de refinamento de pesquisa.

O novo fluxo de trabalho elimina todos os toques na tela, tornando o Lens muito mais fácil de usar, mesmo quando você procura informações bastante específicas na Pesquisa. A interação reduzida com a tela economiza tempo e também ajuda na acessibilidade. Dito isso, o AssembleDebug não menciona se o Google está usando a tecnologia de correspondência de voz do Assistant nos bastidores, mas suspeitamos que pode ser útil filtrar diafonias e ruídos quando você está falando.

Como esse novo recurso do Lens ainda está oculto atrás de sinalizadores no aplicativo, fica claro que os testes estão em andamento. No entanto, o Google ainda não disse nada sobre uma mudança tão drástica no Lens. Até que um anúncio oficial ou um teste beta público apareça, não temos grandes esperanças de ver isso chegar ao usuário médio do Lens tão cedo.