Resumo
- O evento Pixel 9 do Google demonstrou comprometimento com acessibilidade com atualizações de IA para dispositivos Pixel e Android.
- Novos recursos como o Guided Frame e o aplicativo Magnifier melhoram a experiência do usuário para pessoas com deficiência visual.
- As ferramentas Live Caption e Live Transcribe foram expandidas para incluir modo de tela dupla e suporte para sete novos idiomas.
O evento Pixel 9 do Google está em andamento e, além do bombardeio anual de chavões e hardware para acompanhá-lo, a empresa também está demonstrando seu comprometimento em tornar a tecnologia acessível a todos. Como parte de uma nova postagem de blog, a gigante da tecnologia detalhou quatro novas atualizações alimentadas por IA para acessibilidade do Pixel e Android, incluindo recursos como suporte aprimorado para câmera e mais idiomas para seus recursos Live Caption e Live Transcribe.
Relacionado
Recursos de acessibilidade do Android 14: o que há de novo e o que mudou
Mais opções chegaram para usuários com baixa visão e deficiência auditiva
O recurso Guided Frame do Google, lançado pela primeira vez com a série Pixel 7 em 2022, é um recurso de acessibilidade que faz parte da função TalkBack do Pixel e oferece instruções baseadas em áudio e gestos para ajudar você a enquadrar a foto perfeita.
O recurso é especialmente útil para usuários do Pixel com deficiência visual, ajudando-os a enquadrar não apenas a si mesmos para selfies, mas também animais de estimação, alimentos, documentos, dispositivos eletrônicos e veículos.
Anteriormente limitada ao TalkBack, a ferramenta agora pode ser ativada diretamente nas configurações da câmera e, de acordo com o Google, agora ela deve ser capaz de “focar melhor nos objetos, mesmo em cenas complexas”, oferecer filtragem de rosto em fotos de grupo e proporcionar uma experiência geral de reconhecimento de objetos aprimorada.
Em outro lugar, o aplicativo Magnifier do Google, que usa a câmera do seu telefone para melhorar e ampliar o mundo ao seu redor, também está ficando mais inteligente. Agora, bem no visor da câmera do aplicativo, os usuários poderão encontrar palavras específicas. Isso pode ser especialmente útil se você quiser olhar para algo específico em um menu de comida, ou “se você estiver procurando o horário de partida do seu voo no aeroporto”.
Um novo modo PiP no aplicativo também permitirá que você tenha uma visão ampliada, mantendo os detalhes na tela, juntamente com uma opção para selecionar qual lente você gostaria de usar para ampliação.
Expansão de legendas ao vivo e transcrição ao vivo
Relacionado
Como usar o Google Live Transcribe
O Google simplifica a tecnologia assistiva
As ferramentas de acessibilidade Live Caption e Live Transcribe do Google, embora semelhantes, atendem a propósitos diferentes. O Live Caption foca mais em fornecer legendas em tempo real para o som no seu dispositivo, enquanto o Live Transcribe foca em transcrever sons ao seu redor, como durante conversas.
Para o Live Transcribe, o Google está lançando um recurso de modo de tela dupla exclusivo para dispositivos dobráveis. De acordo com o Google, isso deve ajudar todos os falantes de uma conversa a verem suas próprias transcrições durante uma conversa. “Com o modo de tela dupla, você pode facilmente colocar seu telefone em uma postura de mesa em qualquer superfície para melhor visibilidade das transcrições.
Fonte: Google
Agora, todos ao redor da mesa podem acompanhar a conversa — não importa se você está participando de uma reunião ou conversando com amigos durante um jantar”, escreveu a gigante da tecnologia.
Relacionado
O Live Caption do Google pode se tornar mais personalizado com configurações de intensidade emocional e emoji
Gritando com ênfase
Por outro lado, o Google está expandindo o suporte ao Live Caption para sete novos idiomas, a saber: coreano, polonês, português, russo, chinês, turco e vietnamita. Esses sete idiomas também podem ser usados para o Live Transcribe offline.
Fonte: Google