A Apple anunciou hoje (17) novas funções de acessibilidade que serão incluídas nos seus dispositivos físicos (como iPhone e iPad) e versões de sistema operacional ao longo do ano de 2022.
Entre as novidades estão: um sistema de detecção de portas para pessoas cegas ou com baixa visão e a transcrição de áudio nativa para pessoas com baixa audição. Confira a seguir mais detalhes.
Detecção de portas
A partir da atualização de sistema, será possível usar um iPhone para detectar a presença de uma porta e ter informações sobre a distância em que se encontra, se abre para frente, ao puxar ou se é de correr. Além disso, o aparelho conseguirá ler se existem símbolos, números e avisos nessa porta.
O recurso estará disponível no Magnifier, aplicativo integrado da Apple que oferece suporte a consumidores cegos ou com baixa visão. Hoje a empresa já possui recursos de detecção de pessoas e descrições de imagem.
Os dispositivos compatíveis com a atualização serão os que possuem o sensor LiDAR, um sistema de scanner proprietário da marca, segundo a empresa. Modelos mais recentes de iPhones e iPads possuem a tecnologia.
Veja como deve funcionar o novo recurso de acessibilidade:
Transcrição de áudio e legendas
Outro recurso de acessibilidade divulgado pela Apple é o sistema de transcrição de áudio e reprodução de legendas Live Caption. Com ele, as pessoas que sentirem a necessidade poderão acompanhar conteúdos que contenham som em diferentes ferramentas do ecossistema da Apple.
Exemplos: em uma ligação telefônica, no app de conversas por vídeo FaceTime, ao assistir um conteúdo nas redes sociais ou mesmo um conteúdo transmitido em outro dispositivo próximo.
A Apple diz que o recurso Live Action vai inserir legendas ao vivo nas ligações pelo FaceTime, seja em chamadas diretas ou reuniões em grupo — hoje, o Google oferece solução semelhante no seu serviço Meeting.
A empresa afirma que as transcrições geradas no Live Captions são feitas no dispositivo, portanto, as informações do usuário ficam privadas e seguras, sem passar pela nuvem.
O Live Captions funcionará no iPhone, no iPad e nos computadores Mac.
Assista a demonstração divulgada pela empresa:
Outros recursos que chegarão ao longo do ano
- VoiceOver: a marca anunciou também a ampliação de idiomas do VoiceOver. Com ele, o dispositivo descreve tudo o que acontece na tela do aparelho — já funciona em português faz um tempo. Até agora, são mais de 20 línguas –as novas são bengali, búlgaro, catalão, ucraniano e vietnamita.
- Buddy Controller: recursos em que a pessoa pode pedir a um profissional de saúde ou amigo para ajudá-los a jogar um game;
- Siri Pause Time: usuários poderão ajustar o tempo de resposta da assistente pessoal Siri antes que ela responda a uma solicitação;
- Reconhecimento de Som: o recurso poderá ser personalizado para reconhecer sons específicos do ambiente em que uma pessoa se encontra, como alarme, campainha de casa ou sons emitidos por eletrodomésticos.
- Gestos no Apple Watch: gestos de mão poderão ser usados para controlar o relógio da Apple, como um gesto de pinça dupla para atender ou encerrar uma ligação, dispensar uma notificação, tirar uma foto, reproduzir ou pausar mídia, explica a empresa.