Topo

iPhone vai detectar portas e transcrever áudios; confira novidades da Apple

Mike Segar/Reuters
Imagem: Mike Segar/Reuters

Lucas Santana

Colaboração para Tilt

17/05/2022 17h06

A Apple anunciou hoje (17) novas funções de acessibilidade que serão incluídas nos seus dispositivos físicos (como iPhone e iPad) e versões de sistema operacional ao longo do ano de 2022.

Entre as novidades estão: um sistema de detecção de portas para pessoas cegas ou com baixa visão e a transcrição de áudio nativa para pessoas com baixa audição. Confira a seguir mais detalhes.

Detecção de portas

A partir da atualização de sistema, será possível usar um iPhone para detectar a presença de uma porta e ter informações sobre a distância em que se encontra, se abre para frente, ao puxar ou se é de correr. Além disso, o aparelho conseguirá ler se existem símbolos, números e avisos nessa porta.

O recurso estará disponível no Magnifier, aplicativo integrado da Apple que oferece suporte a consumidores cegos ou com baixa visão. Hoje a empresa já possui recursos de detecção de pessoas e descrições de imagem.

Os dispositivos compatíveis com a atualização serão os que possuem o sensor LiDAR, um sistema de scanner proprietário da marca, segundo a empresa. Modelos mais recentes de iPhones e iPads possuem a tecnologia.

Veja como deve funcionar o novo recurso de acessibilidade:

Transcrição de áudio e legendas

Outro recurso de acessibilidade divulgado pela Apple é o sistema de transcrição de áudio e reprodução de legendas Live Caption. Com ele, as pessoas que sentirem a necessidade poderão acompanhar conteúdos que contenham som em diferentes ferramentas do ecossistema da Apple.

Exemplos: em uma ligação telefônica, no app de conversas por vídeo FaceTime, ao assistir um conteúdo nas redes sociais ou mesmo um conteúdo transmitido em outro dispositivo próximo.

A Apple diz que o recurso Live Action vai inserir legendas ao vivo nas ligações pelo FaceTime, seja em chamadas diretas ou reuniões em grupo — hoje, o Google oferece solução semelhante no seu serviço Meeting.

A empresa afirma que as transcrições geradas no Live Captions são feitas no dispositivo, portanto, as informações do usuário ficam privadas e seguras, sem passar pela nuvem.

O Live Captions funcionará no iPhone, no iPad e nos computadores Mac.

Assista a demonstração divulgada pela empresa:

Outros recursos que chegarão ao longo do ano

  • VoiceOver: a marca anunciou também a ampliação de idiomas do VoiceOver. Com ele, o dispositivo descreve tudo o que acontece na tela do aparelho -- já funciona em português faz um tempo. Até agora, são mais de 20 línguas --as novas são bengali, búlgaro, catalão, ucraniano e vietnamita.
  • Buddy Controller: recursos em que a pessoa pode pedir a um profissional de saúde ou amigo para ajudá-los a jogar um game;
  • Siri Pause Time: usuários poderão ajustar o tempo de resposta da assistente pessoal Siri antes que ela responda a uma solicitação;
  • Reconhecimento de Som: o recurso poderá ser personalizado para reconhecer sons específicos do ambiente em que uma pessoa se encontra, como alarme, campainha de casa ou sons emitidos por eletrodomésticos.
  • Gestos no Apple Watch: gestos de mão poderão ser usados para controlar o relógio da Apple, como um gesto de pinça dupla para atender ou encerrar uma ligação, dispensar uma notificação, tirar uma foto, reproduzir ou pausar mídia, explica a empresa.