A Apple lançou vários novos recursos de acessibilidade para iOS e iPadOS. O gigante de Cupertino está dobrando seu compromisso de fazer “tecnologia acessível para todos” com esta atualização. Os novos aprimoramentos de acessibilidade, incluindo acessibilidade cognitiva, Live Speech e muito mais, aproveitarão o hardware integrado dos dispositivos e os recursos de aprendizado de máquina. Continue lendo abaixo para saber mais.
Novos recursos de acessibilidade para iPhone e iPad
Um dos recursos anunciados recentemente é Acesso Assistivo para Deficiência Cognitiva. Como fica evidente no nome, usuários com complicações como autismo, Alzheimer e assim por diante geralmente acham difícil navegar pelos elementos em seus smartphones. Esse recurso organizará aplicativos e elementos do sistema operacional para manter intactas apenas as principais funcionalidades.
Esse recurso funcionará com o telefone, FaceTime, câmera e outros aplicativos de motorista diários. Com esse recurso ativado, os usuários poderão interagir com texto ampliado e botões de alto contraste e apenas as funcionalidades que importam. Isso é construído com base nos dados e feedback coletados de apoiadores confiáveis e pessoas com distúrbios cognitivos.

Outra novidade é Discurso ao vivo e voz pessoal, cujo objetivo é tornar a tecnologia acessível a pessoas com problemas de voz como ALS. O recurso Live Speech permitirá que os usuários digitem suas palavras e deixem seu iPhone ou iPad expressá-las em voz alta. Esse recurso será útil durante conversas pessoais e conversas virtuais.
Por outro lado, o Voz pessoal O recurso está um degrau acima do recurso Live Speech. Ele permite que usuários com deficiências de voz em estágios iniciais gravem uma impressão de áudio de sua própria voz. Isso significa que sempre que você quiser se comunicar com alguém e digitar sua resposta, ela será reproduzida com sua própria voz, em vez de uma voz robótica genérica. A funcionalidade usa aprendizado de máquina no dispositivo e um conjunto de prompts predefinidos para criar sua impressão de voz de maneira segura.

Para os usuários com baixa visão ou que estão perdendo a capacidade de enxergar, a Apple introduziu um recurso de acessibilidade chamado Aponte e fale para o modo de detecção na lupa. Esse recurso permitirá que os usuários recebam prompts de áudio para elementos com textos. Por exemplo, se você estiver digitando no teclado, cada pressionamento de tecla terá um prompt de voz associado a eles. A Apple consegue esse feito combinando o sensor LiDAR no dispositivo, aplicativo de câmera e recursos de aprendizado de máquina. Usando o recurso de lupa, os usuários podem obter comandos de voz para quaisquer elementos de texto que o aplicativo da câmera escolher.

Alguns dos outros anúncios incluem dispositivos auditivos feitos para iPhone para usuários com deficiência auditiva, guias de controle de voz para os usuários aprenderem dicas e truques sobre recursos de controle de voz e muito mais. A Apple começará a distribuir esses recursos de acessibilidade para usuários de iPhone e iPad até o final deste ano. Então, o que você acha desses novos aprimoramentos de acessibilidade? Você acha que esses recursos irão beneficiá-lo de alguma forma? Comente seus pensamentos abaixo.
A Apple lançou vários novos recursos de acessibilidade para iOS e iPadOS. O gigante de Cupertino está dobrando seu compromisso de fazer “tecnologia acessível para todos” com esta atualização. Os novos aprimoramentos de acessibilidade, incluindo acessibilidade cognitiva, Live Speech e muito mais, aproveitarão o hardware integrado dos dispositivos e os recursos de aprendizado de máquina. Continue lendo abaixo para saber mais.
Novos recursos de acessibilidade para iPhone e iPad
Um dos recursos anunciados recentemente é Acesso Assistivo para Deficiência Cognitiva. Como fica evidente no nome, usuários com complicações como autismo, Alzheimer e assim por diante geralmente acham difícil navegar pelos elementos em seus smartphones. Esse recurso organizará aplicativos e elementos do sistema operacional para manter intactas apenas as principais funcionalidades.
Esse recurso funcionará com o telefone, FaceTime, câmera e outros aplicativos de motorista diários. Com esse recurso ativado, os usuários poderão interagir com texto ampliado e botões de alto contraste e apenas as funcionalidades que importam. Isso é construído com base nos dados e feedback coletados de apoiadores confiáveis e pessoas com distúrbios cognitivos.

Outra novidade é Discurso ao vivo e voz pessoal, cujo objetivo é tornar a tecnologia acessível a pessoas com problemas de voz como ALS. O recurso Live Speech permitirá que os usuários digitem suas palavras e deixem seu iPhone ou iPad expressá-las em voz alta. Esse recurso será útil durante conversas pessoais e conversas virtuais.
Por outro lado, o Voz pessoal O recurso está um degrau acima do recurso Live Speech. Ele permite que usuários com deficiências de voz em estágios iniciais gravem uma impressão de áudio de sua própria voz. Isso significa que sempre que você quiser se comunicar com alguém e digitar sua resposta, ela será reproduzida com sua própria voz, em vez de uma voz robótica genérica. A funcionalidade usa aprendizado de máquina no dispositivo e um conjunto de prompts predefinidos para criar sua impressão de voz de maneira segura.

Para os usuários com baixa visão ou que estão perdendo a capacidade de enxergar, a Apple introduziu um recurso de acessibilidade chamado Aponte e fale para o modo de detecção na lupa. Esse recurso permitirá que os usuários recebam prompts de áudio para elementos com textos. Por exemplo, se você estiver digitando no teclado, cada pressionamento de tecla terá um prompt de voz associado a eles. A Apple consegue esse feito combinando o sensor LiDAR no dispositivo, aplicativo de câmera e recursos de aprendizado de máquina. Usando o recurso de lupa, os usuários podem obter comandos de voz para quaisquer elementos de texto que o aplicativo da câmera escolher.

Alguns dos outros anúncios incluem dispositivos auditivos feitos para iPhone para usuários com deficiência auditiva, guias de controle de voz para os usuários aprenderem dicas e truques sobre recursos de controle de voz e muito mais. A Apple começará a distribuir esses recursos de acessibilidade para usuários de iPhone e iPad até o final deste ano. Então, o que você acha desses novos aprimoramentos de acessibilidade? Você acha que esses recursos irão beneficiá-lo de alguma forma? Comente seus pensamentos abaixo.