Tecnología

Apple lanza una serie de nuevas funciones de accesibilidad para iPhone, Watch y más

El miércoles, manzana Anunciado un montón de nuevas funciones de accesibilidad que llegan a los iPhones, iPads y Apple Watch. Las nuevas funciones y servicios se lanzarán en los próximos días, semanas y meses.

La primera característica en llegar será un nuevo servicio llamado SignTime, que Apple dice que se lanzará mañana, 20 de mayo. SignTime permitirá a los usuarios comunicarse con los representantes de servicio al cliente de Apple (AppleCare o Retail Customer Care) utilizando lenguaje de señas. El servicio se lanzará por primera vez en EE. UU., Reino Unido y Francia con lenguaje de señas estadounidense, lenguaje de señas británico y lenguaje de señas francés, respectivamente. Además, los clientes de las tiendas Apple podrán usar SignTime para contactar a un intérprete mientras compran u obtienen asistencia al cliente sin tener que programar una cita con anticipación.

Si bien se acerca la llegada de SignTime, las actualizaciones de software cargadas con nuevas características que tienen como objetivo hacer que el software y el hardware de Apple sean más accesibles para las personas con discapacidades cognitivas, de movilidad, auditivas y visuales llegarán a las plataformas de Apple a finales de este año.

Por ejemplo, los usuarios podrán navegar por el Apple Watch usando AssistiveTouch, que ya estaba disponible en el iPad y el iPhone para ayudar a los usuarios con dificultades para tocar la pantalla. La función utilizará los sensores de movimiento y el sensor de frecuencia cardíaca del reloj para “detectar diferencias sutiles en el movimiento de los músculos y la actividad de los tendones” como entrada que permite a los usuarios mover un cursor en la pantalla.

Apple también planea lanzar mejoras importantes en su lector de pantalla VoiceOver para usuarios ciegos o con baja visión. Apple dice que VoiceOver podrá leer el contenido de un recibo de una manera más útil. VoiceOver también podrá describir la posición de personas y objetos en fotografías. En su publicación en la sala de redacción sobre el tema, Apple ofrece lo siguiente como ejemplo de lo que VoiceOver podría decir para describir parte de una foto: “Perfil ligeramente a la derecha de la cara de una persona con cabello castaño rizado sonriendo”.

Pronto, iPadOS también admitirá dispositivos de seguimiento ocular MFi de terceros. Los usuarios discapacitados utilizan estos dispositivos para controlar dispositivos informáticos con sus ojos. Un puntero sigue la mirada del usuario y se pueden realizar acciones cuando el usuario mantiene contacto visual en un elemento de la interfaz de usuario durante un período corto.

Y dado que estamos hablando de dispositivos MFi, Apple está agregando soporte para nuevos audífonos bidireccionales para ayudar con las conversaciones telefónicas con manos libres y FaceTime.

Debido a que algunos usuarios pueden distraerse o sentirse abrumados por los sonidos de fondo, Apple presenta una nueva función para los usuarios neurodiversos: sonidos de fondo relajantes que se reproducen en todo el sistema operativo (como los sonidos del océano o la lluvia) para bloquear el ruido exterior que puede causar incomodidad. . “Los sonidos se mezclan u ocultan en otros sonidos de audio y del sistema”, dice Apple.

Apple no ha detallado cuándo se materializarán estas nuevas funciones, solo que vendrán con nuevas actualizaciones de software a finales de este año.

Imagen de lista por Samuel Axon

READ  Instagram relanzará su aplicación Lite en 170 países con soporte para Reels

Federico Pareja

"Escritora típica. Practicante de comida malvada. Genio zombi. Introvertido. Lector. Erudito de Internet. Entusiasta del café incondicional".

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar
Cerrar