Los iPhone van a tener una nueva función: seguimiento ocular impulsado por IA
Esta función también llegará a los tablets iPad
Apple aún no ha anunciado oficialmente el sistema operativo iOS 18 -ni tampoco iPadOS 18-, algo que se espera que ocurra el próximo mes cuando se celebrará el WWDC 2024. Sin embargo, ya están conociendo algunas de las nuevas funcionalidades de accesibilidad que se incluirán en las mencionadas actualizaciones. Entre ellas se espera una tecnología de seguimiento ocular que podrán disfrutar tanto los que tienen un iPhone como los propietarios de los iPad.
Por lo que parece, la compañía de Cupertino ha decidido incorporar la tecnología utilizada en el Vision Pro en dos de sus dispositivos más importantes. Esta funcionalidad, que empleará la cámara frontal, permitirá a los usuarios gestionar algunos apartados de uso simplemente mirando una área específica en la pantalla o dentro de una aplicación. A diferencia de otras tecnologías, no será necesario adquirir accesorios adicionales para habilitar el seguimiento ocular, lo que es un plus de cara a los usuarios.
No obstante, esta función requerirá una configuración y calibración rápida y se basará en el aprendizaje automático. Apple también ha indicado que el seguimiento ocular será compatible con la mayoría de las aplicaciones integrales de iOS y, como no, iPadOS.
Más opciones de accesibilidad en las que trabaja Apple
Otra innovadora característica de accesibilidad es Music Haptics, diseñada para ayudar a las personas con discapacidades auditivas. Al activarla, el motor de vibración del iPhone generará diferentes intensidades y cadenas en sintonía con la música que se esté reproduciendo. Este desarrollo, además, será compatible con la aplicación Apple Music.
Para aquellos que suelen experimentar mareo al viajar en coche, la nueva función Vehicle Motion Cues puede ser una solución eficaz. Esta funcionalidad asistirá a los usuarios en vehículos en movimiento al generar puntos animados dispersos en los bordes de la pantalla del iPhone o el iPad. El movimiento de estos corresponderá a la dirección del vehículo, detectados por el dispositivo, ayudando a reducir el “conflicto sensorial” que suele causar mareos.
Apple también está utilizando inteligencia artificial para introducir mejoras en el reconocimiento de voz en iOS 18. Entre estas mejoras se incluyen los Atajos Vocales, que permiten a los usuarios asignar expresiones personalizadas para mejorar el control al utilizar Siri. Además, la nueva función Listen for Atypical Speech utilizará el aprendizaje automático para reconocer mejor hasta conversaciones.
Otros desarrollos adicionales
Además de las funciones mencionadas, Apple planea incluir mejoras significativas a través de actualizaciones de software, como un Modo lectura También se presentará un nuevo touchpad virtual que acompañará a la función AssistiveTouch. Por otro lado, el Vision Pro recibirá la funcionalidad LiveCaption, que proyectará diálogos y transcripciones para aplicaciones de audio y durante llamadas FaceTime.
Se espera que muchas de estas nuevas herramientas de accesibilidad estén disponibles en las actualizaciones de iOS 18 y la propia para los tablets iPadOS 18, las cuales serán lanzadas a los iPhone y iPad compatibles en otoño. Estas innovaciones no solo mejorarán la experiencia del usuario, sino que también subrayan el compromiso continuo de Apple con la inclusión y la accesibilidad.
Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días