¿Es su iPhone, iPad o Mac un poco difícil de usar? Por suerte para usted, Apple ha anunciado funciones de accesibilidad clave que llegan a todos sus dispositivos a finales de este año. Estos incluyen el lector de accesibilidad, que hace que las fuentes pequeñas sean más fáciles de leer, y las señales de movimiento del vehículo, que evitan el mareo de movimiento mientras usan dispositivos Apple en vehículos. Si algunos de estos suenan familiares, es porque ya pueden estar en uno o dos dispositivos Apple, pero ahora también están listos para otros. Si bien la compañía ya se ha inclinado sobre lo que está en proceso, espere escuchar más detalles durante la WWDC 2025, programada del 9 al 13 de junio. Ahí es donde Apple generalmente presenta todas sus actualizaciones anuales del sistema operativo y, a veces, incluso muestra un nuevo hardware.
Mientras tanto, aquí están todas las nuevas funciones de accesibilidad que actualmente sabemos que llegarán a Apple Devices a finales de este año:
El lector de accesibilidad hace que el texto sea más fácil de leer
Crédito: Apple
Muchas personas encuentran difícil tamaños de texto o fuentes predeterminados. El lector de accesibilidad es una nueva característica diseñada para ayudar con eso. Le permite personalizar el texto en su dispositivo Apple para que sea más fácil de leer. Puede cambiar la fuente, el color, el espacio y hacer que su dispositivo Apple lea el texto por usted. Puede pensar en ello como el modo lector para el texto en cualquier archivo (o incluso en el mundo real, que tocaré en breve), o como texto a voz mejorada. Esto se debe a que el lector de accesibilidad se puede lanzar desde cualquier aplicación, según Apple. También se puede combinar con la aplicación de lupa en sus dispositivos Apple, lo que significa que puede acercarse al texto en el mundo real y usar esta función para leerla más fácilmente. Esta característica estará disponible en iPhone, iPad, Mac y Apple Vision Pro.
La lupa llega a la mac
Crédito: Apple
Su iPhone se envía con una lupa incorporada, que es la aplicación de lupa. Esta es una importante ayuda de accesibilidad para muchas personas que tienen baja visión, y ahora Apple dice que está llegando a la Mac. En la Mac, podrá conectar la lupa a cámaras externas también, incluido su iPhone si lo está utilizando como cámara web a través de la cámara de continuidad. Según Apple, podrá ajustar el brillo, el contraste, los filtros de color y la perspectiva para que sea más fácil ver las cosas con lupa para Mac, según Apple.
Las etiquetas de nutrición de accesibilidad están llegando a la App Store
Crédito: Apple
La App Store agregó ‘Etiquetas de nutrición de privacidad’ a listados de aplicaciones hace unos años, lo que le ayuda a ver rápidamente si las aplicaciones están recopilando sus datos. Ahora, la App Store está agregando etiquetas de nutrición de accesibilidad para ayudarlo a verificar si una aplicación admite las funciones de accesibilidad que necesita. Apple dice que estas etiquetas reconocerán si una aplicación admite voz en off, control de voz, texto más grande, contraste suficiente, movimiento reducido, subtítulos y más.
Aún así, realmente deseo que Apple agregue mejores filtros de búsqueda a la App Store. Me encantaría filtrar aplicaciones que recopilen datos y carecen de soporte para funciones de accesibilidad específicas, y actualmente no hay una forma real de hacerlo.
Soporte de braille mejorado en dispositivos Apple
Crédito: Apple
Apple también dice que está agregando acceso Braille a su iPhone, iPad, Mac y Apple Vision Pro. Esta característica agrega un tomador de notas Braille a sus dispositivos, e incluso puede realizar cálculos con Nemeth Braille (que a menudo se usa en las aulas de matemáticas y ciencias). Braille Access también puede abrir archivos BRF (formato de preparación Braille), que permitirá a las personas acceder a libros y archivos creados en dispositivos de toma de notas Braille.
Los subtítulos en vivo están ahora en el Apple Watch
Crédito: Apple
Live Listen es una característica de Apple que hace que las cosas sean más fáciles de escuchar para las personas sordas o con problemas de audición. Apple dice que los controles de Live Listen pronto también se agregarán a su Apple Watch, y el dispositivo podrá mostrar subtítulos en vivo en tiempo real. Esto funciona convirtiendo su iPhone en un micrófono remoto que se transmite directamente a audífonos hechos para impuestos, airpods o late auriculares, y cuando esto esté activo, podrá ver los subtítulos directamente en un Apple Watch emparejado, según Apple.
El reloj puede comenzar o terminar las sesiones de escucha en vivo, lo que le permitirá colocar el iPhone cerca de la persona que habla y seguir la conversación a poca distancia en su Apple Watch. Esto podría ser excelente para aprender en un aula y otras situaciones similares.
¿Qué piensas hasta ahora?
Las señales de movimiento del vehículo llegan a la Mac
Crédito: Apple
Desde que se lanzaron el año pasado en el iPhone, las señales de movimiento del vehículo han sido indispensables para mí. La característica funciona mostrando puntos móviles en la pantalla que corresponden a la dirección del movimiento de un vehículo, y ahora está llegando a la Mac, dice Apple.
Siempre he sufrido un mareo, lo que me dificulta ver pantallas mientras estoy en vehículos en movimiento. Incluso si de otra manera estoy bien en un automóvil o un autobús, empiezo a sentir muy nauseos si miro una pantalla, leo un libro o intento cualquier cosa que requiera que me concentre en un objeto fijo. Desde que Apple lanzó las señales de movimiento del vehículo el año pasado, finalmente pude usar mi iPhone cuando soy un pasajero en vehículos. Si esta característica funciona tan bien en la Mac, estoy emocionado de usarla para ver videos cuando conduzco en un automóvil. La compañía también dijo que está planeando permitirle más control sobre cómo se muestran estos puntos en su pantalla.
Características de accesibilidad mejoradas en el Vision Pro
Crédito: Apple
Apple Vision Pro está configurado para obtener una nueva vista mejorada, que le permitirá magnificar todo lo que esté a la vista a través de la cámara principal del dispositivo. Apple dice que la función de reconocimiento en vivo utilizará el aprendizaje automático en el dispositivo para describir los alrededores, encontrar objetos, leer documentos y más. La compañía también planea permitir una nueva API para permitir que algunas aplicaciones accedan a la cámara principal de Vision Pro, lo que ayudará a los desarrolladores a crear aplicaciones que aprovechen al máximo estas funciones de accesibilidad.
Otras actualizaciones importantes
Apple también reveló un montón de otras características relacionadas con la accesibilidad más pequeñas. Aquí hay algunos de mis favoritos:
Los sonidos de fondo, que le permiten reproducir sonidos de la naturaleza o ruido oscuro, obtendrán más opciones de personalización, un temporizador para dejar de reproducir después de un tiempo y nuevas acciones para la automatización a través de atajos.
La voz personal, que recrea las voces de las personas que están perdiendo la capacidad de hablar, será más rápida y fácil de usar, dice Apple. La característica podrá crear una voz de sonido más natural en menos de un minuto con 10 frases grabadas, según la compañía.
Compartir la configuración de accesibilidad le permite compartir temporalmente sus ajustes de accesibilidad con otros dispositivos Apple, como cuando usa un iPad para realizar un pedido o pedir prestado el dispositivo de un amigo por un momento.
Puede consultar la lista completa de actualizaciones de accesibilidad y contenido en el sitio web de Apple.









