Google ha introducido una mejora significativa en la accesibilidad para los usuarios que utilizan el navegador Chrome en el sistema operativo Android. Ahora, los usuarios podrán hacer zoom sólo en el texto en lugar de ampliar las páginas web completas. Esta función pretende facilitar a los usuarios con dificultades visuales la lectura de contenidos sin comprometer el diseño de la página. Anteriormente, el zoom en Chrome afectaba a toda la página, ampliando tanto el texto como las imágenes, lo que dificultaba la navegación.
En el nuevo sistema, los usuarios pueden acceder a la configuración del zoom abriendo el menú de tres puntos situado en la esquina superior derecha. Desde aquí, el tamaño del texto puede ajustarse al nivel deseado con la ayuda de un control deslizante. Esta configuración puede aplicarse sólo a la página abierta en ese momento, o de forma permanente a todos los sitios web. De este modo, no es necesario reconfigurar cada vez que se visita un sitio web.
Sin embargo, puede decirse que esta actualización mejora no sólo la legibilidad, sino también la experiencia general del usuario. Ampliar el texto sin tocar el diseño de la página web facilita la navegación, sobre todo en sitios complejos. El sistema mejorado ofrece una solución más flexible para los usuarios que desean aumentar el tamaño de la fuente pero evitar distorsiones visuales o de diseño. Sin embargo, cabe señalar que esta función sólo está disponible en la plataforma Android.
Los documentos PDF escaneados ahora pueden convertirse directamente en texto
Otro paso de Google en el campo de la accesibilidad afecta a los usuarios de ordenadores de sobremesa. Gracias a la nueva función de reconocimiento óptico de caracteres (OCR) integrada en la versión de escritorio de Chrome, los documentos PDF escaneados pueden ahora reconocerse automáticamente. Así, el texto de dichos documentos puede copiarse, buscarse y leerse mediante lectores de pantalla. En cualquier caso, esta función puede suponer un importante ahorro de tiempo, especialmente para los usuarios que trabajan con documentos.
Esta función de OCR estuvo originalmente disponible para algunos usuarios en versión beta a principios de este año. Sin embargo, ahora está ampliamente disponible para todos los usuarios de escritorio. Los archivos PDF suelen crearse en un formato no editable, lo que dificulta el trabajo con este tipo de documentos. La nueva función también facilita el acceso a estos documentos a los usuarios con problemas de visión.
El tercer movimiento de Google en el campo de la accesibilidad es para TalkBack, la herramienta de lectura de pantalla de Android. TalkBack está ahora más fuertemente integrado con el modelo de inteligencia artificial de Google llamado Gemini. Gracias a esta integración, los usuarios pueden obtener descripciones más detalladas sobre las imágenes de la pantalla. Por ejemplo, se puede responder a preguntas como el color y la textura de un objeto en una imagen o su relación con otros objetos.
Este sistema de anotación basado en IA ayuda a los usuarios con discapacidad visual a comprender mejor los contenidos visuales. La tecnología de reconocimiento visual no sólo identifica objetos, sino que también proporciona una experiencia más holística al ofrecer explicaciones en contexto. Además, los usuarios no sólo pueden entender lo que hay en la imagen, sino también formular preguntas detalladas. Sin embargo, para utilizar este sistema con eficacia, es necesario que el dispositivo tenga instalada la versión actual de Android.
Además, Google también ha lanzado un nuevo sistema de subtítulos en dispositivos con Android 15 o superior. Esta función, denominada «Subtítulos expresivos», convierte en subtítulos en tiempo real no sólo el discurso, sino también el estilo del mismo. El emocionado «¡gooool!» de un locutor o el largo «noooooo» de un usuario se reflejan en los subtítulos con estas emociones. Además, los sonidos ambientales, como silbidos y toses, pueden reconocerse ahora en los subtítulos.
Actualmente, esta función de subtitulado sólo está disponible en inglés y en EE.UU., Reino Unido, Canadá y Australia. Aún no se dispone de un soporte lingüístico completo, pero se espera que esté disponible en más países en el futuro. Además, este sistema funciona independientemente de la aplicación y puede estar activo en casi todas las aplicaciones del teléfono. La inteligencia artificial no sólo transcribe la voz, sino que también reconoce y transcribe las entonaciones emocionales.