Dos ingenieros de iOS explican cómo Apple se aproxima a las funciones de accesibilidad en una nueva entrevista
Entrevistas

Dos ingenieros de iOS explican cómo Apple se aproxima a las funciones de accesibilidad en una nueva entrevista

Ya hemos visto en muchas ocasiones como Apple prioriza la accesibilidad de sus servicios y plataformas hasta límites insospechados. En iOS 14 y iPadOS 14, aunque haya podido pasar desapercibido para muchos, Apple ha dado un empujón más a la accesibilidad, algo que nos cuentan un par de ingenieros en una nueva entrevista.

Accesibilidad desde la concepción del producto

Captura De Pantalla 2020 12 07 A Las 10 06 50

Tras el rediseño de su sitio web sobre accesibilidad Apple ha querido continuar destacando la labor de sus equipos en facilitar que sus productos puedan ser utilizados por todo el mundo. El ingeniero de accesibilidad de iOS Chris Fleizach y el miembro del equipo de inteligencia artificial Jeff Bigham han concedido una entrevista a TechCrunch en la que han hablado sobre cómo la compañía ha evolucionado las capacidades de accesibilidad de iOS 13 gracias a la cooperación y al Machine Learning.

Una de las mayores mejoras en la accesibilidad de iOS 14 ha sido la posibilidad de que el sistema reconozca el contenido de la pantalla. Esta es una nueva iteración respecto a VoiceOver. Para que VoiceOver funcione los desarrolladores deben etiquetar correctamente sus menús, botones y secciones para que el sistema pueda leer en voz alta las etiquetas y permitir así una navegación a las personas que tienen alguna dificultad visual. En iOS 14 el reconocimiento de pantalla utiliza "la inteligencia del dispositivo para reconocer los elementos de la pantalla y mejorar VoiceOver para apps y la web".

Captura De Pantalla 2020 12 07 A Las 10 06 22

Es un sistema de reconocimiento de contenido basado en inteligencia artificial que funciona íntegramente en el dispositivo. Fleizach explica cómo se ha conseguido la velocidad y precisión necesarias para que esta función sea útil a los usuarios:

Buscamos áreas en las que podamos hacer avances en la accesibilidad, como las descripciones de imágenes. En el iOS 13 etiquetamos los iconos automáticamente, pero el reconocimiento de pantalla va un paso más adelante. Podemos mirar los píxeles de la pantalla e identificar la jerarquía de los objetos con los que se puede interactuar y todo esto ocurre en el dispositivo en décimas de segundo.

Una función que, según Bigham, es fruto y solo posible gracias a la cooperación entre equipos:

"VoiceOver" ha sido el abanderado de la accesibilidad a la visión durante mucho tiempo. Si nos fijamos en los pasos del desarrollo del reconocimiento de pantalla, se basó en la colaboración entre equipos: accesibilidad, recogida de datos y anotación, AI/ML y, por supuesto, el equipo de diseño. Lo hicimos así para asegurarnos de que el desarrollo de Machine Learning continuara moviendo hacia adelante una excelente experiencia de usuario.

Sin duda una labor que ha llevado tiempo y recursos, ya que se han tenido que capturar y etiquetar miles de capturas de pantalla para entrenar al sistema:

Se hizo tomando miles de capturas de pantalla de aplicaciones y juegos populares, y luego etiquetándolas manualmente como uno de los varios elementos estándar de la interfaz de usuario. Estos datos etiquetados se introdujeron en el sistema de aprendizaje automático, que pronto se convirtió en experto en la selección de esos mismos elementos por su cuenta.

Está claro que en Apple no solamente quieren que los usuarios tengan la mejor experiencia al usar sus productos sino que quieren que todos los usuarios puedan usar esos productos. Una labor que viene de lejos y que con los avances actuales cobra más fuerza y versatilidad que nunca.

Temas
Comentarios cerrados
Inicio