Publicidad

Un vídeo reproduce el funcionamiento de las Apple Glasses y os explicamos cómo sería su funcionamiento
Desarrollo de software

Un vídeo reproduce el funcionamiento de las Apple Glasses y os explicamos cómo sería su funcionamiento

Publicidad

Publicidad

El pasado día 10 de septiembre, junto al lanzamiento de las versiones Golden Master de iOS 13 y la beta 3 de la 13.1, a Apple se le "coló" algo. Normalmente cuando se lanzan estas versiones, suelen estar "limpias" de cualquier librería asociada a productos que Apple no ha anunciado todavía, sobre todo desde que es más normal que medios de comunicación tengan acceso a desarrolladores que pueden, por ingeniería inversa, buscar algo que "no debería estar ahí".

En esta ocasión, ese "despiste", propició que el conocido desarrollador Steven Troughton-Smith, encontrara un fichero README de los que acompañan a título informativo a cualquier librería. En él se detallan instrucciones precisas de cómo probar la librería StarBoard (una que no existe en estos momentos de forma pública para ningún dispositivo).

StarBoard README

En estas instrucciones podemos ver los comandos a ejecutar y la forma de acceder a pruebas de software sin contar con el denominado "HME" que sería el dispositivo físico de las futuras lentes de realidad aumentada de Apple. En él nos explica que este dispositivo tiene dos modos: el modo "pausa" o "held" y el modo "worn" que vendría a ser algo así como "vestidas". Estos modos estarían pensados para probar las apps en un modo dual.

Como desarrollador, me puse a echar un vistazo a los nombres de funciones y parámetros que reciben estos modos y cómo trabajan con las vistas que dan funcionalidad a las escenas de las apps de realidad aumentada y mi conclusión es que las apps de realidad aumentada se ejecutarían en el iPhone como sucede con el Apple Watch ahora mismo y sus apps. Es decir, las lentes de realidad aumentada no serían un dispositivo independiente y tendrían toda su operativa en el teléfono. De forma que las lentes actuarían como una segunda pantalla del iPhone que puede activarse a voluntad.

Oclusión de personas en ARKit 3

En los ficheros de información de dispositivos soportados aparecen los nuevos iPhone con procesador A13 (11 y 11 Pro), así como los iPhone XS, XR y XS Max, pero no así generaciones anteriores. Esto tendría sentido en cuanto a que muchas de las nuevas funciones que tiene la librería ARKit 3.0 de realidad aumentada en iOS 13, están limitadas a dispositivos con procesador A12. Entre ellas las más llamativas como la oclusión de personas que permite detectar gente delante de objetos de realidad aumentada y simular que están delante para que no se dibujen allí donde está la persona. También otras opciones como el uso simultáneo de las cámaras frontales y traseras o la captura de movimiento de personas.

Cuando llevamos las lentes, las apps de AR se ejecutarían en ellas si tenemos el dispositivo bloqueado y se lo pedimos a Siri (o las arrancamos en su escritorio o lanzador de apps en AR). Aunque todo el proceso se haría en el teléfono. No obstante, todas las apps podrían ejecutarse también en el teléfono y podríamos pasar su visualización a las lentes o a la pantalla del teléfono a voluntad, como haríamos con la función Sidecar del Mac que envía el segundo monitor a un iPad directamente. Si no hay ninguna app ejecutada, las lentes estarían en modo "Held" (como en pausa) por lo que no consumirían nada. Es como si llevamos el reloj en la mano con la pantalla apagada porque no la miramos.

Captura de movimiento en ARKit 3

Haciendo uso de estas nuevas tecnologías de detección de movimiento en realidad aumentada o la oclusión de personas, las experiencias con estas lentes serían mucho más reales y permitirían, incluso, que personas que vemos interactúen con objetos dentro de esa realidad virtual. Además, tal como puede hacerse ahora, podríamos tener experiencias compartidas y que varias lentes vean la misma experiencia e interactúen con ella. Así (por poner un ejemplo) un juego de tirarnos una bola gigante de uno a otro, sería más que posible técnicamente con las herramientas que hoy tenemos los desarrolladores para trabajar.

Modo depuración

Apple contempla la posibilidad que los propios desarrolladores de apps no dispongan de un dispositivo físico para probar sus desarrollos, por lo que ha creado un modo "simulado" a través de un dispositivo o incluso con el Mac en modo simulador de iOS. Un modo que es el que ahora, según hemos podido ver por el tuit bajo estas líneas, han conseguido ejecutar en modo prueba.

Lo que vemos es una visión estereoscópica, donde nos movemos sobre un entorno completo 3D sin ver la realidad tras el dispositivo porque se ejecuta en un Mac. Es el mismo modo en que podemos probar hoy apps de realidad aumentada con el simulador de iOS donde la parte que iría de la cámara es negra. De esta forma podemos simular el movimiento y probar que el entorno funciona correctamente aunque no veamos su integración con el entorno.

Reality Composer

Si no tenemos las lentes, pero podemos usar el móvil, entonces entrará en un modo similar a una carcasa Google Daydream, donde pondríamos el móvil frente a los ojos y las cámaras del mismo harían el resto. De esta forma, los desarrolladores podríamos probar y trabajar en las apps antes que las lentes se lanzaran, algo que para Apple es clave si quiere tener apps para estas lentes el día de su lanzamiento.

Cuando Apple lanzó el primer Apple Watch, lo presentó 7 meses antes de su lanzamiento y puso en manos de los desarrolladores las herramientas para ir haciendo apps. La forma de probarlas era con un complemento que tenía el simulador de iOS que era el propio reloj dentro del Mac. En esta ocasión, los modos de prueba serían estos dos.

Inmersión completa en AR

El desarrollador ha compartido el código que activa este modo para que cualquier pueda probarlo. Incluso ha conseguido que funcione en un iPhone X con un chip A11, pero como comenta, tiene fallos en uno de los ojos (tal como se ve en el vídeo) y no funciona muy bien. En el XS con que probó después confirmó que todo iba perfecto.

Según se extrae de algunos ficheros de configuración, Apple estaría trabajando con 3 prototipos: Franc, Luck y Garta. Cada uno de ellos tendría diferentes grados de campo de visión, aunque suponemos que el dispositivo final que salga al mercado será solo uno de estos. El primero tiene 61 grados de FOV (campo de visión), el segundo 58 y el último 68. Debemos recordar que las lentes de realidad aumentada no abarcan todo el campo de visión del ojo, solo una zona concreta que es donde vemos proyectada esa realidad.

Octubre de 2019, marzo de 2020 o septiembre de 2020

Son las fechas que se manejan: octubre de 2019 en una nueva keynote podría ser el momento en que se presenten los prototipos y se liberen públicamente estas herramientas que hoy hemos comentado, para que los desarrolladores puedan ir trabajando en apps para cuando las lentes se lanzaran. Ese lanzamiento podría ser en marzo del próximo año o incluso en septiembre con la siguiente generación de iPhone (¿iPhone 12?).

Hay muchas incógnitas alrededor de este nuevo dispositivo, sin duda, pero podemos pensar que al igual que el Apple Watch necesitó años para madurar como dispositivo y llegar a la mayoría de personas, consiguiendo un ecosistema maduro de apps y servicios para él, estas lentes serían un primer paso y en la buena dirección por parte de Apple, para ir madurando un producto y colocarlo en el mercado como ya ha hecho en ocasiones anteriores. Esperemos a ver qué más nos ofrecen.

Temas

Publicidad

Publicidad

Inicio
Compartir