¿Que diferencias tiene ARKit con el resto de SDKs para desarrollar en realidad aumentada?

¿Que diferencias tiene ARKit con el resto de SDKs para desarrollar en realidad aumentada?

17 comentarios Facebook Twitter Flipboard E-mail
¿Que diferencias tiene ARKit con el resto de SDKs para desarrollar en realidad aumentada?

ARKit, el SDK o kit de desarrollo con el que Apple quiere adentrar iOS en la realidad aumentada, está triunfando incluso sin haberse lanzado oficialmente. En s fase de pruebas juntamente con la beta de iOS 11 está llamando la atención de todos los desarrolladores, cosa que queda patente en los vídeos de muchas demos que han poblado las redes sociales.

Son buenas noticias, pero ¿no te has preguntado cómo Apple ha conseguido esta atención cuando la realidad aumentada es algo que lleva años entre nosotros? ¿Qué diferencia tienen en Cupertino en comparación con otras plataformas para que el mundo de la realidad aumentada vuelva a calificarse como el futuro para todos?

ARKIT: muchos cálculos y poco error

Arkit Mediciones

Matt Miesnieks, socio de Super Ventures y experto que lleva nueve años trabajando con plataformas de realidad aumentada, comenta el fenómeno. Todo radica en la forma con la que los sensores de Apple trabajan en compás con ARKit. La plataforma utiliza un sistema llamado Visual Inertial Odometry (o VIO), que combina dos formas de detectar tanto un entorno como los objetos que hay en él.

Se combinan mediciones hechas con las cámaras, los giroscopios y los acelerómetros del dispositivo

La primera utiliza la cámara o cámaras del dispositivo para detectar la posición de una persona u objeto cada vez que hay un nuevo fotograma, de modo que la posición se detecta 30 veces por segundo. Cada medición se toma dos veces en paralelo, para hacer un cálculo medio de la posición con el mínimo error posible.

La segunda detección se hace con el acelerómetro y el giroscopio del dispositivo. Cada uno predice y calcula la posición de un elemento a partir del movimiento y la inercia que esté experimentando el dispositivo. Eso se hace unas 1.000 veces cada segundo, pero hay que "calibrar" los resultados de estas mediciones con las que se hacen usando la cámara para minimizar el margen de error.

Finalmente, el resultado de las dos mediciones se pasa por un filtro y se determina el cálculo más preciso de la posición del elemento.

¿Qué tiene eso de diferente con los competidores?

La diferencia entre ARKit y otras plataformas no es a nivel técnico, pero es sencilla para Miesnieks: Apple ha sabido aprovechar una oportunidad. Según él la plataforma Hololens promete mucho a nivel técnico, pero Microsoft ha preferido no lanzarla en móviles ya que "no sería suficiente para atraer la atención de usuarios de iOS y Android". Windows en móviles es demasiado pequeño como para invertir esfuerzo en la realidad aumentada.

Google podría haberse adelantado a ARKit, pero tendría que haber optimizado terminales de varios fabricantes

¿Y Google? Miesnieks dice que podríamos haber visto una plataforma de realidad aumentada que hubiera hecho sonrojar a ARKit incluso hace un año, pero eso habría implicado el esfuerzo de optimizar las mediciones y los sensores en todos los terminales Android que hay en el mercado.

Así que podríamos decir que esto es un triunfo de Apple gracias a dos factores: la fragmentación que tiene Android y el logro de optimización que tiene el iPhone entre su hardware y su software. Los laboratorios de Cupertino han estado trabajando a fondo para conseguir unas mediciones muy precisas y esto ha dado su resultado: mirad las últimas demostraciones que circulan por las redes y comprobadlo vosotros mismos.

En Applesfera | Este nuevo accesorio convierte tu iPhone en unas gafas de realidad aumentada gracias a ARKit

Comentarios cerrados
Inicio