Así es la alucinante demo de una app que captura objetos en 3D desde el iPhone y en tiempo real

Así es la alucinante demo de una app que captura objetos en 3D desde el iPhone y en tiempo real

17 comentarios Facebook Twitter Flipboard E-mail
Así es la alucinante demo de una app que captura objetos en 3D desde el iPhone y en tiempo real

Con el paso de los años estamos viendo avances muy importantes en los campos de realidad aumentada y captura de objetos en 3D. Aunque no siempre avanzan a la velocidad que a muchos nos gustaría. Eso sí, de vez en cuando nos topamos con demostraciones impresionantes de diferentes tecnologías, como la que presentó el desarrollador Abound Labs hace unas semanas. Se trata de un SDK que captura objetos en 3D con una precisión y rapidez sorprendentes.

Escaneo en 3D en tiempo real con una app aún en desarrollo

En el video superior se puede ver una escena donde la app utilizada para el escaneo actúa sobre un monumento. El autor activa la app y comienza a rodearlo poco a poco, capturando un modelo en 3D del lugar.

La cámara del iPhone va detectando bordes, esquinas y planos y los va reuniendo en su escaneo. Mientras mueve el terminal, la app va haciendo la captura en tiempo real y añadiendo detalle conforme realiza pasadas encima del monumento.

El desarrollador asegura que aún tiene mucho trabajo por delante. El kit de desarrollo aún tiene errores importante y varios puntos que solucionar, pero en general el resultado es bastante prometedor.

Un kit de desarrollo para "mapeo" espacial que cabe en un iPhone

captura

Tal vez, lo más sorprendente de esta tecnología es que los requerimientos son bastante accesibles. Según cuentan en su perfil de Twitter, se recomienda utilizar un iPhone 11 o iPhone XS, como mínimo un iPhone 8 o iPhone X. Basta con que se tenga una única cámara trasera disponible en uno de estos modelos, por lo que en teoría el iPhone XR también debería ser capaz de ejecutarlo.

También resuelven algunas dudas acerca del SDK. Entre ellas, que el rango de actuación es de 4 metros, que el procesado se hace íntegramente en el teléfono y que se puede exportar el resultado a los formados .obj y .usdz.

En otro tweet, Abound Labs comparte el mapa de profundidad que se genera a través de su SDK. Aparentemente, los colores más claros indican cercanía de objetos, mientras que los más oscuros su lejanía. Resulta increíble ver que todas las operaciones se realizan en tiempo real, al igual que en la demo anterior.

iPad ARKit 3

La empresa está trabajando con las tecnologías de realidad aumentada de Apple desde al menos este verano. Su fundador, Tim Field, probó tras la WWDC del pasado verano ARKit 3, la tercera versión de este software de desarrollo de realidad aumentada que cuenta con oclusión de objetos y sombras, entre otras novedades. Para poder utilizarlo, es necesario contar con iOS 13 en el dispositivo, así como uno compatible con la tecnología.

Según han indicado desde Abound Labs, aún se encuentran en beta cerrada de su tecnología. Esperan poder compartir una versión pública para TestFlight a lo largo de 2020, sin ser más específicos con las fechas.

Por parte de Apple, se espera que la compañía desvele un nuevo iPad Pro el año que viene. Este modelo contaría con una cámara dual así como sensores 3D para realidad aumentada. Y por supuesto, también unas gafas de realidad aumentada.

Más información | Abound Labs.

Comentarios cerrados
Inicio