La “Realidad Virtual” se popularizó desde mediados de los años 80 por un gran número de seguidores de la ciencia ficción. Aunque el término como acepción data de finales de los años 30, la popularización de la informática y el incremento en la capacidad de cálculo de las máquinas permitió a científicos y entusiastas vislumbrar un futuro donde el hombre sería capaz de crear una realidad alternativa donde jugar, vivivir y experimentar.
Los años pasaron y la realidad virtual se quedó encasillada en determinados contextos académicos o científicos, cosechando un nulo éxito en campos (a priori) tan interesantes para esta tecnología como los videojuegos, el hogar, el cine…
Apenas recién entrados los años 90, un empleado de Boeing acuñó el término “Realidad Ampliada” (también conocida como “Realidad Aumentada”) mientras ensamblaba diversos cables en un avión, pensando que sería estupendo tener más información en el mundo real, que pudiese ayudarlo a distinguir esos cables de otros.
Y es que quizás, la informática se equivocó de enfoque cuando pretendía crear realidades digitales: Fuimos tan valientes de soñar con mundos creados desde cero por ordenadores nacidos de una industria recién creada, cuando en realidad lo que nos era realmente útil era lo inverso… ver en el mundo real toda esa información contenida en las máquinas.
Entonces llega el momento en el que la tecnología se alinea con el pensamiento de expandir la realidad que nos rodea (y no crear otra nueva)... Y es cuando entonces, ahora, asistimos al nacimiento de algo que – en mi opinión – se convertirá en el futuro de cualquier dispositivo móvil que llevemos en nuestros bolsillos. O incluso los ordenadores y portátiles que manejamos día a día.
Un catálogo silencioso
Muchos de los entusiastas de la Realidad Ampliada dirán que esta tecnología era algo que debería nacer tarde o temprano, por la misma inercia de la industria que mueve la sociedad de la información. Y es precisamente esta sociedad, la de la información, la que ha creado un cultivo de datos digitales sembrados a diestro y siniestro por todo el mundo (próximamente el espacio), que esperan invisiblemente “algo” que sea capaz de “hacerlos visibles”.
Llevamos años poniendo etiquetas al mundo que nos rodea, aunque no nos demos cuenta. Desde el tradicional método de describir las fotos que tomamos digitalmente con palabras claves en nuestro ordenador (“París”, “Louvre”... bastarían como método simplificado de “geolocalización”, en iPhoto o Picasa, por ejemplo) hasta utilizar los modernos chips GPS que prácticamente ya encontramos en muchos móviles y que se empiezan a incorporar a cámaras digitales o tarjetas de memoria.
Pero no sólo ocurre de esta forma. Durante años, se han recopilado direcciones físicas de establecimientos, museos, metro, puntos de interés turístico en decenas de libros y guías. En algún punto de éstos últimos diez años, estas guías se han digitalizado y esta información “familiar” puede traducirse, automáticamente, en coordenadas GPS precisas como nunca y que sitúan en la realidad lo que antes era mera información “de consulta”.
Por tanto, ya tenemos la información convertida en una capa latente de datos, oculta entre el entramado de Internet y preparada para ser “desenterrada”. Sólo nos falta algo para completar esta primera etapa primigenia de evolución: los dispositivos. Y aquí es donde empieza la parte divertida.
El pequeño camino de una idea
A pesar de que Apple no incluyó en el primer iPhone ningún chip compatible con el sistema de posicionamiento global GPS, comenzó a desarrollar en su iPhone OS un sistema que, mediante triangulación de las antenas de telefonía móvil y la información ofrecida por las operadoras de Internet, conseguía situar con una precisión razonablemente exacta un punto en el mapa de la Tierra.
Pronto nació el iPhone 3G y con él, la llegada del GPS al móvil de Apple. Es curioso, cuando mucha gente veía en esta nueva funcionalidad una simple característica más de “navegación” por Google Maps, o la preparación del dispositivo para un inminente lanzamiento de navegador “turn-by-turn” (como Navigon MobileNavigator o Tom Tom), algunos mirábamos de reojo un campo muy atractivo y prácticamente virgen en los dispositivos portátiles: La Realidad Ampliada.
Sólo era algo potencialmente útil, pero sin mucha explotación aún por parte de la comunidad de desarrollo. Pero llegó la brújula digital en el iPhone 3G S. Y de nuevo, muchos sólo vieron otra forma de navegar “mejor” por los programas de siempre, y otros pensamos que por fin, el momento de comunión entra la cantidad de información y el hardware adecuado había alcanzado la perfecta comunión.
La brújula es, en un sistema GPS, quien define el vector director de un punto geolocalizado. En el iPhone 3G, tenemos ese punto geolocalizado, pero el sistema no es capaz de saber “hacia donde está mirando”, excepto si se mueve, momento en el que calcula de forma sencilla la dirección del movimiento. Pero no en reposo, cosa que la brújula captura cada pequeño giro, con lo que tenemos el sistema perfecto para “navegar” por esta realidad digitalmente mejorada.
¿Pero cómo serían estas primeras aplicaciones de la Realidad Ampliada cuando no hay pasado histórico sobre nada parecido?
Abriendo los ojos, poco a poco
La primera visión de los dispositivos hacia la Realidad Ampliada puede calificarse, sin duda, de exploración. Exploración de posibilidades, se entiende. Todos saben que la información está ahí, que el dispositivo la puede leer, pero ahora hay que ver qué queremos mostrar y cómo la queremos representar.
La Realidad Ampliada no es más que la visión de unos datos digitales representados sobre imágenes reales del mundo de nuestro alrededor, actualizada sobre ellas en tiempo real. Esto quiere decir que, si utilizamos nuestro iPhone con la fantástica aplicación de accroshair para encontrar información sobre el metro de Nueva York, enfocando a nuestro alrededor con el dispositivo, veremos datos procedentes de Internet tal y como si estuvieran “flotando” en la realidad:
Precisamente mientras escribía este artículo, me he encontrado un gigantesco banner en la App Store en el que acrossair presenta su “pack” de aplicaciones de Realidad Aumentada para distintos sistemas de transporte (ojo, que Madrid y Barcelona ya tienen aplicación).
También es interesante que le echéis un vistazo a NearestWiki, también de acrossair, donde la aplicación nos muestra en una vista de Realidad Ampliada la información cercana sobre monumentos, lugares y sucesos a donde estemos. Eso sí, sólo funcionará en los iPhone 3G S (necesita la brújula digital para localizar precisamente las coordenadas).
El “problema” del sistema es que la información no está asentada en una sola fuente. A menudo se encuentra sesgada entre diversos lugares de Internet, y es lógico pensar que a largo plazo dicha información se irá combinando. Quizás, como lo hace Bionic Eye, una nueva aplicación de la App Store con nombre futurista que muestra información no sólo de transportes, sino de restaurantes, puntos de interés turístico, hoteles, cafeterías, tiendas…
Correr antes que gatear
La Realidad Ampliada no ha surgido antes debido a la necesidad de una buena capacidad de cálculo para desplazar y mostrar la información en tiempo real sobre un vídeo procesado al instante. Sin embargo, a veces hay que aprender a correr antes que andar para que las cosas sucedan más deprisa.
El reconocimiento de objetos por parte de las computadoras es uno de los campos más difíciles (y apasionantes) de la informática moderna. Algo tan simple y que hacemos millones de veces a diario, como reconocer cientos de objetos sin darnos cuenta, a una máquina le cuesta mucho.
¿Cómo definiríais una “mesa”? ¿Cómo conseguiríamos que una máquina reconozca no una mesa, sino cualquier mesa, a partir de unas imágenes que jamás ha visto desde cientos de ángulos distintos? Y sólo estamos empezando: Imaginaos con objetos más complejos.
Pero sin gatear aún en este nuevo mundo, hemos empezado a correr: Inciativas como el SREngine, del japonés Sein Kanemura, se perfilan como uno de los pasos mejor orientados hacia el futuro que nos espera: El reconocimiento de objetos en escenas y la superposición de información extraída de ellos. Como ya os había dicho, esto es correr antes que gatear. Lo mejor de todo es que ya tenemos algo que funciona en un iPhone…
La tecnología de Kanemura utiliza una mezcla de aplicación cliente/servidor para repartir la carga de procesamiento entre el iPhone y un ordenador remoto que es el que “realmente” analiza la imagen. Sin embargo, también utilizan técnicas de procesamiento neuronal de las imagenes, algo que Kanemura ha investigado en su pasado académico.
Básicamente, está tratando de imitar el concepto de pensamiento humano en una red de “neuronas” digitales para procesar la información digital. Y así es como se le enseña a un ordenador a diferenciar una “mesa” de otro objeto: dejando que piense por él mismo, en lugar de decirle nosotros lo que tiene que ver. Esto también es correr antes que gatear.
Tampoco se nos debe olvidar algo importante: No nos tenemos que limitar a representar una información digital. ¡Podemos manipular dicha información! Presentémosla, representémosla cómo nosotros queramos. Pero, mejor todavía… ¿Porqué no lo combinamos todo?
La Realidad Aumentada también actúa como catalizador de realidad para formas de reconocimiento simple. En las pruebas que ya se están haciendo, y que podéis hacer vosotros ahora mismo en casa con la iSight de vuestro Mac e imprimiendo una figura, se consiguen auténticas maravillas impensables en otro tiempo como ésta:
Lo que habéis visto en el vídeo, por si no lo conocíais antes, es un ejemplo (muy simple, aunque no lo parezca) de una mezcla de reconocimiento de objetos (la cartulina con la figura) y procesamiento 3D en tiempo real acorde con el movimiento de dicha figura.
Como ya os he dicho, el ejemplo anterior es algo simple. Para ejemplo espectacular el de Toyota para publicitar su último coche, por ejemplo. O cómo se las gastan algunos desarrolladores que ya empiezan a ver en ésta tecnología un espectacular campo para desplegar los videojuegos del futuro, como éste de Zombies, por ejemplo.
Y todavía no hemos visto nada
Si tuviera que apostar por un camino, sería por la integración progresiva de la Realidad Ampliada dentro de un dispositivo como el iPhone. Es cierto que Apple no es la primera ni la última en facilitar la expansión de esta tecnología con sus dispositivos, ya que para Android también hay avances muy interesantes.
Sin embargo, Apple tiene una gran posición dentro de este nuevo mundo, gracias al fantástico éxito de la App Store, del magnífico sistema operativo con el que cuenta el iPhone y de un enorme elenco de desarrolladores que seguro publicarán sus trabajos en un dispositivo tan popular como el móvil de Apple.
Si tuviera que definir como será el futuro que veremos dentro de unos años con nuestros iPhones, diría que no hemos visto nada, para todo lo que nos queda por ver.
Y por supuesto, recordaría aquella magnífica cita que reza “Lo que se ve, es una visión de lo invisible“.
Nunca estas palabras fueron más acertadas.
Ver 22 comentarios