El motivo por el que el iPhone 14 puede adoptar la calidad 8K: el próximo visor de realidad virtual de Apple

iphone 13 pro camara
5 comentarios Facebook Twitter Flipboard E-mail

Hace unos días vimos cómo los (supuestos) primeros detalles concretos de los iPhone 14 aparecían en la rumorología: al parecer ese teléfono adoptará cámaras de 48 megapixeles que nos permitirían grabar vídeo en 8K. Yo mismo levanté una ceja al leerlo: ¿8K? ¿Tan pronto, cuando los televisores 8K aún son algo de nicho y reservado a los que pueden gastarse miles de euros en televisores?

Pues la insistencia de este rumor por parte de Ming-Chi Kuo aporta algo de sentido a este rumor: el vídeo en calidad 8K puede ser esencial para el visor de realidad virtual y/o aumentada que Apple tendría planeado lanzar en algún momento de 2022.

La era 8K de Apple ¿antes de tiempo?

Recuerdo cómo Apple llegó relativamente tarde al vídeo en 4K, rodeado de servicios que ya llevaban tiempo ofreciéndolo. La compañía esperó a que ese nivel de calidad se popularizase lo suficiente, y los televisores necesarios para correr todos esos píxeles bajaran de precio.

Las 'Apple Glasses' cambiarían ese plan. Como sus pantallas quedarían muy cerca de nuestros ojos su resolución será mucho más alta, 8K, para así apreciar una buena definición de lo que veamos en su interfaz. ¿Y qué mejor que unos iPhone 14 que graben vídeos a esa calidad para poder verlos bien con esas gafas?

Esto sería un primer paso, naturalmente. Tener vídeos a esa calidad abriría una agenda de lanzamientos a largo plazo que incluiría pantallas a esa calidad, Macs más potentes para poder reproducir vídeos 8K y posiblemente un 'Apple TV 8K' cuando los televisores de esa resolución sean algo más baratos. Las gafas serían el pistoletazo de salida de algo que no esperábamos hasta más tarde.

'Pixel binning' para mejorar las fotografías con poca luz

iphone camara apple

Kuo aporta otro detalle más: las lentes de esos iPhone 14 (al menos las de los modelos 'Pro') usarían la tecnología llamada Pixel Binning. Ésta consiste en agrupar los píxeles de las fotografías en casos donde eso mejore la calidad de las fotografías, como por ejemplo en ambientes de poca luz. Nuestros compañeros de Xataka Foto lo explican muy bien.

De esta forma una lente de 48 megapixeles podría unir sus pixeles en grupos de 4 para tomar fotografías nocturnas de 12 megapixeles a mejor calidad, absorbiendo más luz con esos píxeles agrupados que si lo hicieran con cada pixel cogiendo esa luz individualmente. A grandes rasgos, es un "mejor que sobre que no que falte" que ya emplean algunas marcas de terminales Android como Samsung.

Por último, Kuo coloca la llegada de las cámaras periscópicas a los iPhone en 2023. Éstas implicarían más calidad en menos espacio y un mejor zoom óptico, doblando el sensor óptico para conseguirlo. Será pues algo que veremos en los 'iPhone 15', si es que acaban teniendo ese nombre.

Comentarios cerrados
Inicio