Publicidad

Esta es la razón de que podamos cambiar la tasa de refresco en el nuevo MBP
Análisis

Esta es la razón de que podamos cambiar la tasa de refresco en el nuevo MBP

Publicidad

Publicidad

Estamos todavía recopilando datos e información del nuevo y renovado MacBook Pro de 16", que es mucho más que un simple cambio de teclado y pantalla. De hecho, ya sabéis que tenéis una review en profundidad por parte de Pedro Aznar que podéis leer aquí.

Los cambios más importantes del mismo radican, principalmente, en un nuevo diseño termal que le permite dar hasta 12W más de potencia y controlar mejor el calor que generan las nuevas CPUs, así como la incorporación de la nueva gama AMD Radeon Pro 5000M Series (en los modelos 5300M y 5550M) que con su arquitectura de 7nm (las anteriores GPUs dedicadas que tenían los MacBook Pro era con arquitectura de 14nm) consiguen desbancar incluso a los modelos Vega 16 Pro y 20 Pro en rendimiento.

Pero entre tanto dato, hay un detalle que no ha sido convenientemente explicado (entre otros) que ya apuntaba Pedro Aznar en su review: la opción del cambio en la tasa de refresco de la pantalla del portátil. Algo que en generaciones anteriores no existía. Alguno puede pensar que es una buena opción pero, ¿para qué sirve realmente y por qué esas extrañas tasas?

Hablemos de cine

Para ser exactos, el nuevo monitor del MacBook Pro de 16" se puede cambiar en su tasa de refresco desde los 60 hercios por defecto, a 59,94, 50, 48 y 47,95. ¿Alguna vez os habéis preguntado por qué un TV conectado a un reproductor Bluray o multimedia, con un modo cine, cambia su tasa de refresco a 24p? Estamos hablando de la paridad de refresco entre fotogramas por segundo de la imagen y el refresco de la pantalla.

Un ejemplo del fenómeno Phi: estáticas de un caballo que al verlas rápidamente da la ilusión de movimiento. Un ejemplo del fenómeno Phi: estáticas de un caballo que al verlas rápidamente da la ilusión de movimiento.

Vamos a hacer un viaje por la historia del cine para entenderlo. Cualquier movimiento que vemos y que crea la ilusión del cine, está basado en el denominado fenómeno Phi que definió Max Wertheimer en el año 1912. El cerebro humano es capaz de procesar entre 10 y 12 imágenes por segundo, pero ¿qué sucede si le damos un tasa superior? Que nuestro cerebro fusiona las imágenes haciéndonos creer que hay una estado intermedio entre ambos (o interpolación de movimiento). Si vemos un objeto en una posición y enseguida el mismo objeto en otra, en dos imágenes estáticas, nuestro cerebro generará de forma artificial los estados intermedios que faltan entre ambas imágenes para crearnos la ilusión del movimiento. Esa es la base del cine, la TV, los monitores de nuestros ordenadores o el cuaderno del colegio donde pintábamos muñequitos en las esquinas para crear nuestra propio corto de animación.

Los hercios en una pantalla son lo que define cuántas veces se cambia la imagen que vemos en ella por segundo.

El problema de proyectar en cine o en cualquier medio 12 imágenes por segundo, es que veríamos el cambio a negro o imagen vacía antes del redibujo de la siguiente imagen. Thomas Edison descubrió que el ser humano necesita al menos 46 imágenes por segundo para dejar de ver esa transición al negro que supone el paso de un fotograma a otro: para no ver ese estado vacío que hay entre cada imagen donde la pantalla redibuja esta o el proyector no proyecta luz. Como 46 imágenes por segundo haría que las películas fueran muy largas físicamente (la cantidad de película usada) se usaron obturadores de triple hueco, así que cada fotograma se proyecta en realidad 3 veces entre cada imagen en negro. Se decidió entonces subir a 48 imágenes por segundo, lo que da 16 imágenes que se repiten 3 veces por cada pase del obturador. Por cada fotograma la imagen pasaba a negro 3 veces y así no vemos el cambio. Esa es la cadencia del cine mudo.

Proyector con shutter doble, que duplica el número de veces que se va a negro la imagen por cada fotograma. Proyector con shutter doble, que duplica el número de veces que se va a negro la imagen por cada fotograma.

Y el cine hubiera seguido en 16 imágenes por segundo, pero entonces llegó el sonido que supuso un cambio radical para el sistema de proyección y obligó a cambiar el estándar de proyección. El sonido va grabado en una banda junto a la imagen, pero la cantidad de metraje que se usaba para registrar este era muy pequeño con 16 imágenes por segundo y penalizaba la calidad del mismo. Así que se buscó la forma de aumentar la tasa de fotogramas con el objeto de tener más espacio para guardar más información sonora en cada segundo y con ello mejorar su calidad.

Registrar el sonido de 1 segundo en el espacio que ocupaban 16 fotogramas daba peor calidad de sonido que registrar ese mismo segundo de sonido en el espacio que ocupan 24 imágenes.

Para ello se pasó de un sistema de obturación de triple hueco para los 48 fotogramas, por uno de doble, así que tendríamos 48 entre 2, que serían 24. Esos 24 daban una mejor fidelidad de sonido. Así que en 1929 se decidió que el estándar sería de 24 imágenes por segundo, que se sigue conservando hasta nuestros días. 24 imágenes por segundo, por 2, son 48: uno de los modos de tasa de refresco al que podemos poner la pantalla del nuevo MacBook Pro.

¿Y por qué 24? Porque al ser un número perfectamente divisible, la edición de una película (cuando se cortaba a mano el celuloide) permitía al editor saber claramente cuántos fotogramas era cada unidad de tiempo. 12 es medio segundo, 6 un cuarto de segundo... se podían obtener fácilmente la mitad, un tercio, un cuarto y así facilitar la edición de las películas.

Llega la TV

En 1930, el ingeniero alemán de Telefunken, Fritz Schröter y en 1932 el ingeniero americano de la RCA, Richard Ballard, definieron un estándar pensado para reducir el ancho de banda necesario para la transmisión de la imagen de televisión: el entrelazado. En vez de emitirse toda la imagen de una vez en un momento de tiempo concreto (que ocuparía demasiado ancho de banda) dividieron la imagen en 2: al transmitir la imagen por el aire, la primera de las imágenes solo contendría las líneas impares de la imagen, y en la siguiente imagen solo irían las líneas pares. Lo que se conoce como campo superior e inferior. Cada imagen recibida por el televisor se superpone a la otra para formar un patrón entrelazado.

Escaneo de líneas entrelazadas en TV Escaneo de líneas entrelazadas en TV

Pero existía un problema: la corriente eléctrica generaba una distorsión rítmica en la imagen denominada intermodulación. Una onda que si estaba en una frecuencia distinta a la proyectada por la imagen, generaba una línea de distorsión que recorría la imagen. Esto es debido a que la frecuencia de la corriente alterna en Estados Unidos es de 60 hercios y la cadencia de 48 imágenes no coincidía. Para evitar este problema había que dibujar 60 veces por segundo la imagen en las pantallas, lo que suponía que como la imagen venía en 2 campos, hacía que la tasa tuviera que ser de 30 imágenes por segundo en emisiones para TV.

Llegó el color y se lío más

Las primeras emisiones de TV en blanco y negro iban sobre bandas VHF, y en 1948 se persiguió por la FCC que todos los nuevos televisores que se fabricaran fueran sobre banda UHF que es más amplia, permitía emitir más información y ahí iría la información del color sin problema. Pero sucedió algo: mientras se establecía o no el estándar, se dispararon las ventas de aparatos de televisión, multiplicadas por 10. Todos con receptores VHF y no UHF. Así que no podían descartarse tantos televisores y se buscó una forma de emitir el color por la banda de VHF. Para ello se creó el estándar NTSC (las siglas de Comité del Sistema de Televisión Nacional) que junto a RCA convinieron usar el estándar creado en 1938 por Georges Valensi que separaba en la señal la luminancia y el cromatismo. De esta forma, se enviaba por separado el espectro de brillo y los datos cromáticos, para que los TV que fueran blanco y negro no leyeran la señal cromática pero los de color por VHF, sí. La señal cromática iba como una subseñal dentro de la señal de TV que era ignorada por los TV que eran solo de blanco y negro.

Distribución en el espectro de un canal de televisión en el Sistema M, con color en norma NTSC. Distribución en el espectro de un canal de televisión en el Sistema M, con color en norma NTSC.

Pero se encontraron un problema: el ancho de banda que ocupaba la señal de color interfería con la señal de sonido causando vibraciones en el mismo. Para solucionarlo, se tomó la decisión de reducir la tasa de refresco de las imágenes para que no coincidiera en el refresco con el sonido. Una reducción de solo el 0,1%, desfasando la señal del color y la del sonido y con ello corrigiendo el problema que provocaban las interferencias. En diciembre de 1953, la FCC adoptó el estándar creado por la RCA para la transmisión del color en TV por banda VHF que pasó de 60 imágenes por segundo a 59,94. Ahí tenemos la otra tasa de refresco. Una tasa que dividida entre 2 con la transmisión entrelazada nos da 29,97 fotogramas por segundo.

En Europa, el problema era diferente y tenía otras cifras. En 1963 el fabricante Telefunken creó el estándar PAL de color europeo. PAL viene de las siglas de líneas de fase alternadas (Phase Alternating Line) que comenzaron su emisión en 1967 y que pretendía solucionar el problema de color que se encontraron con el NTSC. Tanto PAL como el formato SECAM (usado en países como Francia) usaban la frecuencia de la corriente alterna en Europa y el resto del mundo de 50 hercios en vez de 60, así que la tasa de refresco para la imagen entrelazada era de 50 y los fotogramas, 25 por segundo. Ahí tenemos más respuestas.

Convirtiendo el cine a TV

La última frecuencia que nos queda viene de la conversión de las 24 imágenes por segundo al estándar NTSC, en un proceso llamado Telecine. Básicamente, a las 24 imágenes por segundo se les resta un 0.1% o básicamente se usa el 99,9% del total de imágenes que tendrían los 24, dando como resultado 23.976 (nuestra última frecuencia, que multiplicada por 2 da 47,95).

Proceso de pulldown 3:2 y el problema de judder que puede darse al mezclar A y B diferentes Proceso de pulldown 3:2 y el problema del judder que puede darse al mezclar A y B diferentes

¿Por qué hacer esto? Porque matemáticamente existe un proporción de 4 a 5 entre una reproducción de 23.976 y una emisión de 29.97. Usando un método llamado 3:2 pulldown, se cogen las imágenes entrelazadas en grupos de 3 y 2. Si tenemos 4 fotogramas completos, del primero se cogerán los campos superior, inferior y de nuevo superior. Del siguiente cogeremos superior e inferior. Del siguiente de nuevo superior, inferior y superior. Y así hasta el final. Se irán cogiendo los fotogramas en grupos entrelazados en proporción de 3 a 2. De esta forma conseguimos meter 4 fotogramas en 5, que es justo la proporción de 23.976 a 29.97: que 4 frames a 23.976 caben exactamente en 5 de 29.97. Así convertimos una tasa de cine en una de TV.

Los problemas para convertir la cadencia de fotogramas de cine al formato de TV y las frecuencias de la corriente alterna en cada país, son las que han creado esta variedad de distintas normas de fotogramas por segundo.

El problema es que esto genera un efecto denominado judder cuando los campos superiores e inferiores de fotogramas distintos se mezclan. Si el fotograma no tiene mucho cambio de información, no se aprecia el problema. Pero si hay un movimiento de cámara lento y largo, se hará bastante notorio ese desfase en las imágenes construidas. Por lo tanto, algunos sistemas optan por hacer lo que se conoce como un telecine inverso sobre la señal recibida: recogen esa señal con el 3:2 y hacen el inverso para volver a dejar la imagen 23.976 y eliminar el problema.

Ejemplo del efecto judder que un procesador de imagen debe arreglar y reconstruir Ejemplo del efecto judder que un procesador de imagen debe arreglar y reconstruir

En el caso del PAL, el cambio es más simple aunque tiene sus efectos secundarios. Una película en 24 imágenes por segundo, cuando se necesita en PAL de 25, se acelera en un modo 2:2 en el que se sirven los dos campos entrelazados sin modificación y en orden correcto, pero se necesita acelerar la película al 104%. Un cambio casi imperceptible, pero que puede afectar a la duración de las películas haciendo que las copias europeas de las películas duren menos que las americanas y que haya una pequeña subida en la frecuencia del sonido (que todo se oiga un poco "más acelerado"). En concreto se aumenta en 0.679 semitonos. Algunos sistemas modernos intentan modificar la duración sin modificar el pitch o frecuencia o corregirla.

La era digital

La verdad que hoy lo normal es trabajar directamente en formatos digitales según graban las cámaras también digitales, con frecuencias de fotogramas fijas y que normalmente son progresivas: es decir, cada imagen está grabada al completo y no se entrelaza. Pero en TV se sigue tirando de estos formatos entrelazados (por increíble que parezca). Por ejemplo la mayoría de operadores de IP TV (TV por internet) emiten en formato 1080i donde no solo la imagen está entrelazada como hemos contado, ni siquiera se emite a la resolución de 1920x1080: para ahorrar espacio y el uso de ancho de banda se emite a 1440x1080 y luego se reconstruye la imagen deformada. Pero eso sería otra historia.

La mayoría de operadores de televisión, emiten sus contenidos en entrelazado y anamórfico para ahorrar ancho de banda, lo que da una peor calidad de imagen. Las plataformas de streaming, sin embargo, emiten en formato progresivo para dar mejor calidad.

El quid es que Apple permite en el monitor una concesión pensada para la gente que trabaja tanto en el mundo de la TV como del cine, permitiendo que la pantalla funcione a la misma frecuencia (el doble en este caso, pero la imagen cambia cada dos refrescos como en los obturadores que se usaban en proyección analógica) para todos los casos que hemos comentado. Si nuestra fuente está en 29.97fps, ponemos la pantalla a 59.94 hercios. Si está a 30fps, la dejamos en 60 hercios. Si es a 25fps, ponemos a 50 hercios. Si es 24fps a 48 hercios y si es 23.976 ponemos a 47,95 hercios. La paridad de hercios y cadencia de fotogramas hará que la imagen sea mucho más veraz, no cree artefactos y veamos mucho mejor el resultado.

Cambio de tasa de refresco

Es algo que puede que la mayoría no use nunca, pero es interesante que esté ahí y demuestra cómo Apple ha escuchado con este nuevo equipo a los profesionales, incluso con pequeños detalles que pueden ser nimios para la mayoría, pero muy importantes para un sector muy especializado del universo de la creación de contenidos para cine o TV.

Espero que os haya parecido interesante esta explicación sobre la característica y ahora entendáis un poco mejor cómo funciona no solo el nuevo equipo de Apple, principalmente el cine y la TV. Si queréis saber más cosas sobre este nuevo equipo con un análisis exhaustivo, os invito a escuchar el último episodio de mi podcast Apple Coding, donde lo disecciono parte a parte para buscar los motivos por los que es un lanzamiento de esta gran calidad y los cambios y concesiones que se han hecho. Desde aquí podéis oírlo y suscribiros en cualquier plataforma, desde Apple Podcasts hasta Google o Spotify.

Temas

Publicidad

Publicidad

Inicio
Compartir