Esto es todo lo que podemos deducir del A14, el cerebro del futuro iPhone 12

Esto es todo lo que podemos deducir del A14, el cerebro del futuro iPhone 12

28 comentarios Facebook Twitter Flipboard E-mail
Esto es todo lo que podemos deducir del A14, el cerebro del futuro iPhone 12

Corría el mes de abril del año 2008, donde los iPhone aún no habían llegado a la mayoría de países y el App Store no había sido lanzado al público, cuando Apple anunció que había comprado PA Semi. Esta empresa, fundada en 2003 (la siglas PA son de Palo Alto), llevaba años colaborando en secreto con Apple. Y como otras muchas compañías, 21 solo de inteligencia artificial (por ejemplo), Apple acabó comprándola. De esta compra surgió el primer chip diseñado por la propia Apple: el A4. Un chip que fue presentado el 27 de enero de 2010 como el cerebro de los iPad, el primer dispositivo de Apple que llevó sus propios chips.

Desde entonces ha llovido mucho, pero una de las cosas que no han cambiado es que Apple sigue estando a la cabeza del diseño de chips para dispositivos móviles. La competencia, como Qualcomm, Samsung o Huawei se le acercan cada vez más, pero Apple siempre da un salto hacia adelante para seguir siendo inalcanzable para ellos.

El A13 fue una mejora sustancial del A12, mejorándolo sobre su misma arquitectura.

El último salto fue el chip A13 Bionic, una increíble obra de ingeniería que unía un buen número de componentes dentro de un solo chip que define el futuro de la computación. Lo que se conoce como computación heterogénea. Esta, en esencia, es la capacidad de un chip de tener diferentes núcleos de diferente eficacia o rendimiento: algo que la arquitectura x86 no puede hacer ya que todos los núcleos de Intel o AMD deben ser siempre idénticos.

La computación heterogénea, que también es explorada por otros fabricantes como Samsung, Qualcomm o Huawei, es esa que permite tener una CPU con 6 núcleos: 4 destinados a una mejor eficiencia energética, menos potentes, pero lo suficiente para tareas de poco peso (navegar por la web, mirar el email, usar apps de mensajería...) y otros 2 núcleos de alto rendimiento que consumen mucha más energía pero que solo se usan cuando se necesita empujar tareas de mayor peso como videojuegos, inteligencia artificial, edición multimedia...

Plataforma de Computación Heterogénea

Pero Apple ha ido más allá y ha explorado en sus últimos chips desde el A11, la incorporación de núcleos específicos para tareas específicas que ayudan al conjunto de la CPU. No es nada nuevo pues Intel lleva muchos años explorando ese terreno: poner núcleos, por ejemplo, dedicados a la codificación y descodificación de vídeo en formatos estándar como el H.264 o el H.265 (usados para HD y 4K). Pero Apple intenta llevarlo más allá para suplir en alguna forma la posible carencia de potencia de la arquitectura ARM por su filosofía de chips que están enfocados en la eficiencia para sistemas que tengan baterías y así consumir menos.

El verdadero cambio de arquitectura para Apple vino con la generación del A11, siendo un salto el A12 pues usaba por primera vez en móvil un proceso de impresión de 7nm que luego se ha repetido en el A13. Pero la próxima generación podría bajar a un proceso de 5nm lo que, con la misma estructura pero con componentes más pequeños, le permitiría calentarse menos y obtener una media de un 8% más de velocidad, simplemente por el cambio de esta arquitectura. ¿Podría ser entonces el A14 ese futuro chip que viéramos en los Mac? Vamos a poner en claro algunos conceptos antes para entender por qué el cambio a ARM de los ordenadores no es tan trivial.

Diferencias entre ARM y x86

En muchas ocasiones, cuando se comparan chips ARM de Apple y chips de Intel, muchas veces nos echamos las manos a la cabeza porque los procesadores de Apple, en fuerza bruta, rivalizan con algunos chips de Intel de últimas generaciones. Pero, en realidad, esa es solo una parte de la historia. Una CPU es un conjunto de instrucciones. Y cuantas más instrucciones tengamos, más rápido podremos resolver operaciones genéricas. Vamos a poner algunos símiles para que lo entiendan mejor.

Intel es arquitectura CISC o Conjunto de Instrucciones de Computación Complejas. ARM es RISC o conjunto de instrucciones de computación reducido.

Imaginen una calculadora, donde tenemos cuatro botones: sumar, restar, multiplicar y dividir. Esa calculadora nos permite realizar, en una sola instrucción, cualquier cálculo aritmético básico. Pero, resulta que si queremos calcular el 30% de 200 tenemos que hacer más de una operación porque nuestra calculadora no tiene un botón para calcular el porcentaje de un número. Eso nos obliga a hacer dos cosas: o hacer una regla de tres que supondría dos operaciones con lo que hacemos 30 * 200 y luego dividimos entre 100. O también podemos dividir 30 entre 100 y su resultado multiplicarlo por 200. Hemos tenido que hacer dos operaciones aritméticas con nuestros cuatro botones para obtener el resultado.

Si tenemos una calculadora que tiene el botón de %, solo tenemos pulsar una tecla y hacer una única operación. Las dos calculadoras son iguales de rápidas. Tienen la misma capacidad. Pero la ausencia del botón de cálculo de porcentaje me obliga a duplicar el número de operaciones. Eso es ARM frente x86 de Intel.

ARM vs Intel

Mientras la arquitectura de Intel tiene muchas más instrucciones y de diferente tamaño, y tiene conjuntos de instrucciones específicos para tipos de cálculo específico, un chip de arquitectura ARM tiene muchas menos operaciones y todas ocupan lo mismo. Necesitas más operaciones (y con ello más tiempo) para conseguir el mismo resultado que un chip de Intel. Por lo que el hecho que ambos vayan "igual de rápido" no significa nada, porque si uno necesita menos pasos para conseguir el mismo resultado que el otro, entonces el que use menos pasos será más rápido. Así de simple.

A eso se le une el tamaño de las instrucciones. Imaginen que la CPU es como una autopista donde circulan camiones. Cada camión es una instrucción y dentro llevan aquellos datos con los que van a hacer la operación. Pero los camiones que circulan por Intel pueden ser grandes o pequeños. Si voy a hacer una operación básica aritmética, el camión puede ser más pequeño y por lo tanto caben más camiones que hagan las mismas operaciones básicas en el mismo espacio de autopista. Pero en ARM, todos los camiones ocupan lo mismo, hagan lo que hagan. Por lo que no solo es que tengan menos instrucciones, es que además el espacio que ocupan en su autopista es mayor.

Apple A13

Mientras 10 camiones pequeños pueden hacer 10 operaciones en 10 metros (a 1 metro por camión), los camiones de ARM ocupan todos 2,5 metros y en el mismo espacio solo podrán estar 4 camiones de operaciones básicas. Intel, al tener más instrucciones tiene camiones más grandes de 2,5 metros, pero cuanto más grande es el camión, menos veces se realizan ese tipo de operaciones. Se tiende a que las operaciones más repetitivas (las que más se hacen) vayan en los camiones más pequeños para que quepan más y se hagan más en el mismo espacio de tiempo. Otra diferencia más.

ARM procesa menos instrucciones y de una misma longitud, mientras Intel procesa muchas más instrucciones y de diferente longitud. ARM está pensada para consumir menos energía e Intel para ser más potente.

¿Por qué cuento esto? Porque la forma que ha encontrado Apple de suplir esta carencia es dándole chips específicos a sus CPUs para resolver tareas comunes y concretas. Si un chip recibe un conjunto de datos de vídeo y por el otro lado te devuelve el vídeo ya codificado, siempre va a ser más rápido que un chip genérico que tenga que programar todas las operaciones que suponen codificar un vídeo.

Básicamente como si nos dan una calculadora científica. Con una calculadora de solo cuatro operaciones yo puedo calcular logaritmos, pero siempre será más rápido tener un botón dedicado al que le des la cifra y te devuelve el dato esperado. Pues eso son los componentes que pone Apple para mejorar la eficiencia de sus chips y hacerlos más rápidos y prácticos. Ya no son instrucciones más complejas: son procesos completos dentro de un chip.

Apple A13 Bionic

Entre otros, un A13 tiene un motor neuronal que le permite ejecutar modelos neuronales de aprendizaje automático de una forma más eficiente que cualquier CPU porque está preparado para trabajar con el tipo de dato matemático y las operaciones que espera esta rama de la inteligencia artificial. También tiene un codificador de vídeo, un procesador de señales de imagen para procesar las fotografías que hace la cámara, un chip que acelera las operaciones gráficas, otro que decide qué tipo de núcleo de CPU debe usarse para una operación que ha de realizarse, otro para gestionar el sonido y mejorarlo... ese es el "truco de Apple".

Como ARM es más lento por definición y siempre será menos eficiente por su limitación como arquitectura, junto al chip Apple pone muchas ayudas específicas que le permiten realizar las operaciones más comunes que hagamos en el día a día de una forma dedicada y específica. Como sucede con los chips T2 en los Mac, pues permite que el chip de Intel no tenga que cargar con el cifrado de archivos o con la codificación de vídeo 4K.

El futuro A14

El procesador A13 viene a medir 98,5 milímetros cuadrados, un 20% más que el A12 por la incorporación de componentes y mejora de otros. Eso supone que en total el A13 cuenta con 8.500 millones de transistores en su interior. Si hacemos caso a las predicciones de gente experta en el tema como Jason Cross de MacWorld, que hizo un muy interesante análisis de lo que podemos esperar del A14 y que podéis leer aquí, el nuevo A14 sería un poco más grande y pasaría de los 100 milímetros cuadrados. Pero con ese tamaño, al reducir la tecnología de impresión a 5nm, podríamos estar hablando de llegar a los 15.000 millones de transistores, más de lo que muchas CPUs o GPUs del mercado de gama alta para ordenador tienen.

A13 3DMark

Si hablamos de rendimiento gráfico, el A13 tuvo un aumento increíble en el rendimiento gráfico. Probando su capacidad con el software 3DMark, un A12 supera levemente los 4.000 puntos de rendimiento. Sin embargo un A13 se dispara a más de 6.400 puntos. Una mejora de más del 50% que podríamos esperar siguiera adelante en el A14. No podemos olvidar que el A12x (generación anterior) de los iPad Pro ya tiene una potencia gráfica medida, superior a la PS4 o la Xbox One S (los modelos básicos). También el nuevo A13 ha supuesto una mejora exponencial en cálculo computacional. Básicamente el "estudio y desarrollo de algoritmos y software para la manipulación de expresiones matemáticas y otros objetos matemáticos".

A13 Cálculo computacional

Si vemos el resto de componentes, podríamos pensar que la reducción a 5nm y el nuevo número de transistores le permitiría a Apple poner más núcleos de motor neuronal, por ejemplo, o incluir nuevos chips de procesamiento gráfico para mejorar exponencial ese rendimiento del que hemos hablado. Tener más espacio para incorporar nuevos núcleos, es especialmente importante porque el ecosistema Apple tiene hoy día una carencia importante: el codificador AV1.

¿Recuerdan que hemos hablado sobre chips que hacen operaciones específicas que si no, obligan a realizar muchas más operaciones para conseguir el mismo resultado? ¿Nuestro botón de logaritmos? Eso pasa hoy día con los formatos de vídeo AV1 como el que usa YouTube para sus vídeos 4K.

Codecs de vídeo y soporte

AV1 es un codificador abierto y libre de royalties, que es el usa YouTube para sus vídeos en vez del HEVC que usa Apple porque tiene un chip que lo codifica y descodifica. ¿Por qué el Apple TV 4K no puede poner vídeos 4K de Youtube? Porque Google debería de incorporar un codificador genérico que consumiría mucha potencia del procesador A10 Fusion del Apple TV. De hecho, Apple pertenece al consorcio que ha creado este estándar y lo ha promovido, como ya informamos aquí en su día.

Pero si Apple pone un chip de vídeo que soporte AV1, no solo conseguiría soportar un estándar que es más eficiente y ocupa menos espacio aún para los vídeos que el actual HEVC. También conseguiría que sus productos pudieran reproducir los vídeos de YouTube de forma nativa, sin penalizar el consumo de batería y recursos. Podríamos reducir además el consumo de ancho de banda de una forma muy importante. De hecho, apuesto que el nuevo Apple TV que se presentaría este año tendrá soporte para este codificador AV1.

También es importante la memoria: los iPhone ahora mismo usan memoria LPDDR4 (desde hace varias generaciones, concretamente desde el A9). Pero Samsung (su proveedor de memorias) ya ha comenzado a producir memoria LPDDR5, más eficiente, más rápida y que comenzará a llegar a todos los móviles de gama alta este mismo año. Es normal pensar que Apple la incorpore en sus nuevos dispositivos.

Samsung LPDDR5

Estas memorias no solo son un 30% más eficientes energéticamente realizando las mismas operaciones que sus antecesoras (así que tenemos más duración de batería con la misma batería). También son un 30% más rápidas.

Un nuevo salto

Sin duda, todas estas pequeñas mejoras unidas en arquitectura, impresión, número de transistores, cambio en los componentes, memorias, más núcleos, nuevos formatos de vídeo soportados... si sumamos todo esto, podemos ver que el margen de mejora tecnológica de las CPUs sigue evolucionando y sin duda, el A14 aún dará mucho que hablar. No podemos olvidar que, a grandes rasgos, el A13 es una revisión del A12, pero el A14 sería un nuevo salto hacia adelante que nos proporcionará metas muy interesantes.

Espero que les haya resultado instructivo el artículo y veremos qué hace finalmente Apple con sus chips ARM y qué pasará cuando lleguen (porque lo harán) a los Mac. Cómo solventarán el problema de ser más lentos en operaciones genéricas con componentes específicos.

Comentarios cerrados
Inicio