ARM, referencia tecnológica europea

A pesar de que cuando nos mentan los grandes hitos de las Tecnologías de la Información y la Comunicación que han ocurrido durante este siglo nuestra mirada -y nuestra mente- se van a Silicon Valley y países como Corea del Sur, Japón y China muy pocas personas saben que el interior de buena parte de los dispositivos que usan a diario y que para ellos representan «la modernidad» trabajan componentes diseñados por un fabricante europeo que en estas fechas celebra su 25 aniversario.

Fundada por Robert Saxby en Cambridge en 1990, Advanced RISC Machines (su acrónimo es ARM) como el resultado de una empresa conjunta entre Acorn Computers, Apple y VLSI Tecnhology y con el fin de desarrollar la célebre arquitectura ARM, utilizada por la primera en sus inicios y la gran apuesta de los de Cupertino en su fallido Newton.

En esta sopa de letras podemos decir que ARM es una arquitectura RISC (Reduced Instruction Set Computer u Ordenador con Conjunto Reducido de Instrucciones) de 32 bits en sus inicios que con la llegada de la versión V8-A ahora llega a los 64 bits. De una forma muy trivial, se trata de una arquitectura de procesadores muy sencilla que los hace perfectos para las aplicaciones de baja potencia. Y ese es el motivo por el que el 50% de los chips de dispositivos móviles comercializados en 2015 en todo el mundo fueran fabricados por ARM y otro enorme porcentaje se haya ensamblado bajo sus especificaciones.

De esta forma, sus licencias son trabajadas por titanes como Apple, Samsung, LG, Qualcomm, Sony, Texas Instruments, Alcatel Lucent, Intel, Nokia, Microsoft, Mediatek, etc. Sí, estáis en lo cierto, un buen puñado son rivales directos y competencia en el mercado de procesadores y semiconductores.

Pero todo esto comenzó con un primer procesador, el ARM1. Su diseño comenzó en 1983 y la idea era construir un nuevo formato inspirado en el célebre 6502 para un entorno RISC de 32 bits. Para ello se implementaban 25.000 transistores y se utilizaba un proceso de fabricación de 3 micras (3000 nanometros. Una cifra enorme si tenemos en cuenta las que se barajan hoy día pero que para su época, hace más de treinta años, era todo un hito tecnológico y un reto para su ensamblaje.

Desde ahí se pudo construir un gigante que ahora también comercializa herramientas de programación (bajo las marcas RealView y KEIL), SoCs y todo tipo de plataformas. En definitiva, una referencia tecnológica europea y mundial. Felicidades.

A10X, ¿el primer chip de Apple para sus Mac?

Si hay algo que ha caracterizado a Apple tanto en la era de Steve Jobs como en la de Tim Cook es su objetivo de no depender nunca de terceros en la construcción de sus equipos (y, por lo tanto, en el abastecimiento de componentes). Así, la buena experiencia que han tenido con la construcción de procesadores propios para equipos cada vez más diversificados (del iPod Nano al Apple Watch pasando por Apple TV, smartphones y tabletas) ha hecho que los rumores sobre un posible chip propio para los Mac cobre fuerza.

Controlar todos los procesos de preproducción, presentación, lanzamiento y mejoras es fundamental para una empresa de estas características (que desarrolla solidariamente su software y su hardware) por lo que el último informe de la consultora KGI que asegura que estos componentes verán la luz en un plazo máximo de dos años cobra cada vez más sentido.

El primero de estos modelos sería el chip A10X lanzado en 2016 en el MacBook Air de 12 pulgadas. Un modelo de acceso que tendría suficiente con un procesador a medio camino entre un Intel Atom y un i3 como el que ya entregan las últimas versiones de iPhone y de iPad y que gracias a una versión aún más ligera de OS X y a las mejoras que se implementarán en los A9 y A9X daría las prestaciones a las que nos tiene acostumbrada Apple.

El procesador, fabricado integramente por Samsung (su colaboración nos ha dejado dispositivos de referencia y los coreanos tienen capacidad más que de sobra para surtir una demanda millonaria) se construirían con tecnología de 10 Nm (los novedosos Broadwell de Intel cuentan con tecnología de 14 Nm) sería el banco de pruebas para, más adelante, comenzar a implementar componentes más potentes para los modelos medios y de gama alta del catálogo.

Si nos fijamos en la nomenclatura que emplea KGI, el A10X debería emplear arquitectura ARM, radicalmente opuesta a la x86-64 que emplea actualmente Intel en sus chips para ordenadores y que condicionar la diferente oferta de aplicaciones existente para iOS y OS X.

Para los MacBook más potentes, iMac y Mac Pro (palabras mayores por su rendimiento y capacidad), los de Cupertino contarían con hasta tres proveedores de sus chips. Por un lado, el ya mentado Samsung y, por otro, la propia Intel y Global Foundry lo que garantizaría, de nuevo, el suministro para las ventas (crecientes) de estos equipos y permitiría aprovecharse de la experiencia con ambos para crear equipos a medida de las nuevas versiones de los sistemas operativos.

Por último, si nos fijamos en la tabla de lanzamientos de los nuevos modelos, podemos ver que en 2016 llegará el procesador S2 o, lo que es lo mismo, la nueva versión del Apple Watch. Con la consecución de un desarrollo integral del hardware y el software Apple parece ganar una nueva batalla al conseguir ser un poco más independiente de los proveedores. Veremos en qué queda todo esto.

Nvidia Tegra, la revolución de los chips

 

Nvidia es el mejor exponente del CES. Una empresa californiana de chips que siempre trae sorpresas, evoluciones y revoluciones a la Feria de Las Vegas y que cada año busca actualizarse y dar un golpe a la competencia en el escaparate más grande posible. En «casa». Si el año pasado fue el Tegra K1 el protagonista, este año le ha tocado el turno al X1 o, lo que es lo mismo, la aplicación de toda la tecnología de escritorio de las estanterías de los de Santa Clara a los equipos móviles y a los automóviles.

 

Con arquitectura de 64 bits, ocho núcleos (256 para la parte gráfica frente a los 192 del K1), se aprovecha de la tecnología de los Maxwell para multiplicar su rendimiento. Su tecnología de 20 Nm, su RAM DDR4 y su soporte para 4K es posible gracias a la dupla ARM Cortex A57 más ARM Cortex A53. En definitiva, una evolución que dobla el rendimiento del K1 y que elimina la distancia entre ordenadores y los demás equipos para facilitar, por ejemplo, el desarrollo de motores gráficos.

 

En la presentación quedó claro que sólo cuando la exigencia es máxima (gráficos y efectos muy complejos) se nota una diferencia respecto a los Maxwell de sobremesa. Con cualquier programa normal no habrá ningún salto de rendimiento ni diferencia, salvo en la mejora exponencial de la gestión de la energía. Para una demo «elemental» el X1 tan sólo necesito 10 vatios frente a los 100 que necesita una Xbox o a los 300 de una tarjeta gráfica de la propia Nvidia.

 

Pensado para trabajar con los últimos formatos de vídeo 4K y hasta 60 fps, su capacidad es un guiño al crecimiento continuo de la resolución de las pantallas en los equipos clásicos… y en los acercamientos que numerosos fabricantes están haciendo por llevar el 2K y el 4K a los smartphones y tabletas. Por cierto, en la conferencia Nvidia se jactó al comparar su chip con otros de relumbrón y superar el rendimiento de un famoso «anónimo» (no hay datos oficiales), el A8X de Apple.

 

 

 

 

Sin embargo, el futuro del X1 no está sólo en smartphones o tabletas. Los sistemas integrados de los coches de infotainment y seguridad son un mercado que todavía está naciendo y que Nvidia no quiere perderse. Drive PX es la solución que cuenta con dos Tegra X1 trabajando solidariamente para poder gestionar los 1.300 millones de píxeles por segundo que generan las doce cámaras que colocaron en el exterior de un coche. Una solución de hardware para desarrolladores ajenos a los fabricantes y que puede permitir sistemas de seguridad y aparcamiento automático mucho más elaborados que los actuales.

 

Y si el PX se encarga del perímetro del vehículo, el Drive CX se encarga de lo que ocurre dentro de la carrocería. Su potencia de procesado permite gestionar de modo autónomo los contenidos de hasta cuatro pantallas HD y es compatible con los principales sistemas del mercado por el momento: QNX, Linux y Android. Además, el Nvidia Drive Studio Software será de gran ayuda para la creación de interfaces para aquellos constructores que quieran entrar en la era de las TICs y no sean mañosos en la creación de estos servicios.

Exynos ModAp, el as en la manga de Samsung

image

 

Gran parte de la guerra de los smartphones (y de la tecnología) viene marcada por cifras de capacidad y potencia que raras veces son comprensibles o accesibles para el usuario medio. Sin duda, el procesador es la joya de la corona en cualquier dispositivo. Sin ir más lejos, el lanzamiento de los coprocesadores A7 y M7 de Apple tuvieron casi el mismo protagonismo que el del propio iPhone 5S y su implementación en los nuevos iPad Air y iPad Mini fueron para los de la manzana el factor diferencial que los colocaba a la altura de los Android más potentes.

Sabedores de esto los ingenieros de Samsung empezaron hace un año a crear variantes de los terminales de la casa con diferentes procesadores. Por un lado la falta de capacidad productiva y por otro la falta de un modelo a la altura de los Qualcomm más potentes hicieron saltar las alarmas en Corea.

Después de meses de duro trabajo Samsung por fin ha conseguido dibujar su propio as frente a la competencia, el nuevo procesador Exynos ModAP, un chip de 28 nanómetros y conectividad LTE que tiene a los Snapdragon 801 y 805 en su punto de mira.

Uno de los puntos fuertes frente a los actuales procesadores que usan los asiáticos es su mayor capacidad para gestionar imágenes fijas -parece que su rendimiento baja en la gestión del vídeo, aunque han prometido mejoras en las inminentes nuevas versiones-. De momento el tope son 8 Mp y 30 frames por segundo.

Como no podía ser de otro modo, y como ya puso de moda la versión 7 del chip de la manzana, el nuevo Exynos tendrá un coprocesador para gestionar más fácilmente los periféricos y toda clase de sensores de la nueva familia Gear. Las apuestas giran sobre cuál será el primer equipo en el mercado que lo incorporará. Aunque todo apunta a un smartphone o tablet -para los que se han pensado y que son la mayor fuente de ingresos del mercado-, algunos analistas hablan de un nuevo Chromebook que permitiera a los coreanos testar el potencial del chip sin poner a prueba la reputación de sus productos propios.

Intel Edison, la revolución hecha chip

 

De la interminable lista de novedades que nos llegaron del CES de Las Vegas la semana pasada nos quedamos, sin duda, con esta. No destaca por su potencia. Tampoco destaca por su diseño. Ni siquiera por su precio. Pero destaca, y mucho, por su tamaño y por su utilidad. Se trata de Intel Edison, una suerte de PC completo del tamaño de una tarjeta SD estándar.

 

Con unas medidas de 32x24x2,1 milímetros, Edison tiene un mercado de lo más concreto: el de los wearables. Edison es el nuevo rumbo de los americanos. Un pequeño dispositivo complementario a los que ya tenemos (smartphones, tabletas, PCs, etc.) que equipa la segunda versión del SoC Quark (System-on-chip, la plataforma de trabajo para los desarrolladores y programadores) construido en una arquitectura de 22 nanometros -frente a los 32 de Galileo- y cuenta con una CPU x86 a 400 MHz.

 

El pequeñín de Intel, por cierto, contará con una memoria RAM LPDDR2 (la misma que la de nuestros teléfonos inteligentes) y conectividad  WiFi y Bluetooth integrados. Por si fuera poco, permitirá expansiones externas de otros equipos de hardware. Esto permitirá añadirle sensores y equipos diferentes en función de lo que queramos medir o hacer con Edison.

 

El dispositivo es la propuesta de Intel para unir el mundo analógico y digital y, lo más importante, la estructura sobre la que los de Mountain View nos proponen un nuevo hogar domotizado. No es la base del internet de las cosas, es el internet de las cosas. La digitalización de lo que nos rodea.

 

 

 

 

 

Nos permitirá monitorizar a nuestro bebé, por ejemplo. Su prototipo Mimo es un accesorio que se une a la ropa que viste el niño para controlar sus constantes vitales. El dispositivo nos enviará donde queramos -el teléfono, el televisor, el ordenador, etc.- los datos relacionados con nuestro hijo para saber que está bien en todo momento. El ritmo cardiaco, la respiración, la temperatura corporal e, incluso, la humedad relativa de la habitación en la que se encuentra.

 

La compatibilidad es absoluta con casi cualquier dispositivo en el mercado gracias a la conectividad que incorpora Edison y a que el lenguaje empleado por Intel para transmitir esta información forma parte de un SDK que, a buen seguro, Intel liberará en un futuro cercano.

 

Y es que Mimo es sólo una de las miles de posibilidades que Intel baraja para Edison: ropa, electrodomésticos, juguetes, muebles, semáforos, puertas, vehículos, cualquier tipo de instalación eléctrica… será el sensor externo que decidamos acoplar el que determine qué queremos hacer con esta maravilla. De hecho, los californianos han creado una suerte de concurso para que todo el que quiera pueda proponerle utilidades (la mayoría las determinará el mercado): se llama Make it Wearable Challenge y promete aplicaciones de lo más imaginativo.

 

 

Un nuevo rumbo

 

Ante la competencia en los sectores tradicionales, Intel ha decidido adelantarse a la competencia y es, sin duda, la empresa que más está apostando por los wearables y el internet de las cosas: la digitalización de lo analógico. La implicación es tal que el CES de Las Vegas es el primero en el que no hemos visto ninguna novedad de los Intel Core, los chips creados ex profeso para los ordenadores clásicos.

 

Intel es consciente de que su mercado tradicional está cediendo terreno frente a los dispositivos móviles. El crecimiento de ARM es exponencial… pero también es cierto que Intel lee el futuro no como una desaparición del equipo de sobremesa o portátil por completo sino como un ecosistema en el que será el centro de muchas otras utilidades.

 

Los relojes inteligentes o las pulseras deportivas son sólo la versión inicial de un negocio (el de la tecnificación de lo analógico va mucho más allá que el de los wearables) que está en su amanecer y que nos promete utilidades con las que ahora sólo soñamos -o ni siquiera eso-. Y esta es la gran baza del otrora dominador del mercado de chips. ARM está demasiado centrada creciendo en los dispositivos móviles. AMD, su rival de antaño… ni está ni se la espera a medio plazo. Qualcomm todavía carece del músculo para estar en varios negocios a la vez de forma competitiva. Intel parece haber dado con un filón… y parece haberlo encontrado mucho antes que los rivales.