Baterías en estado sólido, ¿la evolución que esperábamos?

Probablemente, si hiciéramos una encuesta sobre qué mejorar en nuestros smartphones, da igual en qué lugar del mundo, una de las primeras respuestas sería siempre la autonomía del dispositivo. Es cierto que durante los últimos años las prestaciones de los equipos móviles han mejorado exponencialmente mientras que sus horas lejos del enchufe se han mantenido (lo que denota una gran mejora relativa) sin embargo, son muchos los que siguen echando en falta no depender de un cargador casi a diario.

La solución a corto plazo, para muchos, pasa por las baterías en estado sólido. Una alternativa a las  clásicas de ion-litio (y sus tecnologías derivadas como las de polímero de litio) ya que parten de preceptos radicalmente diferentes. Por ejemplo, no necesitan de un líquido que permita transmitir los iones de los polos positivos a los negativos con lo que el espacio de las celdas de almacenamiento de energía se minimiza.

En su lugar, esta nueva generación de «pilas» como las que están desarrollando Samsung o LG se sirven de un metal de litio que les permite aumentar su densidad. De hecho, algunas compañías están empleando diferentes capas y densidades para minimizar las posibles fracturas y, no solo hacer las más seguras y resistentes, sino más capaces energéticamente. Es el caso de Applied Materials.

Los prototipos que han construido llegan a picos de eficiencia en las que cuentan con una densidad hasta un 95% mayor que sus equivalentes «líquidas». Esto significa contar con casi el doble de autonomía sin necesidad de modificar el tamaño de los dispositivos. En el caso de los dos fabricantes coreanos de referencia significa que sus smartphones premium superarían los 6.000 mAh de capacidad.

Las ventajas según los investigadores van, no obstante, mucho más allá de una mayor densidad energética. Su estructura, por ejemplo, hace que se calienten mucho menos lo que redunda en una menor transferencia de calor a los demás componentes del equipo lo que hace que éste trabaje de una forma más eficiente y que la vida útil de sus partes sea mucho mayor.

Otra de las ventajas es que el tiempo de recarga de las nuevas baterías es casi seis veces menor que el de una batería normal. Volvamos a hacer cuentas. Si en un Samsung Galaxy S8 tardamos unos 60 minutos en lograr el 100% de capacidad, en un Galaxy S8 con una batería sólida de 6.000 mAh tardaríamos 20 minutos en llegar al tope.

Esto sin tener en cuenta que los sistemas de carga rápida como Quick Charge, Super VOOC o Dash Charge prometen ser capaces de duplicar sus tasas de transferencia de energía en dos años (el tiempo en que se estima que llegarán los nuevos formatos al mercado). A esto hemos de sumarle que el drenaje pasivo (la pérdida de energía de las baterías aunque un dispositivo no esté siendo usado o incluso esté apagado) se minimiza.

Por si esto fuera poco, las baterías de metal litio, al sufrir menos desgaste térmico y de exposición a los ciclos de carga y descarga en el tiempo prometen una vida útil hasta cinco veces superior a una clásica. De este modo, si una batería convencional solo empieza a notar problemas a partir del tercer año (en condiciones normales) estamos hablando de «pilas» que podrían superar holgadamente la vida de un terminal -no creemos que desaparezca la obsolescencia programada-. La vida útil de un smartphone podría llegar sin problemas a los 10 años gracias al menor desgaste -de nuevo volvemos a la temperatura- de sus componentes.

Por cierto, el último as en la manga de los fabricantes es que no han de fabricarse exclusivamente con litio. Hay modelos que se han construido con mangnesio o partes de silicio que permiten eliminar el litio de la ecuación lo que es una muy buena noticia para el medio ambiente.

Sobre el papel la adaptación debería ser rápida ya que todo son ventajas. Una vez más el mercado (y la legislación) dictará qué ocurre con una de las partes más polémicas de nuestros aparatos electrónicos.

Project Nightonomy, Ford sigue imparable hacia la conducción autónoma

Si hablamos de coche autónomo -y por muy reiterativo que suene es una de las tendencias más importantes en la industria del motor- hay varios nombres ineludibles: Google, Tesla, Toyota y Ford. Todos ellos han puesto en marcha proyectos para que sus coches no necesiten de un conductor para moverse desde puntos de vista muy diferentes y aunque las dos primeras parecen ser las más avanzadas -por su cobertura en los medios-.

Sin embargo, parece que son las dos segundas las que pueden conseguir algo más relevante por su enorme volumen de ventas y, sobre todo, por su dilatada experiencia sobre el asfalto. Es eso precisamente lo que ha hecho que la empresa de Detroit haya puesto en marcha una nueva fase en la que estudiará la viabilidad de su modelo en una de las fases más complicadas de la conducción «humana»: la noche.

Ford quiere demostrar que ha conseguido llegar al nivel cuatro de autonomía -ese en el que el vehículo no solo conduce solo sino que lo hace mejor que si fuera dirigido por un humano- incluso en condiciones de oscuridad absoluta. El Project Nightonomy, que lleva en marcha cuatro meses, se aprovecha de la evolución técnica de todos los modelos puestos en la carretera hasta ahora.

De esta forma, los Mondeo-Fusion cuentan con una nueva generación de radares, sistemas LIDAR, cámaras y mapas. Destacan sobre todos los segundos capaces de medir distancias mediante láseres lo que les permite ser mucho más fiable que las cámaras en condiciones de baja o nula visibilidad.

En la primera fase del proyecto, llevada a cabo en Arizona, los modelos han circulado en ausencia de obstáculos y personas para comprobar que todos los procesos de navegación son sólidos y fiables. Como se puede ver en el vídeo que incluimos en la entrada, los coches circulan con las luces apagadas.

Los sistemas LIDAR desarrollados junto a Veladyne permiten trabajar en rangos de distancia de hasta 200 metros (Ultra Puck). De este modo, queda patente la capacidad de Ford para construir un sistema autónomo inteligente capaz de elegir entre el soporte más adecuado a cada condición de la vía (en conducción sobre nieve da un uso secundario a los láseres para guiarse preferentemente con cámaras y mapas.

Uber, del servicio de taxis al coche autónomo

Si hay algo que ha caracterizado a Uber desde su nacimiento es su determinación por impactar en el mercado y su capacidad de adaptarse (y crear) nuevas tendencias en lo que a movilidad se refiere. La empresa estadounidense ha estado en el ojo del huracán por su «peculiar» forma de facturar y ha hecho que incluso las instituciones públicas tuvieran que tomar parte en sus batallas contra el transporte tradicional. Sin embargo, nadie podrá achacarle su espíritu innovador.

Por eso, la start up más valiosa del mundo sigue pensando nuevas líneas de negocio que sigan dándole visibilidad (otra cosa es que le reporten ingresos) y en plena vorágine de la economía circular los de San Francisco han fijado sus ojos en el producto más de moda en Silicon Valley y buena parte de Europa y Japón: el vehículo autónomo.

Ya hemos visto como Apple, GoogleTeslaNissan, etc. se han propuesto lanzar al mercado en el menor tiempo posible coches inteligentes que no solo nos protejan sino que sean capaces de llevarnos de un punto a otro minimizando los riesgos que derivan de la conducción «humana». Una nueva forma de adelantarse a sus rivales y, de paso, de eliminar su mayor problema: los ingresos de los chóferes.

Para ello, la empresa ha buscado aliados que le permitan desarrollar su coche autónomo -que acabará derivando en una suerte de «tarifa plana» de transporte personalizada-. Por un lado, la Universidad de Arizona con la que trabaja en el desarrollo de sistemas de lectura e interpretación de mapas así como toda la batería de sensores ópticos necesarios para que un coche se mueva «solo». El primer paso ha sido la donación de 25.000 dólares al Colegio de Ciencias Ópticas para becas.

Por otra parte, Uber también ha llegado a un acuerdo con la prestigiosa Universidad Carnegie Mellon de Pittsburgh que se centrará en el estudio de diferentes desarrollos tecnológicos necesarios para la creación del coche autónomo (materiales, autonomía energética, seguridad, etc.).

En pleno proceso de redefinición del transporte personal Uber pretende ser la pionera en un sistema más sostenible. A día de hoy el planeta, la sociedad, no es capaz de tolerar la inmensa demanda energética que tienen nuestros hábitos de transporte. Ni por el impacto de los combustibles fósiles cuando nos movemos, ni por toda la energía necesaria que requiere la construcción de los propios sistemas de transporte. La huella de carbono es demasiado grande.

Si a eso le unimos los problemas de movilidad que supone un vehículo en una ciudad (espacio y contaminación), los altos costes de tener un coche (impuestos, que irán in crescendo; tiempo para movernos entre puntos; restricciones de accesos a los centros urbanos) parece que la solución de ofrecer un transporte limpio para movernos solo cuando lo necesitemos -y apoyarnos en el transporte público el resto del tiempo- se antoja más que una excentricidad una necesidad imperante. ¿Quiénes serán los siguientes en interesarse por este modelo? Apostamos por los fabricantes.

2015, nuestras predicciones

Por fin acaba 2014, un año lleno de dispositivos, ciencia y nuevas tecnologías que han dado el espaldarazo a las TICs en la sociedad y que se han convertido en herramientas indispensables en nuestro día a día. Sin embargo, en los más de cuatro años que llevamos compartiendo este espacio hemos aprendido que la tecnología es algo fugaz y cambiante y que cualquier cosa que parezca segura un mes acabará desarrollándose y mejorando en poco tiempo. ¿Cuáles son entonces los retos  y predicciones para este año?

  • Consolidación de algunas redes sociales. Son un servicio -o un producto- y como tales pasan por las mismas etapas que sus equivalentes clásicos (y analógicos). Y después del boom de los grandes hace poco más de un lustro y del crecimiento exponencial en número, veremos como muchas desaparecen -no os preocupéis, hay cientos- y que sólo las más especializadas y las más relevantes sobreviven. Facebook y sus aplicaciones, como Instagram, parece que son las que llevarán la voz cantante. Twitter necesitará hacer algo bien o ponerse en venta. Pinterest tendrá que buscarse un espacio frente a la presión de las grandes y YouTube dará un salto cualitativo con la entrada de música (ya es mucho más que un portal). Las que no estén preparadas para aportarnos algo (en cantidad o de calidad) quedarán condenadas a desaparecer por la saturación que nos causa que haya tantas.
  • Una nueva generación de dispositivos. Y no se trata de los smart watch que se empiezan a ver en las muñecas (y que veremos mucho más por el efecto Apple Watch). Se trata de equipos domésticos inteligentes. De chips en nuestra ropa. De nuevas combinaciones de gadgets ya existentes -como ha ocurrido con los phablets y como pueden hacer Surface y un esperado iPad Pro-. Equipos que unan lo mejor de varios segmentos y que tengan doble faceta. Por un lado saber hacerlo todo bien y ser muy competentes en una sola actividad. Si hasta ahora tener el smartphone nos parecía suficiente, ahora le llega el turno de consolidarse a todos sus periféricos.
  • La esperada mejora de las baterías. Muchos periféricos significan muchas horas con el Bluetooth y el WiFi activados. Y eso significa mucho tiempo «esforzando» la pila del terminal… y muy poca autonomía. Así que los fabricantes ahora se verán obligados a darnos baterías que aguanten sí o sí un día lejos del enchufe tengan o no una manzana en la carcasa. Descargaremos más datos que nunca pero también los enviaremos. Demandaremos más velocidad de transferencia y mejores prestaciones. Baterías de gel y con carga en segundos son las últimas noticias que nos llegan de Japón y Silicon Valley. De su buen hacer también dependerá la industria automotriz.
  • El año del streaming. O, mejor dicho, del internet en todas partes. Más allá de acumular contenidos cada vez trabajaremos con un híbrido nube-soporte físico. Necesitaremos más internet porque descargaremos contenidos en cualquier lugar. Productos como Yomvi han demostrado su viabilidad. El 4G, que «acaba de llegar» se nos ha quedado lento y algunos ya lanzan el 4.5G mientras Ericsson prueba el 5G con unas tasas de transferencia surrealistas. Además, el éxito de Spotify es sólo el primer paso para que Netflix y compañía revolucionen el modo en el que consumimos contenidos multimedia. Un gran reto para las operadoras y para las administraciones.
  • El momento de Microsoft. En un mercado más clásico, será la hora de la verdad para Windows. Los PCs parecen resucitar a costa de las tabletas. Pero, más allá, Windows 10 es la oportunidad para que haya una verdadera plataforma multipantalla. Después de la mala aceptación de Windows 7 y 8 -y lo que le ha supuesto al sistema en su versión móvil- Microsoft dice haber escuchado a los usuarios para crear algo mucho más clásico, intuitivo, vistoso, estable y eficiente. Falta le hacer porque el mercado no suele perdonar tres veces… y porque Chrome empieza a ser más capaz y la tentación OS X nunca se marcha.
  • Una oportunidad para Linux. El software libre también gana adeptos. Sólo necesitan saber venderse y, sobre todo, tener una plataforma móvil sencilla y capaz que sirva de carta de presentación para el gran público. La primera parte es una causa perdida (McCann ya está cogida por Apple) pero la llegada de terminales y tabletas Linux es inminente y, a buen seguro, tendrán su público, por ser de culto, por ser barata y por ser diferente.
¿Vosotros qué creéis que pasará en 2015?

 

Consumos, ¿por qué tanta polémica?

¿Quién no se ha enfrentado alguna vez a la compra de un coche y ha preguntado al comercial cuánto gasta realmente por el modelo que le interesa? Cada vez existe más polémica alrededor de las diferencias (a veces enormes) entre el consumo homologado y el consumo real del vehículo lo que ha generado una enorme «mitología» sobre cómo se realizan las mediciones. Además, la llegada de la crisis (con la subida de los carburantes tanto en precio bruto como en el impacto sobre nuestras ganancias) así como los impuestos por tramos en función del consumo homologado han hecho que esta cifra este de total actualidad.

New European Driving Cycle

 

NEDC son las siglas clave para entender todo esto. En castellano se podría traducir (no literalmente) como el Ciclo Europe Normalizado de Homologación y está instaurado por una entidad dependiente de Naciones Unidas y que responde al nombre de United Nations Economic Comission for EuropeLa integran 56 Estados y sirve para fomentar la colaboración económica entre los mismos.

El actual sistema (pronto verá la luz su sustituto, un ciclo que permita catalogar los vehículos en niveles de eficiencia como ya ocurre con los electrodomésticos y las ruedas) es una prueba parametrizada a la que todos los fabricantes deben someter a todos los nuevos modelos en todas sus versiones (incluidos niveles de acabado si estos incluyen llantas u otros elementos que puedan hacer variar el resultado).

El ciclo consta de una prueba real en banco de rodillos y en un espacio cerrado en el que la estructura se ajusta en diferentes niveles de resistencia en función del coeficiente aerodinámico y el peso del modelo. Esto permite, en teoría, emplear un mismo banco de modelos para diferentes configuraciones de carrocería para un mismo modelo siempre que compartan motor y ruedas. Respecto a la mecánica, un potente ventilador frontal se encarga de mandar el aire suficiente para que se dé una correcta refrigeración y se adapta siempre a las necesidades del motor en función de la velocidad y potencia requeridas.

Por último, los modelos tienen que haber vivido un rodaje de entre 3.000 y 15.000 kms y antes de la prueba pasarán un periodo de entre 6 y 30 horas en un espacio estanco a 25 grados. Después, la prueba se realizará con una persona dentro del vehículo y con todos los dispositivos electrónicos y eléctricos del coche apagados.

Ciclo urbano y ciclo extra-urbano

 

 

 

Durante 20 minutos cada modelo recorrerá unos 11 kms a una velocidad media de 35 kms/h. Los pasos a seguir son siempre los mismos. Se enciende el motor y se mantiene el vehículo al ralentí durante 11 segundos antes de insertar primera, acelerar hasta 15 kms/h y mantener la velocidad durante 8 segundos para después detenerse durante 21 segundos.

Después se vuelve a acelerar hasta 32 kms/h en segunda para mantener la velocidad durante 24 segundos para repetir el parón de 21 segundos y subir a 50 kms/h durante 30 segundos, bajar en segunda a 35 y volver a detenerse. Esta secuencia se repite cuatro veces hasta completar 13 minutos en los que el modelo «recorre» poco más de 4 kms a 18,77 kms/h. Se recrea un recorrido urbano con intersecciones, semáforos, etc.

Sin parar el coche -está 20 segundos al ralentí-, se acelera hasta 70 kms/h en cuarta y se mantiene el ritmo durante 50 segundos para después bajar a 50 kms/h durante un tiempo limitado antes de volver a los 70 kms/h durante otros 50 segundos como previo antes de acelerar hasta 100 kms/h, después a 120 y mantenerla 10 segundos. En total se recorren casi 7 kms en 6:40 minutos a una velocidad media de 62,6 kms. Esta segunda parte recrea un recorrido fuera de ciudad y el resultado final de la prueba -no la media de ambos pues no se ha llegado a parar el motor nunca-, es el consumo homologado.

¿Dónde falla la homologación?

 

 

Sin duda en la poca relación entre las condiciones reales de uso y las de la prueba. El modelo está siempre sobre rodillos planos en un centro aislado del viento frontal o lateral. Además, las condiciones de uso del vehículo: con sólo una persona, sin ningún equipo electrónico conectado y con el maletero vacío, son poco comunes.

Otro de los fallos es que el sistema de medición es público. Los fabricantes conocen el proceso y eso les permite desarrollar los modelos con las condiciones técnicas necesarias para marcar una cifra más baja que siempre les facilitará las ventas. Por muy «eco» que conduzcamos es casi imposible que podamos igualar los resultados. Las curvas de par y entrega de potencia según las relaciones mecánicas muchas veces -sobre todo en las versiones «limpias»- se piensan fijándose en el ciclo de homologación. Ni qué decir sobre los híbridos y modelos equipados con stop/start que llegan a detener por completo el motor en las fases de ralentí -es cierto que en el uso real también, pero la duración de los semáforos y de las intersecciones es habitualmente más de 11 o 21 segundos.

Por último, en algunos casos aislados, los fabricantes han sido acusados por usar lubricantes extremadamente caros y especializados (propios de competición) que minimizan la fricción de las partes del motor y hacen que el resultado de la homologación sea ostensiblemente más bajo al resultado con un aceite normal.

A favor del NEDC podemos decir que es el mismo para todos los modelos lo que sí nos permite saber de un modo fehaciente si un coche gasta más que otro de las mismas características. Aún así, cada vez son más los consumidores que piden que se realicen pruebas más similares a los estándares en Japón (JC08) o Estados Unidos (FTP-75) que en muchos casos han demostrado cifras de consumo mucho más reales.

Además, cada vez son más las asociaciones de consumidores que piden que se siga el ejemplo de otros países donde fabricantes como KIA, Hyundai o Ford han tenido que indemnizar a sus clientes por homologar cifras de consumo poco reales.