Scratch Eguna, lo que ocurre cuando les das herramientas a los más pequeños

Siempre que la sociedad ha dado un salto cualitativo el sistema educativo ha tenido que adaptarse. La democratización del acceso a la formación ha permitido (junto a otros factores) que durante las últimas décadas la humanidad haya vivido un revolución científica sin precedentes. Los avances en campos tan dispares como la medicina, la ingeniería o la informática no solo suponen un reto ético sino también requieren de una adaptación de alumnos y docentes.

A principios de este mismo año, por ejemplo, veíamos como la Administración de Barack Obama anunciaba una inversión de 4.000 millones de dólares para potenciar la enseñanza de informática a todos los niveles con el fin de cubrir las demandas de empleo e incrementar la competitividad del país en sectores estratégicos a medio plazo. Dentro de este plan el lenguaje de programación tiene un lugar central. En muy poco tiempo será una de las formas más importantes de comunicación para muchos profesionales.

Mucho más cerca, en Euskadi llevamos seis años celebrando el Scratch Eguna, un evento anual que cuenta con la colaboración de una veintena de centros educativos en el que niños de quinto y sexto de primaria muestran proyectos personales desarrollados en sus colegios con la herramienta de programación Scratch.

Ésta es una aplicación con una sencilla interfaz gráfica que les permite experimentar con los conceptos básicos de programación de ordenadores mientras les ayuda a desarrollar el pensamiento lógico y algorítmico, solucionar problemas de manera metódica, potencia la elaboración de autodiagnosis de su trabajo así como la posibilidad de obtener resultados complejos a partir de ideas simples -se aprenden y asumen conceptos matemáticos como coordenadas, variables, aleatoriedad y algoritmos-.

En definitiva, los más jóvenes pueden usar este lenguaje de programación para crear animaciones, videojuegos y programas sencillos. Una buena forma porque se interesen por una herramienta que les será indispensable en muchos de los currículos académicos que decidan seguir y por el que muchos profesores están apostando para que entre dentro de las asignaturas a impartir en primaria.

A partir de este programa, el MIT Media Lab desarrolló el Scratch Day (Eguna en Euskadi) con el fin de que en todo el planeta los niños puedan exponer sus trabajos y comprender como otros niños han llegado a planteamientos similares por otros caminos (o cómo han desarrollado proyectos completamente diferentes a partir de las mismas ideas). Todo ello, además, potencia el aprendizaje colaborativo.

Durante dos meses, los grupos formados por cinco o seis niños deben crear una animación, un videojuego con elementos interactivos y una instalación física controlada por un ordenador, además de un póster promocional del proyecto. La idea de este triple reto es fomentar el desarrollo de software, las aplicaciones informáticas sobre el hardware y la vertiente artística que necesita todo  proceso creativo.

Los proyectos, voluntarios y desarrollados fuera de clase, han de ser creados de forma autónoma y el profesorado solo les da apoyo externo puntual con el fin de que sean los alumnos quienes descubran los problemas de sus planteamientos y la forma de solucionarlos.

El pasado sábado el Azkuna Zentroa de Bilbao, Artium de Gasteiz y Tabakalera en Donostia fueron las sedes donde se presentaron todos los proyectos. De entre todos ellos los que más destacaron fueron un Pachinko en el que un robot se encargaba de recoger canicas que soltaban los niños a través de una pequeña plataforma, un videojuego en el que una nave (¡que era el propio mando del juego!) tenía que sortear unos asteroides y otro juego en el que había gente saltando de un edificio por culpa de un incendio y en el que había que cogerlos con un camión de bomberos antes de que cayeran al suelo.

En definitiva, una iniciativa válida y necesaria en la que el profesorado coincidió que no solo potencia el aprendizaje de los niños (están deseando de que llegue la hora de seguir trabajando en el proyecto a pesar de las horas escolares y las actividades extraescolares) sino que demuestra que son nuestro mejor recurso social.

Sin embargo, la falta de publicidad y de apoyo institucional pone en serio riesgo la posibilidad de que se sigan celebrando más ediciones. Los tres profesores que se encargaron de gestionar la edición de Bilbao concluían que les faltan recursos y que aún no han sido capaces de encontrar una iniciativa de patrocinio privado que pueda potenciar un evento absolutamente necesario. Esperemos que esto no ocurra y que las tecnológicas vascas hagan caso a este llamamiento antes de que sea demasiado tarde para el Scratch Eguna y nuestro sistema educativo.

Noticia recomendada por Binary Soul

Google Chrome, ¿es relevante su consumo de RAM?

Durante las últimas semanas ha sido un tema recurrente en muchos medios especializados: Google Chrome, el navegador por excelencia, caracterizado por su perfecta simbiosis con la plataforma Android y su velocidad, consume mucha memoria RAM. Más allá de entrar a debatir si hay mejores navegadores o no o si Google debería remediarlo (entendemos que siempre se puede mejorar) vamos a explicar por qué ocurre y si tiene solución.

Cuando la empresa de Mountain View concibió su navegador lo hizo bajo varias premisas claves: debía ser rápido, muy capaz y estable. Esto se conseguía dividiendo la navegación en extensiones. Cada una de las tareas que se ejecutaba en cada una de las pestañas de Chrome debía ser completamente autónoma e independiente de las demás. Esto permitía proteger al usuario de posibles cuelgues de una web. Solo afectaría a la pestaña y no perderíamos todas nuestras demás tareas.

A cambio, esto hacía que las tareas como bloquear la publicidad o los plugins pudieran duplicarse de modo que la carga de trabajo era mucho mayor y no se podía aprovechar sinergias de una pestaña otra. Un «problema» del que ya hablaban hace siete años los desarrolladores que trabajaban con Chrome pero que en aquel momento no suponía algo demasiado grave. Sin embargo, el incremento exponencial de la actividad en la web así como de todas sus utilidades han comenzado a pasar factura a esta característica del navegador.

Por si esto fuera poco, Chrome cuenta con un renderizado previo de las páginas que sirve para acelerar su carga lo que unido a que algunos plugins no son eficientes y no liberan la memoria RAM que ya no necesitan crean un círculo vicioso fatal para todos los equipos que no cuenten con una buena cantidad de gigas dedicados.

Pero, ¿es esto negativo? Depende de cómo lo planteemos. Desde el punto de vista tradicional de los PCs siempre se ha seguido el mantra de que es importante tener RAM libre. Y es cierto que si estamos continuamente exprimiendo el 100% de la RAM es un síntoma de que algo va mal en nuestro sistema operativo. Pero también es cierto que no sirve de nada tener una buena cantidad de memoria disponible si no la vamos a utilizar.

El mejor ejemplo lo vemos en los iDevices. Dispositivos que siguen el mantra de sencillez de Steve Jobs y que normalmente cuentan con bastante menos RAM que sus equivalentes Windows o Android pero que suelen realizar un empleo mucho más racional y eficiente (más al límite) del hardware del conjunto.

Cuando vamos al límite de la memoria RAM en el dispositivo se da un proceso que se conoce como empleo de la memoria virtual: se utiliza parte de la capacidad del disco duro para simular que éste es un módulo auxiliar de memoria. Esto, habitual en equipos con Linux, por ejemplo, ha ido perdiendo importancia con la escalada de hardware que viven todos los dispositivos en los últimos tiempos.

Las soluciones son sencillas: o bien pasar a navegadores más ligeros como Firefox o Spartan -eso prometen-, cerrar tareas que no requieran de nuestros recursos o, simplemente, aumentar la memoria RAM del dispositivo. Mientras que el empleo de la RAM no suponga un problema para el resto de actividades que realicemos en el equipo no debemos preocuparnos.

Microsoft, evolución al hardware

Hace tan solo una década Microsoft era el actor principal del universo informático. Su sistema operativo, Windows, era la referencia absoluta en los ordenadores de medio mundo y eso le permitía controlar internet a través de su Explorer y casi cualquier negocio tecnológico. Su mundo (el mundo tecnológico en general), sin embargo, se sacudió con la explosión de los smartphones, la computación en la nube y las tabletas.

Buen ejemplo de ello es la carta que Bill Gates ha enviado a sus empleados para celebrar las cuatro décadas de la compañía. «Vivimos en un mundo multiplataforma» reza el fundador y máximo accionista de la empresa de Redmond. Y eso ha hecho que los de Windows y Office se hayan tenido que adaptar para asegurarse la supervivencia. Primero Steve Ballmer apostó por el hardware y ahora Satya Nadella se ha decantado por los servicios y su Drive.

Vayamos por partes. Microsoft ya no es solo un proveedor de software para terceros fabricantes de dispositivos. La compra de Nokia (muy polémica por cómo se fue desarrollando) le ha otorgado a la empresa una enorme presencia en el mercado móvil -sobre todo en los modelos de gama media y los mercados en desarrollo. Sus pizarras inteligentes están presentes en casi todos los centros de reuniones relevantes. HoloLens se antojan como una de las pocas propuestas realistas de realidad virtual (aplicado tanto al ocio como al mundo profesional) y, Xbox, sigue cosechando éxitos a pesar de la feroz competencia de la PlayStation de Sony.

Pero esto no es todo. Sus históricos grandes aliados -Hewlett Packard, Dell, Lenovo, Acer y compañía- son ahora también sus competidores gracias al gran éxito de Surface. Lo que empezó siendo una respuesta al iPad ha acabado convirtiéndose en un portátil híbrido de gran capacidad. Tanto que si bien su primera versión no fue especialmente exitosa, la segunda se ganó millones de adeptos entre los profesionales y la tercera está batiendo récords de reservas en su versión «doméstica».

Y, aunque la piedra angular de todo esto sigue siendo Windows, que promete ser el primer sistema operativo completamente funcional y compatible entre las cinco pantallas (smartphone, tableta, ordenador, consola y televisión) la clave de su éxito reside y residirá en el concepto global que Microsoft ha adquirido respecto a su completo software y su potentísimo hardware.

Surface 3 será la guinda a la costosa estructura (por tiempo, recursos y esfuerzo) que Microsoft puso en marcha cuando decidió reciclarse. Esta familia híbrida supone ya el 4% de los ingresos de la multinacional y aunque todavía no reporta beneficios al nivel de su otro gran éxito, la Xbox, lejos quedan las pérdidas que le ocasionaron las primeras versiones. Las cifras son geniales: más de 1.000 millones de facturación y un incremento de ventas del 24%. De seguir la tendencia así pronto será un actor muy relevante en el negocio de los ultraportátiles y las tabletas.

Más difícil será recuperar el terreno perdido entre los teléfonos inteligentes. Aunque los Lumia han vuelto a repuntar en ventas un 28% los 243 millones que le costó a los de Redmond integrar a los fineses en su estructura y los 7.000 millones de dólares de la operación dejan muy muy lejos los números negros. Además, la explosión de los terminales asiáticos de gama media y el inquebrantable éxito del iPhone sea cual sea su precio y su capacidad dejan cada vez menos margen para sus rivales.

Aún así hay espacio para la esperanza. La Xbox, que comenzó siendo un enorme agujero negro para los beneficios de la compañía es ahora la piedra angular sobre la que Microsoft sustenta toda su oferta de ocio y sobre la que consigue demostrar su capacidad de construir dispositivos sobresalientes. Parece que el futuro de la empresa, gracias a su migración, está asegurado unas cuantas décadas más.

Tecnológicas e I+D, Huawei quiere ser la referencia

La investigación en I+D+i, las patentes y el desarrollo de las TICs y de la industria 4.0 son los grandes caballos de batalla que blindarán el futuro de las potencias económicas que vienen y son la vara de medir cómo se está recuperando cada economía (y por ende cada sociedad) de la crisis financiera, económica y social más importante en casi un siglo.

Así, la supervivencia económica de China, en buena parte va más allá de su condición de fábrica y multicopista de Occidente y tanto las instituciones como las empresas son conscientes de que deben hacer un esfuerzo para marcar un diferencial tecnológico sobre Japón, Corea, Estados Unidos y la Unión Europea como «cerebros» del planeta.

Huawei, aunque es conocida por el gran público por sus smartphones de gran calidad y precio razonable destaca sobre manera por su negocio de infraestructuras de redes. Así, siguiendo el ejemplo de Cisco, Samsung, Nokia, etc. destaca por su independencia a la hora de desarrollar y crear sus propios componentes de hardware y de dar una visión particular y diferenciada a su enorme catálogo de productos y servicios.

A diferencia de Xiaomi u otras empresas con el prurito «Made in China» la empresa con sede en Shenzhen lleva años mostrándose como una de las más activas del sector tecnológico en la inversión en I+D+i. Así, durante 2014 incremento un 29%, hasta los 6.600 millones de dólares su partida en investigación y desarrollo. Respecto a sus ingresos, el porcentaje es un espectacular 14,2% del total.

Si echamos la vista atrás, durante la última década la empresa ha invertido 30.700 millones de dólares para quedarse a la altura de las tecnológicas más relevantes de Silicon Valley y superar a alguno de sus rivales con más renombre.

Así, como bien explica Kote Puerto en Xataka, durante el año pasado solo Microsoft, Google y Amazon invirtieron más que los chinos. Por debajo se encuentran multinacionales como Apple, Oracle, IBM o Facebook. En cuanto al porcentaje de los ingresos que se dedican a investigación, desarrollo e innovación, Microsoft se gastó un 12%, Google casi un 15% y Amazon poco más del 10%. Aquí la cifra respecto a Facebook o Twitter es inmensamente superior.

Y parece que todo este trabajo durante la última década está dando sus frutos. Primero porque la empresa ya no lleva el prurito de productos de baja calidad. Segundo porque su presencia en mercados tan complicados como el Norte de Europa y Estados Unidos empieza a ser más que relevante. Y por último porque sus ingresos (46.500 millones de dólares) crecieron un 20,6% y sus beneficios (4.500 millones) se dispararon un 32,7%.

Todo ello teniendo en cuenta que su división que más creció, la móvil, solo supone 12.000 millones de los ingresos frente a los más de 31.000 millones de sus servicio de redes. Como explicó Ren Zhengfei, fundador y presidente de la empresa durante la presentación de los resultados del año pasado, el próximo objetivo de la empresa es implementar la tecnología 5G tanto en su negocio de redes como en sus dispositivos físicos y para ello invertirán 60 millones de dólares los próximos meses. En 2020 esperan tener desplegada su red con esta tecnología tanto en China como en el Reino Unido para, cinco años después tenerla a pleno rendimiento en Estados Unidos su mercado con más potencial de crecimiento.

Nvidia Tegra, la revolución de los chips

 

Nvidia es el mejor exponente del CES. Una empresa californiana de chips que siempre trae sorpresas, evoluciones y revoluciones a la Feria de Las Vegas y que cada año busca actualizarse y dar un golpe a la competencia en el escaparate más grande posible. En «casa». Si el año pasado fue el Tegra K1 el protagonista, este año le ha tocado el turno al X1 o, lo que es lo mismo, la aplicación de toda la tecnología de escritorio de las estanterías de los de Santa Clara a los equipos móviles y a los automóviles.

 

Con arquitectura de 64 bits, ocho núcleos (256 para la parte gráfica frente a los 192 del K1), se aprovecha de la tecnología de los Maxwell para multiplicar su rendimiento. Su tecnología de 20 Nm, su RAM DDR4 y su soporte para 4K es posible gracias a la dupla ARM Cortex A57 más ARM Cortex A53. En definitiva, una evolución que dobla el rendimiento del K1 y que elimina la distancia entre ordenadores y los demás equipos para facilitar, por ejemplo, el desarrollo de motores gráficos.

 

En la presentación quedó claro que sólo cuando la exigencia es máxima (gráficos y efectos muy complejos) se nota una diferencia respecto a los Maxwell de sobremesa. Con cualquier programa normal no habrá ningún salto de rendimiento ni diferencia, salvo en la mejora exponencial de la gestión de la energía. Para una demo «elemental» el X1 tan sólo necesito 10 vatios frente a los 100 que necesita una Xbox o a los 300 de una tarjeta gráfica de la propia Nvidia.

 

Pensado para trabajar con los últimos formatos de vídeo 4K y hasta 60 fps, su capacidad es un guiño al crecimiento continuo de la resolución de las pantallas en los equipos clásicos… y en los acercamientos que numerosos fabricantes están haciendo por llevar el 2K y el 4K a los smartphones y tabletas. Por cierto, en la conferencia Nvidia se jactó al comparar su chip con otros de relumbrón y superar el rendimiento de un famoso «anónimo» (no hay datos oficiales), el A8X de Apple.

 

 

 

 

Sin embargo, el futuro del X1 no está sólo en smartphones o tabletas. Los sistemas integrados de los coches de infotainment y seguridad son un mercado que todavía está naciendo y que Nvidia no quiere perderse. Drive PX es la solución que cuenta con dos Tegra X1 trabajando solidariamente para poder gestionar los 1.300 millones de píxeles por segundo que generan las doce cámaras que colocaron en el exterior de un coche. Una solución de hardware para desarrolladores ajenos a los fabricantes y que puede permitir sistemas de seguridad y aparcamiento automático mucho más elaborados que los actuales.

 

Y si el PX se encarga del perímetro del vehículo, el Drive CX se encarga de lo que ocurre dentro de la carrocería. Su potencia de procesado permite gestionar de modo autónomo los contenidos de hasta cuatro pantallas HD y es compatible con los principales sistemas del mercado por el momento: QNX, Linux y Android. Además, el Nvidia Drive Studio Software será de gran ayuda para la creación de interfaces para aquellos constructores que quieran entrar en la era de las TICs y no sean mañosos en la creación de estos servicios.