Drones, ¿sistema inmunitario de las ciudades?

Como es habitual toda mejora tecnológica es pronto absorbida por cabezas pensantes que le ven una utilidad militar y comercial. El ejemplo más reciente, sin duda, son los drones. Llegaron al gran público en forma de «aeronaves de defensa autotripuladas» (una forma de jugar a la guerra sin sacrificar efectivos propios) y se ganaron su simpatía cuando empresas como Amazon dijeron que podrían utilizarse para realizar repartos más efectivos y rápidos.

Por suerte, también hay cabezas que siguen trabajando porque los avances técnicos tengan repercusión social. El fin último, al fin y al cabo, de la tecnología. En el caso de los drones, la creación de un aeródromo para estos en Ruanda servirá para conseguir llevar soporte a zonas inaccesibles.

El último ejemplo es el de la Universidad de Leeds que esta desarrollando un sistema de drones que permitirá a la ciudad repararse por sí misma realizando operaciones como el rellenado de los baches, reparar problemas en tuberías e incluso cambiar bombillas de farolas y semáforos cuando sea pertinente.

El proyecto, que cuenta con el apoyo (también financiero, casi 6 millones de euros) del Consejo de Investigación de Ingeniería y Ciencias Físicas británico está centrado en el desarrollo de tres tipos diferentes de drones que sirvan para identificar los problemas estructurales de la ciudad y repararlos en función del tipo de problema.

El primer tipo recibe el nombre de «posarse y reparar» y se fija en el modo en el que las aves se posan en las estructuras. Su misión será detectar bombillas fundidas, posarse sobre farolas y semáforos y realizar los cambios lo más rápido y eficazmente posible sin molestar a los vecinos. Este sistema incrementará la seguridad en las vías de Leeds.

El segundo modelo emplea las palabras clave «percibir y reparar» y es una flota de drones pensada para recorrer la ciudad y detectar de forma autónoma desperfectos en las vías y las aceras como baches y agujeros. La idea es que sean capaces de solucionarlos lo más rápido posible para evitar posibles daños a los viandantes y los vehículos.

El tercer grupo es el llamado «disparar y olvidar» y estará formado por máquinas que recorrerán de forma independiente e indefinida las tuberías de los servicios públicos de la ciudad realizando inspecciones, reparaciones y mediciones para informar constantemente del estado de las infraestructuras y de las operaciones de arreglo y mantenimiento que se han efectuado.

El objetivo, en palabras del Doctor Raúl Fuentes -miembro de la Escuela de Ingeniería Civil de la Universidad de Leeds-, es realizar intervenciones invisibles al ojo humano. Para ello tendrán que ser «proactivos y no reactivos» para conseguir un desarrollo del proyecto que pueda ayudar a la ciudad y crear un verdadero sistema inmunitario para la ciudad del norte de Inglaterra.

Usuarios y smartphones, ¿quién configura a quién?

Que el smartphone está presente a todas horas en nuestras vidas es algo más que manido. Cada vez descargamos y utilizamos más aplicaciones para casi todo. Multitud de dispositivos se vuelve «inteligentes» para que podamos controlarlos desde nuestro terminal y la carrera por fabricar y poseer el teléfono más moderno parece -por el momento- no tener final a la vista.

Es por eso que no es difícil darse un paseo por la sección de tecnología de cualquier medio generalista (ni siquiera necesitamos acudir a la especializada) para descubrir miles de fans a favor y en contra de las opciones más populares o descubrir como empresas que hasta hace poco eran de nicho copan las portadas con cada uno de sus lanzamientos y novedades.

Sin embargo, por mucho que creamos que somos nosotros los que controlamos la compra -de eso se encargan las campañas de marketing por nosotros- y los propios terminales, un reciente estudio de Current Biology demuestra que el uso intensivo que le damos a diario a nuestras pantallas táctiles acaba cambiando la relación sensorial entre nuestros pulgares y nuestro cerebro. Podemos decir que nuestros smartphones acaban «reconfigurándonos».

Ya era sabido que nuestro centro del sistema nervioso es especialmente plástico y que se adapta a gestos repetitivos como ya han demostrado otros estudios realizados a músicos o gamers. Neurocientíficos de la Universidad de Zürich han analizado el comportamiento de los usuarios de teléfonos inteligentes y han descubierto que los pulgares son los dedos que más interactúan y modifican su comportamiento cuando tenemos el equipo en nuestras manos.

El modo en el que empleamos en nuestro día a día nuestros pulgares ha cambiado radicalmente durante el último lustro. Aunque lo hacemos de modo involuntario nuestro cerebro está diseñado para grabar todos esos movimientos y aprenderlos generando un comportamiento adquirido totalmente novedoso.

Arko Gosh, uno de los autores del estudio, explica que generamos una suerte de «historia digital» que incluye formas absolutamente novedosas de cómo empleamos nuestras huellas y nuestras extremidades superiores.

Estudiar esa inmensa cantidad de datos ha ayudado a descubrir que el cerebro humano tiene relaciones sensoriales diferentes entre los que emplean un smartphone táctil de última generación y los que siguen empleando dispositivos con teclados físicos. Así, cada tipo de terminal hace que nuestro cerebro programe una serie de toques mecánicos y que estos movimientos se «pregraben» en nuestro sistema neuronal.

Además, la actividad del cortex cerebral varía ostensiblemente en función de la intensidad de empleo del smartphone. Si a esto le unimos que la OMS ya ha realizado un listado de diversas patologías que se pueden sufrir por el uso intensivo del dispositivo –como el famoso Text Neck que tan bien explicaban en iPadizate– nos queda la duda de si somos nosotros los que configuramos nuestro smartphone o es el dispositivo el que configura al usuario.

Aleaciones, más allá de la edad de los metales

Tradicionalmente los historiadores han dividido la prehistoria euroasiática en dos grandes etapas tecnológicas. La primera, la Edad de piedra, fue la que se inició con la construcción de herramientas de todo tipo con piedra y que acaba cuando la humanidad fue capaz de empezar a entender el dominio y las características de los metales.

Fue entonces cuando se dio un salto tecnológico sin precedentes. El desarrollo de procesos metalúrgicos hizo que de la edad del cobre se pasara a la del bronce y el hierro y que, cuando esto coincidió con otras capacidades (como la escritura) las diferentes sociedades y civilizaciones dieran el salto definitivo a la Historia. Algo que nos parece muy lejano (en algunas regiones como Anatolia el paso se dio en el IV milenio a.C.) pero que puso los pilares para nuestro presente.

Desde entonces el hombre ha buscado la consecución de metales y aleaciones de metales que fueran más resistentes, duraderos, maleables y ligeros para la construcción de sus herramientas. Así, la evolución de la minería y la química han hecho que se descubran materiales sorprendentes por sus cualidades y que, en muchas ocasiones son tan excepcionalmente raros como caros.

El titanio es uno de los últimos «oros». Un material que destaca por sus excepcionales características pero que es lo suficientemente raro como para no poder dársele un uso extensivo en la industria sin convertir los equipos que lo incorporan en casi artículos de lujo.

Por eso, cuando un equipo de investigadores de la Universidad de Ciencia y Tecnología de Pohang en Corea del Sur presentó una nueva aleación equivalente al titanio pero 10 veces más barata (y su descubrimiento fue avalado y publicitado por la prestigiosa revista Nature) el mundo se preguntó de qué se trataba. Dónde estaba «el truco».

La clave reside en dos materiales muy abundantes en nuestro planeta: el hierro y el aluminio. Hasta ahora se habían combinado con el fin de obtener una aleación casi tan resistente como el primero y casi tan ligera como el segundo. Sin embargo, el resultado también era más quebradizo de lo deseado lo que lo hacía poco apto para algunos de los sectores industriales que más demandan estos materiales: la automoción o la aeronáutica.

Ni siquiera añadir manganeso a la mezcla inicial consigue solventar del todo el problema -sin tener en cuenta el aumento de costes que supone este tercer «invitado»-. Pero los investigadores surcoreanos han mezclado Níquel con el hierro y el aluminio lo que produce un cambio a escala nanométrica. La unión resulta de la creación de unos cristales denominados B2 de apenas unos nanometros de tamaño y que se forman cuando el níquel reacciona con los otros dos metales.

La aleación aumenta drásticamente su resistencia mecánica hasta ser tan densa y duradero como el titanio. Como nos explican en Gizmodo, The Economist también ha presentado un reportaje en el que explican la viabilidad del experimento. Desde el punto de vista meramente económico es francamente esperanzador. La mezcla de materiales sólo cuesta un 10% del valor del titanio. No obstante, el producto sólo se ha probado en laboratorio y la «hora de la verdad» llegará cuando se quiera diseñar un proceso de fabricación a gran escala.

De ser así hemos de preguntarnos cuál será su incidencia en los sectores antes mentados y, sobre todo, si esto aplazará la incorporación de composites a los procesos de fabricación de automóviles y aeronáutica.

Alan Turing, el hombre que resolvió el Enigma

Febrero es el mes de los Oscars. Mes en el que -con mayor o menor acierto, no lo debatiremos aquí por falta de conocimientos- la Academia más importante de la industria del cine premia las historias, efectos, actores, etc. más relevantes de los últimos meses. A nosotros, por cercanía, nos ha llamado la atención especialmente una de las obras más nominadas: The Imitation Game, que narra parte de la vida de uno de los mayores genios del siglo XX, Alan Turing y de cómo él y su equipo consiguieron descifrar Enigma, la máquina de encriptación modificada por los nazis que trajo de cabeza a los aliados durante más de la mitad del conflicto bélico.

Turing, el padre de la computación

A veces la persona que nadie imagina capaz de nada es la que hace cosas que nadie imagina. Este mantra se repite tres veces a lo largo del metraje y resume a la perfección la corta vida de Alan Turing. Hijo de Julius Mathison Turing (del cuerpo de funcionarios británicos en la India) y Ethel Turing, nació por expreso deseo de sus padres en Paddington, Londres, en 1912.

Pasó gran parte de su infancia acompañado sólo de su hermano y criado por amigos de sus padres que tenían que volver a la colonia del Imperio para cubrir sus obligaciones laborales. Ya desde su más tierna infancia dejó muestras de su enorme capacidad: aprendió a leer solo en tres semanas y comenzó a demostrar habilidades numéricas impropias de un niño de su edad.

Con 14 años (en la foto aparece con 16) sus padres lo ingresaron en el internado de Sherborne en Dorset donde entabló amistad con Christopher Morcom, primer amor de Turing y, sin duda, una de las personas que más le influyó en su vida. La muerte de Morcom a causa de la tuberculosis bovina supuso un golpe al joven Turing que se volvió ateo y, aunque siguió creyendo en la supervivencia del alma tras la muerte, su concepción de la vida y el universo se volvió mucho más materialista y cientificista.

A los 15 años Turing se desmarcó de sus profesores siendo capaz de resolver problemas muy avanzados sin ni siquiera haber estudiado cálculo elemental en Sherborne y sólo un año más tarde, no sólo descubrió y entendió a Einstein sino que fue capaz de cruzar las críticas de Einstein a las teorías de Newton dos de los mayores genios de la Historia.

Sin embargo, su falta de interés en los estudios clásicos hizo que suspendiera repetidamente algunos exámenes finales y que Turing tuviera que decantarse por el King’s College de Cambridge en vez del Trinity Church, la universidad que deseaba como alma mater. En 1935, con sólo 23 años, y tras recibir la formación de Godfrey Harold Hardy, Turing fue nombrado profesor del College.

Fue solo un año más tarde cuando Alan Turing asombró al mundo. De forma independiente (y a la vez que Alonzo Church, profesor, matemático y lógico de Princeton) el británico resolvió el Entscheidungsproblem, un «reto» de lógica simbólica propuesto en el siglo XVII por Gottfried Leibniz y que busca encontrar un algoritmo general que decida si una fórmula de cálculo de primer orden es un teorema.

Este momento de su vida fue crítico pues a partir de aquel momento el estadounidense se convirtió en el director de tesis de Turing y gracias a sus trabajos conjuntos (que redundaron en su Doctorado en 1938) vieron la luz la máquina de Turing (un dispositivo que manipula símbolos sobre una tira de cinta de acuerdo a unas tablas programables y que puede ser adaptada para simular la lógica de cualquier algoritmo de computador y que es fundamental para explicar las funciones de cualquier CPU actual) y las más complejas máquinas Oracle (hipercomputación), abuelo y padre de La Bombe, una máquina electromecánica que podía romper los códigos de las máquinas Enigma empleadas por los nazis y desencriptar los mensajes de sus operaciones militares.

Al acabar la Segunda Guerra Mundial, aunque la tecnología empleada fue supuestamente destruida (los Gobiernos de Londres y Washington cedieron máquinas Enigma a otros gobiernos de todo el mundo sin decirles que podían desencriptarlas) Turing siguió trabajando con el Laboratorio Nacional del Física en el diseño del primer Motor de Computación Automático. Sin embargo, la falta de recursos y el secretismo que reinaban en las instituciones después de la guerra hizo que Turing se tomara 1947 como año sabático en Cambridge. Durante este tiempo realizó gran parte de su obra sobre inteligencia artificial (se presentó tras su muerte).

A partir de 1948 Turing trabajó para la Universidad de Machester y vio como sus estudios sobre ACE (el proyecto para el LNF) comenzaba a dar sus frutos -aunque nunca se llegó a construir por completo su modelo-. Durante esa época Turing comenzó a crear multitud de programas y estudios en los que analizaba el comportamiento de las computadoras, su concepto de inteligencia y sus posibilidades de desarrollarlas (en vez de crear un computador que simulara la inteligencia de un adulto propuso crear uno que simulara la de un niño y educarlo).

Sus estudios en el campo de la cibernética y la biología matemática no sólo fueron absolutamente revolucionarios para su época sino que pusieron los cimientos de las matemáticas, informática, programación y lógica actuales así como se convirtieron en herramientas fundamentales para la construcción de patrones.

Sin embargo, esta privilegiada mente fue condenada por su homosexualidad (descubierta cuando acudió a la policía porque dos hombres habían entrado en su vivienda, uno resultó ser su amante). Se le imputaron los cargos de «indecencia grave y perversión sexual» (los mismos que a Oscar Wilde medio siglo antes) y se le dio a escoger entre ir a la cárcel o la castración química. Turing, que no se defendió porque consideraba -acertadamente- que no debía disculparse por nada, fue sometido a un tratamiento de hormonas durante un año.

Pocos meses más tarde de ese infierno (que se prolongó algo más de un año) el genio apareció muerto en su vivienda por comer parte de una manzana envenenada con cianuro. Aunque su madre aludió su muerte a lo desordenado que era su hijo cuando almacenaba sustancias químicas, el contexto indicó que se trataba de un suicidio.

El caso, una de las mayores vergüenzas de Gran Bretaña (y de Occidente) durante los últimos siglos ha sido en parte enmendado. En 2001 se descubrió una estatua del matemático en Sackville Park, cerca de la Manchester University. En 2004, cuando se celebraba medio siglo de su muerte, se inauguró el Instituto Alan Turing en la misma universidad así como otros monumentos que conmemoran la vida y obra de una de las mentes más brillantes del último siglo. Desde 1966 la Asociación de Maquinaria Computacional otorga el Premio Turing (considerado el Nobel de su rama) a quienes hayan contribuido de forma trascendental a la computación.

La monarca británica Isabel II, a título póstumo le otorgó el perdón póstumo a propuesta del Ministro de Justicia Chris Grayling después de que 100 eminencias científicas lo solicitaran por escrito en The Daily Telegraph con motivo del primer siglo de su nacimiento.

Los esfuerzos de Turing y su equipo por descifrar enigma y aprender a utilizar (los nazis nunca supieron que habían sido descubiertos) permitieron que la Guerra acabara dos años antes y, según los historiadores, se salvaran más de 14 millones de vidas. Todo un héroe.

 

Papel, ¿el fin de la era Guttenberg? (II)

Como bien decíamos ayer, la brecha digital se abre en las diferentes regiones del mundo y entre los diferentes estamentos de la sociedad. Mientras que la población más tecnificada accede a más posibilidades, recursos, mercados e información, aquellos que no han podido -o no han querido- digitalizarse corren el riesgo de quedar más aislados en ámbitos como el laboral, el político o la educación. Y es precisamente ésta última la herramienta fundamental para demostrar a las personas que la digitalización es la mejor herramienta que nunca ha tenido la humanidad para democratizar el conocimiento.

 

Cualquiera que eche un vistazo al ranking de las mejores universidades del mundo sea cual sea su método de elaboración, encontrará nombres como Harvard, el MIT, Caltech, Stanford, Princeton, Berkeley, Yale, Oxford o Cambridge. Todas tienen varios puntos en común (más allá de los evidentes como la lengua o los países de origen): una educación tan prestigiosa y personalizada como enormemente cara.

 

El precio de las matrículas de las asignaturas o los colegios mayores está tan a la altura como el de las publicaciones de sus prestigiosos profesores, de la tecnología de sus modernos campus (una cosa es la vista exterior del edificio y otra el equipamiento de sus laboratorios…) o de la reputación que acompañará para siempre al currículo del estudiante que tenga como alma mater alguna de las facultades de estos centros educativos.

 

Sin embargo, como ya hemos contado otras veces, la era digital permite por primera vez en la historia que cualquier con un ordenador y una conexión a internet pueda matricularse gratis para recibir docencia de algunas de las mentes más prestigiosas del mundo.

 

Es el caso de Mitchell Duneier, catedrático de Sociología de Princeton que tiene ya 40.000 alumnos matriculados para su curso online de este año -muchos más de los que ha formado en las aulas durante sus 30 años de carrera en las aulas del prestigioso centro de Nueva Jersey-.

 

Estos cursos abiertos (MOOC en inglés) aplican tecnologías de trabajo masivo a los foros de discusión, los exámenes, las calificaciones y, sobre todo, a que el tiempo físico del docente se pueda reservar a la investigación y a relacionarse con sus alumnos de «carne y hueso». Parece que obtener un título de un curso impartido por uno de los mejores sociólogos del mundo no es tan fácil como parece -aunque sea gratuito- y que no sólo sirve para aumentar aún más el prestigio de los centros más importantes del mundo sino que, de un modo piramidal (en este caso de arriba a abajo) hace que las universidades «intermedias» se vean obligadas a mejorar el nivel de sus cursos -cada vez más caros en relación a las referencias docentes y, sobre todo, frente a los MOOC-.

 

Los centros en puestos intermedios y bajos en el ranking tendrán que convencer a sus alumnos potenciales de por qué sus cursos valen lo que cuestan. Por qué acudir a un centro lejos del hogar del estudiante en persona pudiendo acceder a un curso de valor incalculable desde el iPad -iTunes U está cosechando un enorme éxito- que además esta certificado por una universidad de renombre sin tener que desembolsar miles de euros, dólares o yenes en desplazamientos, estancias y matrículas.

 

La primera piedra la colocó Sebastian Thrun, catedrático de Stanford -la cuna de Silicon Valley- que impartió el año pasado un curso de inteligencia artificial a más de 160.000 alumnos de 190 países. Lejos de suponer una pérdida de dinero para la universidad, todas las universidades de investigación de élite, en especial Stanford, vieron como las solicitudes de matrícula se multiplicaban y cómo la descarga de libros atnto de Thrun como del departamento del que forma parte se dispararon. El coste era mínimo. El impacto económico esperado nulo. El resultado fue un éxito que no esperaban ni en San Francisco.

 

Pero las universidades no son las únicas que han demostrado su interés en esta nueva forma de enseñar -y de paso ganar dinero-. También las grandes empresas. Como Honda, que ha abierto una facultad virtual para enseñar a sus futuros (y desconocidos) empleados cómo diseñar un motor, una pieza de la carrocería o cómo optimizar el combustible.

 

A pesar de las dudas iniciales de Thrun sobre qué haría el alumno con la información o de si mostrarían una imagen demasiado etnocentrista de la educación de la universidad, el experimento ha sido tremendamente satisfactorio. Los alumnos son jubilados, jóvenes de minorías étnicas de todo el mundo, profesionales que quieren formarse mejor o intelectuales de países con escasa inversión educativa.

 

El crowdsourcing no tardó en dar resultado: la colaboración abierta hizo que los miles de comentarios y preguntas fueran ordenados, votados y contestados por otros alumnos y asistentes al curso. El profesor sólo debía cumplimentar la información… y aprender de sus propios alumnos. La línea entre discencia y docencia se difumina cada vez más.

 

La validez es tal que ya son muchas las universidades que colocan estos cursos dentro de los créditos para licenciarse al «modo clásico». Ya no sólo tratan la tecnología y la informática. Todo tiene cabida: humanidades, biología, política, arte…

 

Lo más curioso de todo: en cursos como el de Duneier, para obtener las notas un alumno ha de «corregir» y puntuar al menos a otros cinco alumnos. Después de revisar miles de exámenes y trabajos el profesor se ha dado cuenta de que la correlación entre sus puntuaciones y las de los alumnos es de un 0,88. Altísima.

 

De nuevo un ejemplo de cómo la tecnología que nos separa puede unirnos más que nunca. De nuevo, un ejemplo de cómo la voluntad humana puede hacernos inmensamente mejores.