Stephen Hawking, el genio de nuestro tiempo

El pasado 14 de marzo estaba llamado a ser, una vez más, el aniversario del nacimiento de Albert Einstein. 139 años desde que venía al mundo en esta ciudad mediana del sur de Alemania el, probablemente, científico más popular del siglo pasado. Sin embargo, esa fecha en 2018 quedará reservada como aquella en la que Stephen Hawking, físico teórico, astrofísico, cosmólogo y uno de los divulgadores más activos del último siglo nos abandonaba.

Nacido el 8 de enero de 1942 en Oxford e hijo de Frank e Isobel Hawking, su padre fue un importante biólogo que encabezaba la división de parasitología del National Institute for Medical Research, su primer centro de estudios, hasta los 10 años, fue el instituto para chicas St Albans al que también acudieron sus dos hermanas menores.

Desde joven mostró interés en estudiar matemáticas -dicen que inspirado por un profesor- sin embargo, su padre quiso que estudiara en el University College de Oxford donde no existía esta disciplina al no tener un profesor para ella. De esta forma, Hawking se matriculó en Ciencias Naturales donde consiguió una beca y se especializó en física. Sus intereses en aquella época eran la termodinámica, la relatividad (volvemos a Einstein) y la mecánica cuántica. Para aliviar su “tremendo aburrimiento en la universidad” participaba en el equipo de remo.

Fue en aquella época cuando empezó a destacar. Según dijo Robert Berman, su tutor de física, al The New York Times Magazine, “solo le bastaba con saber que se podía hacer algo para que él fuera capaz de hacerlo sin necesidad de mirar a los demás. Su mente era completamente diferente a la de sus coetáneos”. Sin embargo, no existía un aliciente que le hiciera destacar académicamente. Por eso, en su primer examen final, fue necesario un examen oral para determinar sus “honores”. En ese examen el propio Berman subraya que “los examinadores de aquella época eran los suficientemente inteligentes como para darse cuenta de que estaban hablando con alguien mucho más inteligente que la mayoría de ellos”.

Después de graduarse en Oxford en 1962 realizó su posgrado en el Trinity Hall de Cambridge y obtuvo su doctorado en física en 1966. Al poco de llegar a Cambridge le fue diagnosticada Esclerosis Lateral Amiotrófica, un tipo de enfermedad motoneuronal que le haría perder su control neuromuscular y que tuvo un enorme impacto sobre él los dos primeros años de su posgrado. No obstante, con ayuda de su tutor pudo volver a centrarse en sus estudios después. A finales de esa misma década pudo desarrollar junto a su colega Roger Penrose un nuevo modelo matemático basado en la relatividad general de Einstein que le permitió, en 1970, probar el primero de sus teoremas de la singularidad que proveen una serie de condiciones para asegurar una singularidad espaciotemporal en el espacio-tiempo.

Todo ello le valió para ser uno de los miembros más jóvenes de la Royal Society y le abrió las puertas de otras facultades como el Instituto Tecnológico de California donde pudo trabajar con su Kip Thorne.

Poco después, su trabajo con Brandon Carter, Werner Israel y D. Robinson les permitió confirmar el “teorema de no pelo” de John Archivald Wheeler según el cual todo agujero negro se describe completamente con sus propiedades de masa, momento angular y carga eléctrica.

Su estudio con ellos le permitió postular las cuatro leyes de la termodinámica de los agujeros negros y sentó las bases para otros proyectos que le ayudaron a redefinir los conocimientos (generales y propios) sobre el universo, su origen y su desarrollo.

Durante treinta años fue el profesor Lucasiano de la Universidad de Cambridge, después fue director de investigación del Centro para la Cosmología Teórica de esa misma universidad, miembro del Gonville and Caius College, ostentó la cátedra de investigación de Instituto Perimeter de Física Teórica de Waterloo, Ontario y, sobre todo, ha sido uno de los divulgadores más prolíficos de los últimos cincuenta años junto con Carl Sagan.

Su obra incluye dieciséis libros, algunos de los cuales, como “Una breve Historia del tiempo”, “Agujeros negros y pequeños universos y otros ensayos” o “El gran diseño” fueron best sellers con una gran aceptación entre el público general. Todos ellos pretendieron acercar el conocimiento de la física y el universo de una forma accesible a los amantes de la ciencia.

Su forma de entender la ciencia, de ver con facilidad lo que para la mayoría está vetado y su polémica relación con la religión (incluso en 2014 tuvo que aclarar que cuando hablaba de Dios se refería a cómo entendería las cosas si existiera y que era completamente ateo pues “los milagros no son compatibles con la ciencia”) hicieron de él una persona de referencia. Un genio de nuestro tiempo que ha sido tremendamente activo también en la esfera social, ética (advirtiéndonos sobre los riesgos de la Inteligencia Artificial, por ejemplo) y política -intentando convencer a sus compatriotas de errores como el Brexit-.

Durante su vida recibió más de veinte reconocimientos y fue un referente cultural y un ejemplo a seguir tanto por científicos como por las personas que sufren enfermedades de larga duración. Su humanidad y la forma en la que la imprimió en la ciencia -“este no sería un gran universo si no fuera el hogar de las personas que amas”- así como su sentido del humor (eran habituales explicaciones complejas con dibujos graciosos como imágenes de Homer Simpson buscando donuts en el espacio) y su respeto hacia sus compañeros -participó en reiterados homenajes a Carl Sagan, por ejemplo- son parte de los rasgos de una figura emblemática de nuestro tiempo.

Ordenadores cuánticos, ¿evolución digital?

ordenador-cuantico-2

Del mismo modo que la máquina de Turing puso los cimientos de la computación clásica y de los computadores modernos, la computación cuántica -basada en la mecánica cuántica, probablemente la rama de la física más compleja de explicar- se plantea como la evolución de la computación que permitirá que los ordenadores hagan cosas hasta ahora imposibles.

El concepto es “sencillo”. La física cuántica explica que a nivel “microscópico” cuando nadie observa una partícula, ésta no tiene características definidas y puede presentar todos los valores de las propiedades a la vez -perdónennos los que sí saben de esta disciplina-. Aplicado a la computación, se supone una evolución drástica en la forma en la que se desarrollan desde los equipos hasta sus posibilidades.

Esto, que sobre el papel parece tan complejo como futurista, tiene en D-Wave 2x, un proyecto de la NASA y Google un prototipo real y tiene como objetivo investigar las posibles aplicaciones de esta disciplina en la inteligencia artificial y el aprendizaje automático. Y como toda rama tecnológica revolucionaria, hay también investigaciones más allá de los científico, según The Washington Post la NSA también trabaja en uno de estos modelos para poder descifrar sistemas de seguridad complejos.

Es probable que os hayáis fijado que en el párrafo anterior la palabra “real” aparece en cursiva. El motivo no es otro que, en teoría, los ordenadores cuánticos están en la mente de los científicos. Saben cómo construirlos, cómo han de funcionar e incluso qué programas ejecutar. El problema es que aún no existe ninguno.

El problema es que aún no existe tencología para dominar los fenómenos cuánticos y eso hace que no sea posible -aún- construir una computadora de esta clase. Solo hay prototipos, como el que hemos mentado antes, que son el embrión de algo mucho mayor y que por el momento permiten resolver problemas como las predicciones meteorológicas, búsquedas complejas en bases de datos, etc. Para ello almacenan la información en qubits (que pueden tomar valor 0, 1 o la superposición de ambos).

Esto hace que la velocidad de procesamiento sea mucho mayor que la de cualquier ordenador actual. Cuando se envía un correo electrónico, por ejemplo, una computadora “normal” ha de realizar miles de cálculos que una cuántica realiza más eficazmente. El quid es que hay otros problemas mucho más complejos que por la enorme cantidad de cálculos que requieren ni siquiera las supercomputadoras pueden solucionar. Hay problemas que el ordenador más potente del mundo tardaría la edad del universo en solucionar (unos 13.000 millones de años) y que, en teoría, una computadora cuántica tardaría solo horas en resolver.

Por eso, su construcción puede suponer un salto científico de valor incalculable. Y la verdad es que los expertos son cautos pero optimistas. Pensemos que el primer ordenador, llamado Z1 y que tardó dos años en ensamblarse, tardaba diez segundos en hacer una multiplicación y pesaba una tonelada. Eniac, la primera computadora digital electrónica ocupaba todo el sótano de la Universidad de Pensilvania y era mucho menos potente que cualquier teléfono que llevamos ahora en el bolsillo.

Su construcción no será sencilla, hace falta mejorar la tecnología que los rodea y les permite funcionar. Por ejemplo, los láseres que leen los qubits y envían traducida la información a los ordenadores “normales”. Son un nuevo concepto de construcción sin memorias ni discos duros. Solo procesadores construidos con materiales superconductores que almacenan los qubits y los procesan.

Sistemas en los que los qubits se encuentran en el vacío aislados de otras moléculas para trabajar más eficientemente u ordenadores donde la información se enfría a niveles cercanos al cero absoluto y que emplean las cualidades físicas de materiales superconductores para mantener y gestionar la información. No sabemos cómo serán en un futuro. Ni siquiera cuando llegará ese futuro pero sí que marcará un hito en la Historia, en la evolución digital y en la humana.

Motores y física, cuestión de eficacia

Hasta ahora hemos analizado los coches de casi todas las formas posibles: tamaño, formato, modo de combustión, tracción, etc. Sin embargo, hay un modo que diferencia cada vehículo de los demás de una manera definitiva: la posición de su motor. De ella depende su manejo (handling para los puristas británicos), su eficiencia y, normalmente, diferencia a las leyendas de los vehículos de uso diario. Aquí tenéis las tres posiciones principales de los grupos motores dentro de un automóvil.

La inercia, la clave de todo


Antes de empezar hemos de tener en cuenta dos conceptos fundamentales en física, el de inercia y el de  momento de inercia. El primero de todos es muy conocido: se trata de la propiedad que tienen los objetos para permanecer en su estado de movimiento. De este modo, cuanta mayor es la masa de un cuerpo, mayor será su inercia o, lo que es lo mismo, más les costará cambiar de velocidad -acelerar o frenar-.

El momento de inercia, empero, se refiere a la resistencia de los objetos -en este caso los coches- a girar. Así, el momento de inercia no sólo depende de la masa del objeto, sino también de la distribución de la misma en relación al centro de gravedad del mismo. De este modo, si la tara de un vehículo está concentrada alrededor de su eje vertical -centro de gravedad- tendrá poca inercia (acelerará y frenará menos) pero obedecerá las órdenes del volante fácil y eficazmente. Este es el motivo por el que el motor, el depósito del combustible y el propio habitáculo del piloto están tan juntos en un Fórmula 1.

La pregunta que nos debemos hacer ahora es si esta es la mejor configuración para todo tipo de automóviles, como supondréis la respuesta es no.

  • Motor delantero: la disposición más eficaz en esta configuración es aquella en la que los elementos se ordenan del siguiente modo, eje delantero-motor-conductor y pasajeros-eje trasero. Con esta relación de pesos el coche es más estable frente a baches o viento lateral. Además, el habitáculo disfruta de más espacio -lo que lo hace más utilizable-. Algunos fabricantes para mejorar la distribución de pesos (la ideal es un 50% de la tara del vehículo sobre cada eje) colocan el motor entre el eje delantero y el habitáculo lo más retrasado posible. Su desventaja es que su gran estabilidad penaliza la capacidad de giro del vehículo. Si además el modelo es de tracción delantera en vez de propulsión trasera este efecto se agrava puesto que la transmisión también se sitúa en la parte delantera del coche. Esta disposición se da en la gran mayoría de los vehículos de uso cotidiano y en algunos deportivos como el SLS AMG o el Porsche Panamera.
  • Motor central: tras el eje delantero se sitúan el conductor, el motor y el eje trasero en ese orden. En este caso todas las masas se concentran en torno al centro de gravedad -que suele coincidir con el centro geométrico del coche- y, casi siempre, dentro de los límites de la batalla (el espacio que queda delimitado entre las ruedas traseras y delanteras del modelo). Es la disposición de los deportivos por excelencia. La razón es que su bajo momento de inercia permite al piloto girar el coche con facilidad en las curvas, aunque también convierte a la “montura” en una máquina muy susceptible a los baches o el viento lateral. Si el conductor no es experto los derrapes y trompos suelen aparecer fácilmente. Al respecto de la menor inercia en la aceleración o frenada, los potentes motores de inyección con turbocompresor -algunos varios de geometría fija y variable- y los frenos carbonocerámicos hacen el resto para garantizar prestaciones. Lamborghini, Ferrari, Audi -con su R8-, Bugatti y muchos más fabricantes legendarios son especialistas.
  • Motor trasero: lo que empezó siendo una solución de ingeniería que hizo famosa el mítico Volkswagen escarabajo pasó a su primo lejano, el 911 de Porsche. Aquí, tras el eje delantero, se sitúa el habitáculo, el eje trasero y, finalmente el motor. Es todo un triunfo de la mecánica puesto que es una solución teóricamente poco eficiente -y peligrosa-. Al tratarse de un modelo de propulsión (los puristas siguen tirándose de los pelos con las versiones de tracción total) casi todo el peso recae en el eje trasero lo que le da un agarre excepcional y una frenada prácticamente rectilínea. Lo malo es que esta frenada se da en casi cualquier situación y que un movimiento brusco de la dirección puede poner al eje trasero por delante del anterior en sólo unas décimas de segundo. Por eso es importante jugar con otras variables en la distribución de pesos -como amortiguadores más duros delante-. Sólo para pilotos experimentados que, eso sí, disfrutarán como niños.

Grafeno, el futuro ha llegado

El pasado viernes 10 de diciembre dos físicos de la Universidad de Manchester -Andre Geim y Konstantin Novoselov- acudieron a Estocolmo a recoger el Premio Nobel por haber conseguido extraer láminas de grafeno. Este material, del que cada vez oímos hablar un poco más y que, casi seguro, en unos diez años será la nueva base de toda la tecnología, es considerado por los expertos el mayor descubrimiento de la ciencia aplicada desde que se desarrolló la tecnología del silicio. La pregunta inmediata es, ¿qué es el grafeno? y, sobre todo, ¿por qué es tan importante?

Si buscamos en wikipedia al respecto del material, encontramos que se trata de una estructura laminar plana de un átomo de grosor. Está compuesto por átomos de carbono que forman un entramado con forma de panal de abeja. Por todo ello sabemos que el preciado grafeno se encuentra abundantemente en la naturaleza: el interior de un lapicero es un buen ejemplo.

Pero el interés científico por este material no es nuevo. Ya en 1930 se describieron sus características físicas y no fue hasta 1994 cuando se cambió su nombre de “monoplaca de grafito” a grafeno. Sus características, tan interesantes para los estudiosos son las siguientes:

  • Alta conductividad térmica y eléctrica, esto hace que consuma menos electricidad para una misma tarea que el silicio. La razón es que se calienta menos que cualquier otra sustancia al conducir los electrones. Ello hace que los científicos empiecen a hablar ya de la era del grafeno del mismo modo en el que el silicio supuso superar y mejorar con un éxito sin precedentes la anterior era del plástico.
  • Alta elasticidad y dureza. Tiene una resistencia 200 veces superior al acero e impenetrabilidad superior a la del diamante. Su secreto reside en que está formado por unos paquetes de átomos tan compactos que ni siquiera los átomos de helio -los más ligeros de la naturaleza- pueden colarse en su “panal de abeja”.
  • Además, es más ligero y flexible que otro material que maravillo hace años al mundo: la fibra de carbono.

Todo ello le otorga una gran capacidad de desarrollo, a lo que hay que sumar que puede combinarse con una gran cantidad de materiales para formar compuestos diferentes con diferentes cualidades. Como veis, estas pequeñas placas transparentes superan, en teoría, las características del geek más soñador de una película de ciencia ficción.

Aplicación en el mundo real. El desarrollo científico y tecnológico

No obstante, muchas tecnologías descubiertas se han deshinchado posteriormente. Así que decidí buscar si este descubrimiento tenía, realmente, aplicación en nuestro día a día. Todas sus características invitaban a pensar que sería un componente perfecto para el desarrollo de circuitos -del mismo modo que el silicio al que tan fácilmente “supera”-.

En diciembre de 2008 IBM anunció que había creado transistores con una velocidad de transmisión de frecuencia de hasta 100 megaherzios, muy superior a cualquiera desarrollado hoy día sobre silicio. De hecho, ordenadores hiperpotentes luchan ahora por tener procesadores de 8 o 61 gigaherzios. Su potencia en grafeno podría multiplicarse fácilmente. Su precio no. La única complicación de laminación desde el grafito es obtener el grosor adecuado de cada placa de grafeno para cada utilidad.

Algunos científicos como el físico holandés Walt De Heer considera que el grafeno, precisamente por estas dificultades, nunca será sustituto del silicio, sino complemento. Del mismo modo que los “aviones y los barcos se complementas. Los aviones nunca sustituirán a los barcos”.

Grandes posibilidades de desarrollo

La repercusión de este Premio Nobel de física ha sido tal que ha llegado, incluso, a los medios de comunicación generalistas. Así, estos han publicado las posibilidades más espectaculares que se barajan para esta panacea de la naturaleza.

A los chips de ordenador ultrarrápidos se le suman chalecos antibalas del grosor de una camisa, aviones más ligeros e, incluso, pantallas transparentes y enrollables para los dispositivos electrónicos. La multinacional surcoreana Samsung -de la que ya hablamos en otro post- ha llegado a poner fecha a este último avance: a lo largo de 2011 comercializará estas maravillas.

Geim, uno de los premiados, afirmaba hace poco en una entrevista que “a menudo la imaginación corre más deprisa que la razón”, “pero en el casodel grafeno sí que hay humo detrás del fuego”. La razón para tanto optimismo es que “mientras que un nuevo material tarde entre 15 y 16 años en pasar del ámbito académico al industrial y, después, otros diez para ser producido en serie”, el grafeno “ha pasado en cinco años al ámbito industrial”.

Fácil de obtener

Según los científicos holandés y británico premiados, el descubrimiento se consiguió tras unas pintas de cerveza. Cogieron un poco de celo y un lapicero. Rasparon el lapicero para que se soltaran pequeñas placas de grafito de la mina del lápiz y, posteriormente, pegaron y despegaron el celo sobre la hoja y el descubrimiento había llegado. Microscópicas fibras de grafeno millones de veces más delgadas que una folio de papel estaban pegadas al celo.

Curiosamente, no han patentado el grafeno. Ni su método de obtención. Todo lo contrario, cedieron algunas de las fibras obtenidas a colegas para que investigaran sus posibilidades. Muchas veces la ciencia nos demuestra que el hombre funciona. Yo voy a hacer el “experimento” en mi casa ahora mismo. Os animo a que hagáis lo mismo y participéis de un futuro prometedor… y no tan lejano.