martes, 16 de julio de 2019

Cuando tres hombres viajaron a la Luna con un ordenador más lento que un «smartphone»

Hace 50 años tres astronautas comenzaron su viaje al satélite con un computador de vuelo que palidecería ante cualquier móvil actual. Sin embargo, su diseño fue un hito y un éxito absoluto


Michael Collins, piloto del módulo de mando, practica en un simulador, el 19 de junio de 1969
Michael Collins, piloto del módulo de mando, practica en un simulador, el 19 de junio de 1969 - NASA

«Estamos bien», informó un lacónico Neil Armstrong, a 25 segundos del despegue de la misión Apolo 11, hoy hace 50 años. Instantes después, a las 09.32 del 16 de julio de 1969, el cohete Saturno V cobró vida en la plataforma A del complejo de lanzamiento 39 del Centro Espacial Kennedy. En tierra, un millón de personas, entre los que había 2.700 reporteros, periodistas y personalidades, contenían el aliento, soportando el calor y equipados con gafas se sol, telescopios y prismáticos. Los cinco motores F-1 tardaron nueve segundos en llegar a la máxima potencia, alcanzando un consumo de 13.000 litros de hidrógeno y oxígeno líquidos por segundo. Tenían capacidad para producir 3,4 millones de kilogramos de empuje.
En ese momento, los pernos explosivos saltaron y el Saturno V, con sus 111 metros de altura y 3.000 toneladas, comenzó a ascender pesadamente, mientras cinco brazos metálicos de 20 toneladas se abrían como una flor en la torre de lanzamiento. El trueno tardó 15 segundos en llegar hasta los espectadores, causando un clamor comparable a «un ladrido ensordecedor de mil ametralladoras que disparan al mismo tiempo», según escribió Norman Mailer. «¡Aaaah!» gritaba la muchedumbre, entre vítores que bien podrían haber sido lamentos de angustia.
Despegue del cohete Saturno V, el 16 de julio de 1969, de la misión Apolo 11
Despegue del cohete Saturno V, el 16 de julio de 1969, de la misión Apolo 11 - NASA
Enseguida, la primera fase del cohete consumió sus 2.008.994 kg de combustible. 12 minutos después de despegue, la misión Apolo 11 estaba en órbita. A sus mandos estaba el comandante Neil ArmstrongBuzz Aldrin, piloto del módulo lunar y Michael Collins, piloto del módulo de mando. No se llevaban muy bien, pero demostraron ser profesionales extraordinarios, en parte gracias al entrenamiento más intensivo de toda su carrera.

El cuarto tripulante

A su lado viajaba un cuarto tripulante. Dentro de la maraña de 24 kilómetros de cables que componían la nave, había un ordenador de a bordo de nombre AGC (« Apollo Guidance Computer»), cuyas funciones eran cruciales para el éxito de la misión: debía controlar los sistemas de estabilización, los encendidos del motor, calcular la posición de la nave y dirigir todas las fases del vuelo. Fue un pináculo de la ingeniería humana y uno de los puntos más complejos de la misión. Curiosamente, su potencia palidecería ante cualquier smartphone actual: era una dos mil veces más lento (su velocidad era de 2.048 MHz) y su memoria era mínima: tenía 72 kilobytes para almacenar programas y otros cuatro para almacenar datos, cuando cualquier móvil de hoy en día tiene varios gigabytes (del orden de 100 o 1.000 veces más).
Cuerpo principal del AGC (izquierda) y pantalla e interfaz, llamadas DSKY (derecha)
Cuerpo principal del AGC (izquierda) y pantalla e interfaz, llamadas DSKY (derecha)
La idea era que el ordenador hiciera todas aquellas tareas que no pudiera hacer un humano. Esto no le gustó nada a los astronautas, pilotos acostumbrados a controlar su avión con palancas, y nada partidarios de usar un teclado en vuelo. Pero, finalmente, el dispositivo cumplió con gran éxito su trabajo: fue el que hizo las operaciones vectoriales más complejas para calcular las rutas y el que mantuvo la nave girando en todo momento en el espacio para mantener uniforme la temperatura de su superficie. Su catálogo contenía las coordenadas de cuarenta estrellas para alinear la nave y facilitar la navegación, y los astronautas pudieron darle instrucciones en tiempo real para responder rápido a las necesidades.
El AGC recibía datos desde multitud de sensores, como la unidad inercial, el sextante o el telescopio de navegación. Y los astronautas introducían instrucciones por medio de un sencillo teclado. Se empleó un sistema de «verbo» y «nombre»: el primero correspondía a la acción que realizar y el segundo al dato que había que utilizar. Tanto unos como otros estaban codificados según un índice numérico memorizado por los pilotos. Así, por ejemplo, los programas de la serie 60 eran aquellos que dirigían la reentrada en la atmósfera, la apertura del paracaídas y el amerizaje.
Sin embargo, lo cierto es que la mayor parte de las operaciones fue ejecutada por el potente centro de cálculo de Houston. Este reunía una capacidad de computación colosal para la época, con cinco potentes ordenadores IBM 360/750, con un megabyte de memoria central, instalados ex profeso para dar soporte a la misión. A su alrededor había 42 unidades de cinta, 25 impresoras y dos docenas de unidades de memoria auxiliar.

Un prodigio del momento

El AGC fue un prodigio de la miniaturización de la época. Pesaba unos 35 kilogramos y abultaba lo mismo que un maletín, cuando los ordenadores del momento ocupaban habitaciones enteras. Su consumo de energía era comparable al de una bombilla de potencia media. Además, su diseño era casi totalmente infalible.
Además, y a pesar de su escasa potencia, el AGC se convirtió en un hito. Fue el primero en el que se usaron circuitos integrados o microchips, lo que fue crucial para sustituir los ordenadores basados en tubos de vacío. Uno de los creadores de estos dispositivos, fue cofundador de Intel.
La interfaz de pantalla y teclado (DSKY) del AGC
La interfaz de pantalla y teclado (DSKY) del AGC - NASA
El computador de vuelo del programa Apolo también fue el precursor de los sistemas «fly-by-wire», que en aviones se emplean para pilotar por medio de mandos electrónicos. Constaba de un sencillo teclado numérico, unos pocos pulsadores, indicadores luminiscentes de siete segmentos y pilotos luminosos, que en conjunto recibieron el nombre de DSKY (siglas de «display and keyboard»).
Además, Hal Lanning, uno de los líderes del proyecto, introdujo el uso de «interrupciones», instrucciones que detenían la ejecución de los programas para satisfacer peticiones importantes. Por otra parte, el AGC estaba diseñado para no fallar jamás. Sus programas establecían «puntos de retorno» para que, si la máquina se quedaba bloqueada, se volviera a iniciar la secuencia antes del fallo. Además, a diferencia de muchos móviles, el AGC podía recuperarse de un error de forma instantánea, lo que era crucial para el bienestar de la cápsula y su tripulación, tal como se pudo comprobar en la misión Apolo 11.

Una memoria realmente física

La memoria del ordenador estaba formada por núcleos de ferrita, una primitiva tecnología basada en la magnetización de minúsculos anillos metálicos agrupados en matrices. Para cada misión, el ordenador era programado a mano por un equipo de «costureras», que enhebraban las ferritas en una malla de conductores eléctricos: la presencia de un núcleo de ferrita en un cruce de hilos equivalía a un uno binario; su ausencia, a un cero.
Una «costurera» enhebra un módulo de memoria del AGC
Una «costurera» enhebra un módulo de memoria del AGC - Raytheon
Se puede decir que este computador tenía un sistema operativo muy rudimentario. Estaba formado por tres sistemas: el Basic, un lenguaje de programación, el Interpreter, con las rutinas para los cálculos complejos, y el Executive, encargado de llamar a unos programas u otros en la secuencia correcta.
La misión Apolo 11 dependió de dos ordenadores AGC: uno para el módulo de mando y otro para el módulo lunar; ambos eran idénticos pero tenían distinto software. Por ejemplo, el primero contenía instrucciones para el regreso a la Tierra (sus códigos se llamaban Colossus), y el segundo para el alunizaje (sus líneas de código se llamaban Luminaire). Además, había un ordenador de seguridad, llamado sistema de guía de cancelación («Abort Guidance System».

Una tarea titánica

Los AGC fueron desarrollados por el prestigioso Instituto Tecnológico de Massachusetts (MIT), aprovechando su experiencia en sistemas de guiado de misiles balísticos lanzados desde submarinos, y construido por la compañía Raytheon. Su diseño fue responsabilidad del equipo de Charles Stark Draper, y el software fue desarrollado en gran parte por Hal Lanning y la ingeniera Margaret Hamilton.
Margaret Hamilton posando frente al sofware que el MIT y ella desarrollaron para el programa Apolo
Margaret Hamilton posando frente al sofware que el MIT y ella desarrollaron para el programa Apolo
El listado de todo el software del AGC empleado en el programa Apolo ocupaba en papel una pila tan alta como una persona, y en total requirió el trabajo equivalente a 1.400 años de una persona.
El desarrollo del AGC y el programa Apolo consumió un millón de chips, equivalentes al 60% de la producción total de la industria estadounidense de la época, básicamente orientada al guiado de los misiles balísticos apuntados hacia la Unión Soviética y a otras aplicaciones militares. En total, se construyeron 42 AGC, que alcanzaron un precio de 200.000 dólares de la época (equivalente a un millón y medio actuales). En algunos momentos hubo hasta 400 ingenieros trabajando en el desarrollo de sus programas.
Según explicó para AFP Frank O´Brien, historiador y autor de «The Apollo Guidance Computer: Architecture and Operation», la NASA «tenía unos requerimientos increíbles, absolutamente inimaginables» para la fiabilidad de estos chips. Por tanto, el colosal programa Apolo obligó a los fabricantes a mejorar sus diseños y a crear dispositivos más duraderos.

Errores en el ordenador antes del alunizaje

Parece que la estrategia dio sus frutos. El 20 de julio, momentos antes de que el módulo lunar se posase en el satélite, las pulsaciones de Neil Armstrong se dispararon: «¡Alarma de programa!», gritó el comandante. Aldrin confirmó que se trataba de la alarma 1202. En el control de la misión se miraron perplejos. ¿Qué demonios era la alarma 1202?
Se decidió proseguir con las maniobras para posar el módulo Águila en el satélite. Cuando habían descendido hasta los 1.524 metros, volvió a sonar la alarma. Esta vez se trataba del error 1201. «Seguimos con el plan», dijo Steve Bales, el controlador. Él parecía ser el único que comprendía lo que ocurría, en aquellos instantes críticos. Medio mundo contenía el aliento.
El problema es que el AGC estaba sobrecargado por recibir demasiada información. Según se averiguó después, los astronautas dejaron encendido el radar de acoplamiento, sobrecargando a la pequeña máquina mientras trabajaba en el alunizaje. Como resultado, el ordenador abandonó algunas operaciones y comenzó de cero de nuevo, poniendo fin al problema.
Vista del módulo lunar Águila sobre la Luna, el 21 de julio. La Tierra se ve al fondo
Vista del módulo lunar Águila sobre la Luna, el 21 de julio. La Tierra se ve al fondo - NASA
«La forma como el ordenador lidió con la sobrecarga fue un auténtico hito», explicó en AFP Paul Ceruzzi, experto de la Institución Smithsonian.

A segundos del desastre

La tensa calma duró poco. Bajo el módulo lunar apareció un dramático panorama. El ordenador les dirigía hacia un grupo de rocas, del tamaño de coches. Enseguida, Armstrong tomó los controles y desplazó el Águila horizontalmente, cuando apenas les quedaban unos minutos de combustible. Todos sabían que si no lo lograba, deberían abortar el aterrizaje y volver al módulo de mando, o perecer en la Luna.
«¿Cómo vamos de combustible?», preguntó Armstrong. «Ocho por ciento», respondió un escueto Aldrin. «220 pies, 30 hacia delante, descendemos de maravilla», relató el comandante. En el control de la misión todos mantuvieron el silencio. «Sesenta pies, descendemos dos y medio, dos hacia delante».
Entonces, Charlie Duke, comunicador de la cápsula dijo: «Sesenta segundos». Era el tiempo que les quedaba de combustible antes de tener que abortar la misión. Armstrong examinaba la superficie lunar a la desesperada, tratando de encontrar el lugar idóneo para el aterrizaje. El motor del módulo ya levantaba volutas de polvo lunar. «Treinta segundos», dijo Duke, lacónicamente.
Antes de que cundiera el pánico, Aldrin gritó: «¡Luz de contacto!». Eso significaba que el módulo se había posado en la superficie. Armstrong paró el motor y con un ruido sordo, la nave se detuvo. El Apolo 11 había logrado lo imposible: el hombre había llegado a la Luna.

De un Universo casi perfecto a lo mejor de dos mundos




Sucedió el 21 de marzo de 2013. La prensa científica de todo el mundo se había congregado en la sede parisina de la ESA o se había conectado online, junto a una multitud de científicos, para presenciar el momento en que la misión Planck de la ESA revelaría su ‘imagen’ del cosmos. Una imagen capturada no en luz visible, sino en microondas.

Mientras que la luz que nuestros ojos puede ver está compuesta por pequeñas longitudes de onda, de menos de una milésima de milímetro, la radiación que estaba detectando Planck abarcaba longitudes algo mayores, de unas décimas de milímetro a varios milímetros. Y sobre todo, se había generado en los albores del Universo.

Esta radiación se conoce colectivamente como fondo cósmico de microondas. Al medir sus minúsculas diferencias a lo largo del firmamento, la imagen de Planck era capaz de hablarnos sobre la edad, la expansión, la historia y el contenido del Universo. Nada más y nada menos que un primer plano cósmico.

Los astrónomos sabían lo que buscaban. Dos misiones de la NASA, COBE a principios de los noventa y WMAP durante la década siguiente, ya habían llevado a cabo una serie de estudios análogos del firmamento que proporcionaron imágenes similares. Pero carecían de la precisión y la nitidez de Planck.

La nueva vista mostraría la impronta del Universo temprano con un detalle sin precedentes. Y había mucho en juego.

Si nuestro modelo del Universo era correcto, Planck lo confirmaría con unos niveles de precisión inauditos. Si el modelo estaba equivocado, Planck mandaría a los científicos de vuelta a la mesa de dibujo.     
            
Una vez revelada la imagen, los datos confirmaron el modelo. Respondía con tal precisión a las expectativas que no cabía extraer otra conclusión: Planck nos mostraba un ‘universo casi perfecto’. Pero ¿por qué ‘casi’? Porque quedaban algunas anomalías, que se convertirían en el objetivo de la investigación futura.

Ahora, cinco años después, el Consorcio Planck acaba de publicar los datos definitivos del legado de Planck. El mensaje de la misión es el mismo, e incluso se ve reforzado.

“Se trata del legado más importante de Planck —señala Jan Tauber, científico del proyecto Planck de la ESA—. Hasta el momento, el modelo cosmológico estándar ha superado todas las pruebas y Planck ha efectuado las mediciones que lo demuestran”.

Todos los modelos de cosmología se basan en la teoría general de la relatividad de Albert Einstein. Para reconciliar las ecuaciones de la relatividad general con un amplio abanico de observaciones, incluidas las de la radiación cósmica de fondo, el modelo estándar incorpora la acción de dos componentes desconocidos.

En primer lugar, un componente de materia atractivo, denominado materia oscura fría y que, a diferencia la materia común, no interactúa con la luz. En segundo lugar, una forma repulsiva de energía, conocida como energía oscura, que promueve la actual expansión acelerada del Universo. Se ha descubierto que son componentes esenciales para explicar nuestro cosmos junto a la materia común conocida. Pero por el momento no sabemos qué son exactamente estos componentes exóticos.

Planck se lanzó en 2009 y recopiló datos hasta 2013. El primer lanzamiento de datos, que mostraba el Universo casi perfecto, tuvo lugar en la primavera de ese año. Se basaban únicamente en la temperatura de la radiación cósmica de fondo y solo empleaba los dos primeros estudios del firmamento de la misión.

Los datos también presentaban pruebas adicionales de una fase muy temprana de expansión acelerada, denominada inflación, en la primera minúscula fracción de un segundo en la historia del Universo, durante la cual surgió el germen de todas las estructuras cósmicas. Al proporcionar una medida cuantitativa de la distribución relativa de estas fluctuaciones primigenias, Planck ofreció la confirmación más clara jamás obtenida del escenario inflacionario.

Además de cartografiar la temperatura del fondo cósmico de microondas a lo largo de firmamento con una precisión sin precedentes, Planck también midió su polarización, que indica si la luz vibra en una dirección preferente. La polarización de la radiación cósmica de fondo ofrece una huella de la última interacción entre la radiación y las partículas de materia del Universo temprano, y como tal contiene información adicional y fundamental sobre la historia del cosmos. Además, también contiene información sobre los primeros instantes del Universo y nos proporciona claves para comprender su nacimiento.

En 2015, un segundo lanzamiento de datos recogía todos los datos recopilados durante la misión, que abarcaba ocho estudios del firmamento. Incluía la temperatura y la polarización, pero venía con una advertencia.

“Sabíamos que la calidad de algunos de los datos de polarización no era suficiente para utilizarse en cosmología”, reconoce Jan. Y añade que, por supuesto, eso no les impidió seguir adelante, aunque ciertas conclusiones extraídas en ese momento precisarían de confirmación y, por lo tanto, deberían tratarse con cautela.

Y ese es el gran cambio que aporta este lanzamiento de datos de 2018. El Consorcio Planck los ha procesado de nuevo. La mayoría de señales tempranas que exigían precaución han desaparecido. Los científicos ahora están seguros de que tanto la temperatura como la polarización se han determinado de forma precisa.

“Estamos convencidos de que podemos obtener un modelo cosmológico basado únicamente en la temperatura, únicamente en la polarización o basado en ambas magnitudes. Y todos coinciden”, explica Reno Mandolesi, principal investigador del instrumento LFI de Planck en la Universidad de Ferrara (Italia).

“Desde 2015, otros experimentos han ido recopilando más datos astrofísicos y se han llevado a cabo nuevos análisis cosmológicos, combinando observaciones de la radiación cósmica de fondo a pequeñas escalas con observaciones de galaxias, cúmulos galácticos y supernovas, que en la mayoría de casos han mejorado la coherencia con los datos de Planck y el modelo cosmológico que respalda”, añade Jean-Loup Puget, principal investigador del instrumento HFI de Planck en el Instituto de Astrofísica Espacial de Orsay (Francia).

Se trata de toda una proeza e implica que los cosmólogos pueden estar seguros de que su descripción del Universo, con materia común, materia oscura fría y energía oscura, y poblado por estructuras surgidas durante una fase temprana de expansión inflacionaria, es correcto en su mayor parte.

Aún quedan por explicar algunas anomalías, o tensiones, como las llaman los cosmólogos. Una en concreto tiene que ver con la expansión del Universo. Su velocidad viene dada por la denominada constante de Hubble.

Para obtener esta constante, los astrónomos normalmente tenían que observar distancias a lo largo del cosmos y se veían limitados a hacerlo en el Universo más cercano, midiendo el brillo aparente de determinados tipos de estrellas variables y estrellas en explosión, cuyo brillo real se puede estimar de forma independiente. Se trata de una técnica ampliamente probada y desarrollada a lo largo del último siglo, descubierta por Henrietta Leavitt y aplicada posteriormente, a finales de los años veinte, por Edwin Hubble y sus colaboradores, que utilizaron estrellas variables en galaxias distantes y otras observaciones para revelar que el Universo se estaba expandiendo.

El valor que los astrónomos derivan de la constante de Hubble empleando una gran variedad de observaciones punteras, incluidas algunas del telescopio espacial Hubble de la NASA/ESA  (que debe su nombre a este científico pionero), y más recientemente a la misión Gaia de la ESA, es de 73,5 km/s/Mpc, con una incertidumbre de tan solo un dos por ciento. Estas unidades indican la velocidad de la expansión en km/s por cada millón de pársecs (Mpc) de separación en el espacio, donde un pársec equivale a 3,26 años luz.

Una segunda forma de calcular la constante de Hubble es usar el modelo cosmológico coherente con la imagen del fondo cósmico de microondas, que representa un Universo muy joven, y calcular una predicción de cuál sería la constante hoy. Al aplicarse a los datos de Planck, este método nos da un valor menor, de 67,4 km/s/Mpc, con una mínima incertidumbre, inferior al uno por ciento.

Por un lado, resulta extraordinario que dos formas tan distintas de derivar la constante de Hubble (una empleando el Universo local y maduro, y la otra basada en el Universo distante y temprano) ofrezcan resultados tan cercanos. Por otro, en principio estas dos cifras deberían coincidir dentro de sus respectivas incertidumbres. Esta es la tensión, y la pregunta es ¿cómo reconciliarlas?

De ambos lados existe el convencimiento de que los errores que podrían quedar en sus métodos de medida son demasiado pequeños como para provocar esta discrepancia. Así que, ¿quizá nuestro entorno cósmico local tiene alguna peculiaridad que haga que la medición cercana presente una leve anomalía? Por ejemplo, sabemos que nuestra Galaxia se halla en una región más bien poco densa del Universo, lo que podría afectar al valor local de la constante de Hubble.

“No hay una única solución astrofísica satisfactoria que pueda explicar esta discrepancia. Así que puede que exista una nueva física aún por descubrir”, apunta Marco Bersanelli, investigador principal adjunto del instrumento LFI en la Universidad de Milán (Italia).

Como ‘nueva física’ se entiende que una serie de partículas o fuerzas exóticas podrían influir en los resultados. Sin embargo, por muy emocionante que suene, los resultados de Planck limitan enormemente esta posibilidad, ya que encaja a la perfección en la mayoría de observaciones.

“Es muy difícil añadir una nueva física que resuelva la tensión, pero que a la vez conserve la descripción precisa del modelo estándar, en la que ya encaja todo lo demás”, señala François Bouchet, investigador principal adjunto del instrumento HFI en el Instituto de Astrofísica de París.

Así pues, nadie ha sido capaz de aportar una explicación satisfactoria para las diferencias entre las dos mediciones, y la cuestión sigue sin resolverse.

“Por el momento, no deberíamos hacernos demasiadas ilusiones con encontrar una nueva física: la discrepancia relativamente menor quizá podría explicarse por una combinación de pequeños errores y efectos locales. Pero tenemos que seguir mejorando nuestras mediciones y pensando en formas mejores de explicarla”, advierte Jan.

Este es el legado de Planck: con su Universo casi perfecto, la misión ha confirmado a los investigadores sus modelos, salvo por un par de detalles que habrá que resolver. En otras palabras: lo mejor de dos mundos.


Captada una señal de ondas gravitacionales nunca vista

  Los detectores LIGO y Virgo captan dos choques de agujeros negros contra estrellas de neutrones, los astros más densos del universo. Dos d...