Retransmitir la llegada del hombre a la Luna también fue un desafío técnico brutal. Los ingenieros de la NASA bastante tenían con lograr lo imposible. Llevar al hombre a la Luna parecía casi imposible cuando el presidente John F. Kennedy anunció ese objetivo en mayo de 1961. Pero la NASA lo consiguió con la misión Apollo 11.
Aquel momento quedó en la retina de millones de personas gracias a que la llegada del hombre a la Luna fue retransmitida en televisión. Quizás no han pensado en lo que eso implicó. Pero aquel era un reto que afectaba desde qué tipo de antenas y frecuencias usar a qué cámaras lograrían aguantar ese viaje y ofrecer calidad decente… Aunque fuera a 10 fotogramas por segundo.
Emitiendo “a cámara lenta”
La misión ya imponía la transmisión de un gran número de datos que lograran comunicar la nave con la estación de control. Pero la NASA descubrió con las misiones Mercury y Gemini que podían usar dos sistemas de radio diferentes.
Así, las comunicaciones de voz, el canal de subida de datos y la descarga de la telemetría se hacían mediante sistemas UHF y VHF. Mientras que la monitorización de la misión se conseguía con una baliza que emitía en la banda C tras ser “consultada” por un radar en la Tierra.
El sistema funcionaba en esas misiones iniciales. Pero para la misión de la Luna tendría que emitir mucho más lejos y hacerlo mientras tres astronautas operaban dos naves distintas. Además deberían enviar imágenes de televisión: aquellos canales de subida y bajada de datos no eran suficientes.
Es así como la NASA desarrolló la llamada Unified S-Band o USB. Aunque compartía acrónimo con el estándar de conexión actual de periféricos a nuestros ordenadores tenía poco que ver con este.
Se usaba una única antena que combinaba todos los datos en varias bandas de subportadoras. Pero aún así había que inventarse algún método de meter ahí la emisión de televisión.
Para lograr “hacer hueco”, la NASA liberó la banda de frecuencia de los 700 kHz y cambió la modulación para usar una de frecuencia en lugar de usar una de fase.
El problema: aquello no era suficiente para emitir como se hacía entonces, con 525 líneas de datos y 30 fotogramas por segundo usando 5 MHz.
¿Qué hizo la NASA?
Con ese diseño contrataron a RCA (para el módulo de comando) y a Westinghouse (para el módulo lunar) para que diseñaran las cámaras. En el diseño de la cámara de Westinghouse el principal responsable fue Stan Lebar, que con su equipo creó una cámara pequeña y ligera capaz de soportar el viaje de ida y las temperaturas espaciales.
No solo eso: la cámara de Westinghouse debía corregir las imágenes de alto contraste que se emitirían desde la luna, con su brillante superficie luchando con el negro casi absoluto del espacio. Para lograrlo usaron una curiosa tecnología de visión nocturna usada por parte del Departamento de Defensa para encontrar a pilotos derribados en la Guerra de Vietnam.
Cuando Armstrong comenzó a bajar de la nave, Buzz Aldrin activó el circuito y la señal se envió desde la antena del módulo lunar a varias estaciones base, y tras ser convertida y adaptada de las 320 líneas y 10 FPS a 525 y 30 FPS se retransmitió a todo el mundo.
El resto, como suele decirse, es historia.
Retransmitir la llegada del hombre a la Luna también fue un desafío técnico brutal
Fuente: Xataka