Retransmitir la llegada del hombre a la Luna también fue un desafío técnico brutal. Los ingenieros de la NASA bastante tenían con lograr lo imposible. Llevar al hombre a la Luna parecía casi imposible cuando el presidente John F. Kennedy anunció ese objetivo en mayo de 1961. Pero la NASA lo consiguió con la misión Apollo 11.

Aquel momento quedó en la retina de millones de personas gracias a que la llegada del hombre a la Luna fue retransmitida en televisión. Quizás no han pensado en lo que eso implicó. Pero aquel era un reto que afectaba desde qué tipo de antenas y frecuencias usar a qué cámaras lograrían aguantar ese viaje y ofrecer calidad decente… Aunque fuera a 10 fotogramas por segundo.

Emitiendo “a cámara lenta”

La misión ya imponía la transmisión de un gran número de datos que lograran comunicar la nave con la estación de control. Pero la NASA descubrió con las misiones Mercury y Gemini que podían usar dos sistemas de radio diferentes.

Así, las comunicaciones de voz, el canal de subida de datos y la descarga de la telemetría se hacían mediante sistemas UHF y VHF. Mientras que la monitorización de la misión se conseguía con una baliza que emitía en la banda C tras ser “consultada” por un radar en la Tierra.

El sistema funcionaba en esas misiones iniciales. Pero para la misión de la Luna tendría que emitir mucho más lejos y hacerlo mientras tres astronautas operaban dos naves distintas. Además deberían enviar imágenes de televisión: aquellos canales de subida y bajada de datos no eran suficientes.

LEE TAMBIÉN:   Campana eléctrica en Oxford lleva sonando 181 años sin parar

Es así como la NASA desarrolló la llamada Unified S-Band o USB. Aunque compartía acrónimo con el estándar de conexión actual de periféricos a nuestros ordenadores tenía poco que ver con este.

Se usaba una única antena que combinaba todos los datos en varias bandas de subportadoras. Pero aún así había que inventarse algún método de meter ahí la emisión de televisión.

Para lograr “hacer hueco”, la NASA liberó la banda de frecuencia de los 700 kHz y cambió la modulación para usar una de frecuencia en lugar de usar una de fase.

El problema: aquello no era suficiente para emitir como se hacía entonces, con 525 líneas de datos y 30 fotogramas por segundo usando 5 MHz.

¿Qué hizo la NASA?

¿Qué hizo la NASA? Bajar la calidad. Diseñaron una cámara que grababa a 320 líneas de datos a 10 fotogramas por segundo y se transmitía a tan solo 500 kHz.

Con ese diseño contrataron a RCA (para el módulo de comando) y a Westinghouse (para el módulo lunar) para que diseñaran las cámaras. En el diseño de la cámara de Westinghouse el principal responsable fue Stan Lebar, que con su equipo creó una cámara pequeña y ligera capaz de soportar el viaje de ida y las temperaturas espaciales.

No solo eso: la cámara de Westinghouse debía corregir las imágenes de alto contraste que se emitirían desde la luna, con su brillante superficie luchando con el negro casi absoluto del espacio. Para lograrlo usaron una curiosa tecnología de visión nocturna usada por parte del Departamento de Defensa para encontrar a pilotos derribados en la Guerra de Vietnam.

Fue esa cámara la que permitió capturar los primeros pasos de Armstrong en la Luna. Colocada en un lugar estratégico y cubierta con una manta térmica que aún así dejaba solo un hueco para que la lente lo captara todo.

Cuando Armstrong comenzó a bajar de la nave, Buzz Aldrin activó el circuito y la señal se envió desde la antena del módulo lunar a varias estaciones base, y tras ser convertida y adaptada de las 320 líneas y 10 FPS a 525 y 30 FPS se retransmitió a todo el mundo.

LEE TAMBIÉN:   ¿Está el gobierno privatizando las empresas expropiadas en Venezuela?

El resto, como suele decirse, es historia.

Retransmitir la llegada del hombre a la Luna también fue un desafío técnico brutal

Fuente: Xataka

Comentarios

Comentarios

Translate »