Así es como NASA photoshopea las impresionantes fotografías de galaxias lejanas

05 de Octubre de 2015 Actualizado: 05 de Octubre de 2015

Durante décadas, el público ha visto fotos sublimes de estrellas y galaxias distantes producidas por la NASA, con unas pocas imágenes, como los Pilares de la Creación, alcanzando el estatus de íconos. Todo el mundo sabe de dónde provienen esas imágenes: de naves espaciales como el telescopio espacial Hubble o del Mars Rover, pero eso es sólo la mitad de la historia. Lo que es menos conocido es que los datos en bruto tienen un extenso procesamiento antes de ser liberados al mundo.

En una entrada de blog del 28 de septiembre, Adobe expone la edición y post-producción involucrada en la creación de las obras maestras visuales de la NASA. Para crear el paisaje panorámico de Marte, los editores de la NASA tienen primero que unir docenas de fotos, la mayoría de las cuales no están alineadas con el horizonte, y recortar las esquinas para dar un marco geométrico a la fotografía.

El Mars Rover también toma fotos en 3D con dos cámaras simultáneas, lo que se traduce en una serie de imágenes que necesitan ser unidas para que sean visualmente coherentes. Por último, las imágenes se corrigen en su brillo para equilibrar los problemas de iluminación creados por el polvo marciano.

Una composición original de “Valle Maratón” tomada por el Exploration Rover Opportunity entre el 3 y 4 de marzo del 2015. (NASA/JPL-Caltech)
Una composición original de “Valle Maratón” tomada por el Exploration Rover Opportunity entre el 3 y 4 de marzo del 2015. (NASA/JPL-Caltech)

Los ajustes hechos por NASA se esfuerzan en que las fotos sean lo más exactas posible en términos científicos, y los cambios se realizan tanto por la estética como por la riqueza de la información. Cuando la NASA agrega colores a las fotos de cuerpos cósmicos lejanos, la paleta refleja lo que los ojos verían si fueran sensibles al color en un amplio espectro.

La Nebulosa de Orión, M42, como fue fotografiada por el Wide-field Infrared Survey Explorer, o WISE, de la NASA en enero del 2013. (NASA/JPL-Caltech/UCLA)
La Nebulosa de Orión, M42, como fue fotografiada por el Wide-field Infrared Survey Explorer, o WISE, de la NASA en enero del 2013. (NASA/JPL-Caltech/UCLA)

“Básicamente tomo los datos en bruto de la escala de grises de diferentes partes del espectro infrarrojo, y luego les reasigno colores visibles –típicamente con capas de Photoshop rojas, verdes y azules– para crear imágenes que son exactamente representativas de los colores infrarrojos que los ojos humanos no pueden ver” según le contó a Adobe Robert Hurt, astrónomo y científico de visualización en el Centro de Procesamiento y Análisis Infrarrojo de Caltech. “Pienso en ello como un proceso de traducción visual”.

El trabajo de Hurt no se limita a poner de relieve los detalles en las fotos que no son visibles para el ojo humano, sino también el eliminar artefactos de la cámara que podrían engañar al espectador haciéndolo pensar que hay estrellas o planetas que no están allí.

TE RECOMENDAMOS