top of page

Imágenes satelitales en la escuela

¿Como se ve un humedal desde el cielo?

La imagen superior corresponde al satélite francés SPOT con su sensor HRG 5, en falso color compuesto. Su resolución espacial es de 10 x 10 metros (esto quiere decir que cada pixel de la imagen representa esa superficie sobre el terreno).

La imagen inferior corresponde a Google Earth, en color real.

Los colores de cada imagen se obtienen de la combinación de bandas (colores y radicación infrarroja) que se realiza por medio de programas de procesamiento de imágenes como SOPI (creado por la Comisión Nacional de Avtividades Espaciales de la Argentina) o Multispec (de la Universidad de Purdue, USA).

Los programas SOPI y Multispec pueden descargarse gratis y las imágenes con la información de bandas de satélites como el SAC - C (Argentina) o Landsat (USA), también, del catálogo de CONAE y del USGS (Servicio Geológico de los Estados Unidos).

Ambas imágenes nos muestra la dimensión del valle de la confluencia de los ríos Limay y Neuquén sobre la meseta árida.


 

En una cámara fotográfica la energía procedente de los objetos que nos proponemos retratar provienen de la luz emitida por ellos. El retrato se registra sobre una superficie fotosensible (el rollo de fotos, en la “antigüedad”). De esta manera puede componerse una película pancromática (grises) o a color. En cambio los equipos electrónicos de los sensores remotos o satélites, no graban sobre superficies sólidas, sino que lo hacen a través de secuencias repetidas a intervalos regulares de tiempo. Se almacenan como información de la energía emitida por los objetos que componen la cobertura de la superficie terrestre. Un sensor explora la superficie de la Tierra y detecta esa energía o “radiancia media del terreno”.

El pixel es la unidad mínima que define a una imagen. Cada pixel representa una superficie del terreno que registra el satélite. Un conjunto de píxeles de una imagen satelital delimitan los objetos que vemos en la imagen satelital. Cada pixel también representa el valor medio de radiancia de los objetos detectados. Cada pixel de una imagen representa un número entero, que es la traducción de la radiancia detectada para esa superficie en el terreno. Ese número se denomina nivel digital (ND). Los ND definen entonces un número que corresponde para cada pixel (superficie del terreno) y para cada banda (cada color del espectro visible y del infrarrojo, "que no se ve"). Un ND es una medida de la intensidad visual o también como una intensidad del tono de gris. De esta manera a través de los ND se puede componer una imagen sobre el monitor de una PC o netbook.

Una imagen está compuesta por una cantidad de píxeles que nos dice qué resolución espacial tiene la imagen seleccionada. La imagen conforma una grilla y cada pixel de la grilla tiene una localización determinada. Esa posición está definida por una sistema de coordenadas en ejes cartesianos x (columnas) e y (filas). Los datos representados sobre el sistema de coordenadas se denominan “raster”. Las coordenadas pueden traducirse también a coordenadas geográficas y de esta manera la información obtenida de mapas e imágenes satelitales puede ser intercambiada, expresando siempre cada coordenada en un sistema de proyección común.

Una imagen contiene tantos planos como bandas espectrales dispone cada sensor. Por ejemplo para Landsat TM disponemos de siete bandas y de SPOT HRG, cuatro bandas. La comprensión de los niveles digitales y su expresión espacial y espectral implica una combinación de saberes muy amplios de física, geografía y biología. Sin embargo la interpretación de los valores de píxeles que se pueden obtener con distintos programas de computación son más simples. Los valores de radiancia deducidos de una imagen pueden ser procesados por medio de álgebra de bandas (operaciones matemáticas), obtención de índices, o clasificando (discriminación de grupos de ND). De esta manera se obtienen medidas más sencillas que nos permiten entender la información de la superficie de la Tierra.

bottom of page