Teledeteccion
Teledeteccion
Teledeteccion
Teledetección
Teledetección es la técnica que permite obtener información a distancia de objetos sin que exista un contacto
material. Para que ello sea posible es necesario que, aunque sin contacto material, exista algún tipo de interac-
ción entre los objetos observados; situados sobre la superficie terrestre, marina o en la atmósfera; y un sensor
situado en una plataforma (satélite, avión, etc.).
En el caso la teledetección la interacción que se produce va a ser un flujo de radiación que parte de los objetos
y se dirige hacia el sensor (figura ??). Este flujo puede ser, en cuanto a su origen, de tres tipos:
Las técnicas basadas en los dos primeros tipos se conocen como teledetección pasiva y la última como telede-
tección activa.
La radiación (solar reflejada, terrestre o emitida por el sensor y reflejada) que llega de la superficie terrestre y
que ha atravesado la atmósfera, es almacenada en formato digital. Una vez recuperados los datos en el centro
de control del satélite, permitirán obtener información acerca de la superficie terrestre y de la atmósfera. El tipo
de información que se obtiene dependerá de la longitud de onda en la que el sensor capte radiación.
El análisis de esta información permite el reconocimiento de las características de los objetos observados y de
los fenómenos que se producen en la superficie terrestre y oceánica y en la atmósfera. Por tanto son muchas las
ciencias, tanto naturales como sociales, interesadas en su uso (Geografía, Geología, Meteorología, Agronomía,
etc.).
181
182 CAPÍTULO 10. TELEDETECCIÓN
La naturaleza de la radiación electromagnética puede ser explicada a partir de dos modelos aparentemente
contradictorios y en el fondo complementarios. El módelo de onda asume que la radiación se produce en forma
de ondas que resultan de oscilaciones en los campos eléctrico y magnético en las inmediaciones de los objetos
y se desplazan por el espacio a la velocidad de la luz. Las ondas se definen fundamentalmente por su longitud
(λ) o distancia entre dos picos de onda (se mide en µm, es decir 10−6 metros). El modelo de partícula asume
que la energía viaja como un flujo de elementos discretos: los fotones. La energía transportada por cada fotón
(Q) depende de la longitud de onda, de este modo ambos modelos se relacionan mediante la ecuación:
hc
Q= (10.1)
λ
M = σT 4 (10.2)
2898
λmax = (10.3)
T
10.1. FUNDAMENTOS DE LA TELEDETECCIÓN 183
nos permite calcular a que longitud de onda se produce el pico de máxima emisión de energía de un cuerpo a
una temperatura T . Como puede observarse a mayor temperatura menor longitud de onda. Tanto en la ecuación
?? como en la ?? la temperatura se expresa en grados Kelvin.
La temperatura del Sol es de aproximadamente 6000o K mientras que la de la Tierra es de 300o K. Esto significa
que la radiación solar va a ser máxima para una longitud de onda de 0.48 µ (región visible) y la terrestre máxima
en una longitud de onda de 9.66 µ (infrarrojo térmico).
Determinados fenómenos de la superficie terrestre (por ejemplo los incendios) implican una temperatura mucho
mayor (548,5−693,5o K) que la habitual de la superficie terrestre, esto significa que el total de radiación emitida
va a ser mucho mayor y que el pico de emisión va a estar en longitudes de onda de 5.28 - 4.3 µ, también en
el infrarrojo térmico pero con valores considerablemente diferentes a los correspondientes a la temperatura
normal de la Tierra.
Por tanto puede concluirse que la radiación solar domina aquellas regiones del espectro electromagnético que
corresponden a la radiación visible y al infrarrojo reflejado. La radiación terrestre domina el infrarrojo térmico,
mientras que las radiaciones que corresponden a las microondas (radar) no aparecen en la naturaleza, deben
ser por tanto de origen artificial, generadas por el propio sensor que las recibe posteriormente reflejadas (figura
??).
Todos los objetos (independientemente de la radiación que emitan) van a recibir radiación, fundamentalmente
del sol, que, en función del tipo de objeto que estemos considerando, puede seguir tres caminos:
La fracción de energía que se refleja se denomina reflectividad o albedo (ρ ); la fracción de energía que se
absorbe se denomina absortividad (α ); la fracción de energía que se transmite se denomina transmisividad (τ )
cumpliendose que ρ + τ + α = 1. Las tres variables tienen lógicamente valores entre 0 y 1.
La interacción de la radiación con la atmósfera y con los objetos terrestres, es decir los valores de ρ, τ y α de
un cuerpo concreto, va a depender de la longitud de onda de que se trate y de las características de ese cuerpo.
Unas primeras líneas generales acerca del comportamiento de diferentes objetos respecto a su interacción con
la radiación serían:
Atmósfera despejada:
Nubes :
Agua:
Superficie terrestre:
Algunos de los gases que componen la atmósfera absorben radiación en determinadas longitudes de onda. La
radiación no absorbida se transmite a la superficie terrestre aunque se ve afectada por procesos de dispersión
(responsables del color azul del cielo y de que podamos ver en zonas de sombra). Los gases responsables de la
absorción son fundamentalmente:
De este modo aparecen una serie de regiones en el espectro en las que la radiación es absorbida por uno o
varios de los gases. Esto deja, por otro lado, regiones del espectro en las que no se produce absorción, son las
denominadas ventanas atmosféricas.
Varias en el infrarrojo medio (1,5 − 1,8µ; 2 − 2,4µ; 2,9 − 4,2µ; 4,5 − 5,5µ)
Problema aparte supone la aparición de partículas líquidas (nubes, figura ??) o sólidas (figura ??) que reflejan
gran parte de la radiación solar que reciben. Las nubes emiten su propia radiación en el infrarrojo térmico,
diferente a la terrestre debido a su menor temperatura, con lo que ocultan la superficie terrestre en ambas
regiones del espectro. Debido a la saturación en vapor de agua, su capcidad de absorber radiación en la banda
de absorción del vapor de agua dependerá de su espesor.
A la hora de diseñar un sensor, existen tres posibilidades fundamentales:
Captar radiación solar reflejada por la superficie (en una longitud de onda correspondiente a una ventana
atmosférica)
Captar radiación de una banda en la que un gas presente una elevada capacidad de absorción para así
estimar la concentración de este gas. Cuanto menos radiación llegue mayor será la cantidad de gas.
Las tres bandas de Meteosat (figura ??) son un ejemplo de cada una de estas posibilidades:
1. La imagen visible capta radiación solar reflejada integrando todas las longitudes de onda del visible y
parte del infrarrojo reflejado (0,5 − 0,9µ), cuanto mayor sea el valor recibido por el sensor mayor es el
albedo (colores claros).
2. La imagen del infrarrojo térmico capta radiación emitida por la Tierra (5,7−7,1µ) que, por tanto, depende
de su temperatura, a mayor temperatura mayor energía recibida (colores oscuros).
3. La imagen del vapor de agua (10,5 − 12,5µ) capta ebergía en la longitud de onda en que mayor es la
absorción del vapor de agua; por tanto cuanto mayor sea la cantidad de vapor de agua presente en la
columna atmosférica menor es la cantidad de energía que capta el sensor (colores claros).
Nubes bajas (albedo muy alto, temperatura moderada, contenido en vapor de agua moderado)
Nubes altas (albedo muy alto, temperatura muy baja, contenido en vapor de agua moderado)
Nubes de desarrollo vertical (albedo muy alto, temperatura muy baja, contenido en vapor de agua eleva-
do)
186 CAPÍTULO 10. TELEDETECCIÓN
En general se considera que si el día es suficientemente despejado la absorción atmosférica puede despreciarse
en las ventanas. Dispersión y refracción son más difíciles de evitar, introduciendo distorsiones que deben ser
corregidas.
En todo caso, los problemas relacionados con la interacción de la atmósfera tienen mayor importancia en
estudios multitemporales. Si se trabaja con imágenes de una sola fecha se asume que la distorsión atmosférica
es equivalente en todo el espacio (al menos en las imágenes de alta resolución que cubren una pequeña porción
de la superficie terrestre).
De cara a la identificación de objetos y procesos en la superficie terrestre, lo que nos interesa es la reflectividad
de estos objetos respecto a las diferentes longitudes de onda. Cada tipo de material, suelo, vegetación, agua,
etc. reflejará la radiación incidente de forma distinta, lo que permitirá distinguirlo de los demás si medimos la
radiación reflejada. A partir de medidas de laboratorio se ha obtenido la reflectividad para las distintas cubiertas
en diferentes longitudes de onda.
Si asumimos que la influencia de la atmósfera es mínima, ya que estamos trabajando en una ventana atmosférica
y en un día despejado, podemos calcular la reflectividad como:
Rsen
ρ= (10.4)
Rsol
donde Rs en es la radiación que ha recibido el sensor procedente de un punto de la superficie terrestre y Rsol es
la radiación que, emitida por el sol en las longitud de onda correspondiente al canal con que se está trabajando,
llega a dicho punto de la superficie terrestre.
El gráfico que, para cada longitud de onda, nos da la reflectividad en tanto por ciento se conoce como signatura
espectral (figura ??) y constituye una marca de identidad de los objetos. Resulta así fácil por ejemplo distinguir
entre suelo y vegetación, e incluso entre diferentes tipos de suelo o diferentes tipos de vegetación.
El agua clara tiene unas excelentes propiedades en cuanto a transmisión de la radiación electromagnética en el
espectro visible y de absorción en el infrarrojo. En cuanto a la reflectividad, aparece un pico en el verde que va
reduciendose hasta el infrarrojo. Esta falta de reflectividad en el infrarrojo va a ser la clave para distinguir entre
areas de tierra y agua tanto en costas o lagos como en rios, incluso en rios pequeños.
El carácter tridimensional de las superficies de agua hace que en su respuesta espectral aparezca un compo-
nente debido a la superficie, otro a la columna de agua y un tercero al fondo. Por lo tanto, cualquier variación
tanto en la columna de agua como en los materiales del fondo van a alterar su respuesta; un fondo de arena
clara proporciona mayor reflectancia que otro compuesto por matria orgánica en descomposición. Sin embargo
10.2. INTERACCIÓN DE LOS ELEMENTOS DE LA SUPERFICIE TERRESTRE CON LA RADIACIÓN187
debido a la escasa capacidad de penetración de la radiación, estas consideraciones sólo son válidas en aguas
muy someras.
La profundidad a la que la luz puede penetrar depende de la longitud de onda. En el agua clara la profundidad
de penetración son 10 m entre 0,5y0,6µ cayendo hasta 10 cm en 0,8 − 1,1µ. Por tanto al incrementarse la
profundidad del agua la reflectancia, en cualquier longitud de onda, desciende.
Cuando el agua contiene turbidez, las consecuencias sobre la respuesta espectral van a depender del tipo de
turbidez. Si se trata de fitoplancton, aparecen importantes alteraciones en el verde (aumenta) y en el azul (dismi-
nuye). Estos resultados han permitido el desarrollo de diversas ecuaciones empíricas. Si se trata de sedimentos
inorgánicos la reflectividad aumenta, especialmente en el rojo
La reflectividad en la nieve es completamente diferente a la del agua, alta en todas las longitudes de onda,
especialmente en el caso de la nieve fresca, pudiendo incluso saturar los sensores1 . Es posible confundir nieve
con nubes altas (al fin y al cabo formadas por partículas de hielo) con la salvedad de que la reflectividad de la
nieve cae hasta cero para longitudes de onda mayores de 1,4µ mientras que la de las nubes sigue siendo alta.
La vegetación sana tiene una reflectividad baja en el visible aunque con un pico en el color verde debido a la
clorofila, ese pigmento aparece en concentraciones entre 5 y 10 veces mayores que otros como el caroteno).
La reflectividad es muy alta en el infrarrojo reflejado o próximo debido a la escasa absorción de energía por
parte de las plantas en esta banda. En el infrarrojo medio hay una disminución especialmente importante en
aquellas longitudes de onda en las que el agua de la planta absorbe la energía. Durante el otoño, las hojas
pierden los cloroplastos (organos que contienen la clorofila) ya que dejan de ser necesarios, por tanto deja de
ser la clorofila el pigmento principal y las plantas adquieren un color pardo-amarillento debido a la cada vez
mayor importancia relativa de carotenos y otros pigmentos.
Esta curva tan contrastada se debilita en el caso de la vegetación enferma en la que disminuye el infrarrojo
y aumenta la reflectividad en el rojo y azul. Se observa también que la reflectividad de una planta depende
de su contenido en agua. Cuando el contenido de agua aumenta disminuye la reflectividad ya que aumenta la
absorción de radiación por parte del agua contenida en la planta.
La cantidad de energía de los fotones que viajan con longitudes de onda mayores (infrarrojo cercano) es de-
masiado baja para ser aprovechada por la vegetación por lo que sólo se absorbe en torno al 5 %, el resto se
transmite (40 %) o refleja (55 %). Sin embargo, la energía transmitida acabará llegando a otra hoja situada por
debajo, y portanto el 55 % de ese 40 % se volverá a reflejar. Este proceso, repetido en diferentes capas hace
que se incremente el tanto por ciento de energía reflejada por un dosel vegetal. El envejecimiento de la planta
conlleva también una reducción en la reflectividad en el infrarrojo. Las variaciones en la estructura interna de
las hojas son la causa principal de que los patrones de respuesta espectral sean diferentes de unas especies a
otras.
En cuanto al infrarrojo medio, el agua presente en los tejidos vegetales absorbe la radiación en diversas longitu-
des de onda hasta alcanzar valores de α = 0,9 que afectan incluso a las longitudes de onda vecinas de aquellas
1
Un sensor se satura cuando la radiación que recibe es superior al máximo que puede recibir dada su resolución radiométrica
188 CAPÍTULO 10. TELEDETECCIÓN
en las que se produce máxima absorción. En general cuanto menor sea el contenido de agua de una planta,
mayor será su reflectividad en el infrarrojo medio.
Las propiedades espectrales del suelo son relativamente simples, la transmisión es nula, por tanto toda la energía
se absorbe o refleja. La reflectividad es relativamente baja para todas las bandas aunque aumentando hacia el
infrarrojo. Hay una cierta dependencia entre reflectividad y contenido en agua del suelo, cuanto mayor es el
segundo, mayor es la primera como se puede ver en la figura ??2 . Este aumento se ve interrumpido en aquellas
regiones en las que el agua absorbe energía, por tanto cuanto mayor sea el contenido de agua en el suelo, mayor
va a a ser la disminución en reflectividad de estas regiones.
Otros factores que afectan la respuesta espectral del suelo son la textura con una mayor reflectividad al aumentar
el tamaño medio de las partículas de suelo, los suelos arenosos tienen mayor reflectividad (se ven más claros)
que los arcillosos. El problema es que la textura afecta también al contenido de humedad por lo que no resulta
fácil diferenciar (con imágenes de satélite) entre ambos factores. Los minerales de la arcilla tienen, por su parte,
una caida en reflectividad entorno a 2.2 µ que no tienen las arenas.
El contenido en materia orgánica también afecta a la reflectividad, cuanto mayor sea su contenido y cuanto
menos descomupesta se encuentre más oscuro resulta el suelo (menor reflectividad). La composición química
y mineralógica también va a influir en la respuesta espectral, así por ejemplo el contenido en óxidos de hierro
va a incrementar la reflectividad en el rojo.
La fuerte correlación entre muchos de los factores que influyen sobre la respuesta espectral del suelo, imposi-
bilita el que puedan sacarse conclusiones claras del análisis de una imagen de unas zonas cuyas características
edáficas se desconocen. En todo caso se ha comprobado que las áreas de suelo desnudo de una misma imagen
siguen una serie de pautas reconocibles. La más estudiada es que si se hace una representación gráfica con la
reflectividad en el rojo en abcisas y la reflectividad en el infrarrjo cercano en ordenadas, las zonas de suelo
desnudo aparecen formando una linea que se conoce como linea del suelo (figura ??).
Se entiende por plataforma los satélites (LANDSAT, METEOSAT, NOAA, SPOT) o aviones que transportan
los aparatos necesarios para captar, almacenar y transmitir imágenes a distancia (sensores).
Un sensor es el aparato que reúne la tecnología necesaria para captar imágenes a distancia y que es transportado
en una plataforma. Puede captar información para diferentes regiones del espectro y cada una de estas regiones
se denomina canal o banda.
2
Esta es la razón de que un suelo mojado se vea más oscuro
10.3. CARACTERIZACIÓN DE LAS IMÁGENES DE SATÉLITE 189
Por ejemplo, landsat es una plataforma que contiene dos sensores landsat-TM y landsat-MSS, el primero de
los cuales tiene 7 bandas (azul, verde, rojo, 3 en el infrarrojo cercano y 1 en el infrarrojo térmico y el segundo
4 bandas (verde, rojo y 2 en el infrarrojo cercano). La figura ?? muestra la ubicación, dentro del espectro
electromagnético, de las 6 bandas de landsat que corresponden con el espectro solar.
La salida de radiación (emitida o reflejeda) de la superficie terrestre es un fenomeno continuo en 4 dimensiones
(espacio, tiempo, longitud de onda y radiancia). Un sensor debe muestrear en este continuo discretizándolo en
cada una de esas dimensiones. El modo en que esta discretización se lleva a cabo define los cuatro tipos de
resolución con los que se trabaja en teledetección:
La figura ?? muestra como cambios en la resolución espacial de una imagen afectan a su calidad. La imagen
procede del sensor Quick Bird, con una resolución espacial de aproximadamente 1 metro, y es una composición
de 3 bandas (rojo, verde y azul) en color real, la resolución radiométrica es de 256 niveles de gris por banda.
En la segunda imagen se ha simulado una reducción de la resolución espectral agrupando las tres bandas del
visible en una sóla banda pancromática que se representa con 256 niveles de gris. La tercera y la cuarta imágenes
simulan una resucción de la resolución radiométrica a 4 niveles por banda en lugar de los 256 anteriores, lo que
da un total de 12 colores para la tercera imagen y 4 para la cuarta. Las dos imágenes inferiores muestran una
reducción de la resolución espacial a 25 y 50 metros respectivamente.
En la tabla ?? aparecen estas características para varios sensores y plataformas. Se trata de un resumen ya que
en algunos casos (Spot, Ikonos) se dispone también de una banda pancromática (todo el visible integrado, como
si se tratase de una fotografía en blanco y negro) generalmente con mayor resolución espacial que las restantes;
en otros casos no todas las bandas tienen la misma resolución espacial
La altura a la que se sitúa el satélite y sus movimientos van a condicionar las características geométricas y la
resolución temporal de las imágenes que producen (figura ??).
Los satélites que como meteosat se sitúan en órbita geoestacionaria (36.000 Km) permanecen fijos y producen
una imagen que abarca la mayor parte de la porción del globo terrestre a la que apuntan, sin embargo las
distorsiones que aparecen hacia los polos limitan su utilización a la porción entre 50o N y 50o S. El area de la
superficie abarcada por cada pixel es necesariamente grande (2500 o 5000 metros dependiendo de las bandas)
su resolución espacial es por tanto pequeña. Al permanecer fijos su resolución temporal puede ser muy grande,
en el caso de Meteosat hay una imágen cada 30 minutos
El problema de la correlación negativa entre resolución espacial y temporal se está solucionando en parte debido
a la existencia mejores sistemas de almacenamiento de datos y al desarrollo de la teledetección aerotransporta-
da, los sensores se colocan en aviones que vuelan a la altura (resolución espacial) deseada en el momento que
se requiera.
190 CAPÍTULO 10. TELEDETECCIÓN
Al recibir la radiación procedente de la superficie terrestre, el sensor almacena un número entero, se trata de un
intervalo de intensidad o nivel digital a partir del cual se puede obtener de nuevo la radiación recibida mediante
una sencilla transformación lineal. El número de niveles de intensidad se denomina resolución radiométrica
Una imagen de satélite en estado bruto es un conjunto de imágenes (una por banda) similares a las que se
obtienen haciendo una fotografía digital. Los pixels están organizados en un sistema de filas y columnas pero
sin referencia a coordenadas reales.
Una imagen de satélite en bruto, tal como normalmente llega al usuario final, consiste en un conjunto de
matrices, una por cada canal del sensor, en la que aparecen números del 0 al 255. El cero índica que no llega
nada de radiación desde ese punto y el 255 que llega el valor más alto de radiación. Estos valores se denominan
Niveles Digitales y será necesario transformarlos en algún tipo de variable física.
El tratamiento de una imagen de satélite previo a su análisis incluye:
Paso de nivel digital a radiación recibida por el sensor. Normalmente a través de una ecuación lineal
cuyos parámetros se suministran junto con la imagen. En la tabla ?? aparecen los parámetros para las 6
bandas más utilizadas del sensor LANDSAT -TM, junto con la irradiancia solar extraterrestre, cantidad
de energía solar que llega al límite de la atmósfera que se utiliza para calcular la reflectividad.
10.4. VISUALIZACIÓN DE IMÁGENES 191
Banda a0 a1 E0
1 (Azul) -6.2 0.768 1970
2 (Verde) -6 0.818 1843
3 (Rojo) -4.5 0.64 1555
4 (Infrarrojo a) -4.5 0.635 1047
5 (Infrarrojo b) 1 0.128 227.1
6 (Infrarrojo térmico)
7 (Infrarrojo c) -0.35 0.0424 80
Corrección atmosférica (para eliminar las interferencias producidas por la absorción, dispersión y refrac-
ción en la radiación recibida)
Corrección de luminosidad (para eliminar el efecto de solana-umbría)
Dependiendo de la región del espectro de que se trate:
• calculo de la reflectividad dividiendo la radiación recibida por el sensor entre la radiación estimada
en superficie (ventana atmosférica en el visible). A partir de la reflectividad en diferentes bandas
pueden obtenerse índices que se comporten como indicadores de desertificación. Puede tabien cla-
sificarse los distintos pixeles de la imagen en función de sus valores de reflectividad en clases que
se correspondan con tipos de suelo, vegetación, etc. Ejemplos: Landsat, NOAA
• Estimación de la concentración del gas que absorbe la radiación en la región del espectro manejada
(zona de absorción): Ejemplos TOMS y Meteosat
• Estimación de la temperatura del cuerpo emisor utilizando la banda de infrarrojo térmico. Casi
todos los satélites recogen radiación en alguna región del infrarrojo térmico.
En ocasiones no se llevan a cabo todos los pasos incluidos, depende de los objetivos que se persigan con el
empleo de la teledeteccción, en algunos casos es suficiente trabajar con los ND georreferenciados. El paso
siguiente suele incluir todas o alguna de las siguientes fases:
la fotografía digital en cuanto a las posibilidades de retocar y realzar las imágenes. Sin embargo una imagen
de satélite en bruto presenta un aspecto bastante apagado, por lo que el análisis visual no resulta sencillo. En
teledetección se han desarrollado diferentes técnicas que permiten resaltar determinados aspectos para facilitar
este análisis.
Aunque el espectro electromagnético abarca un ámplio número de regiones y el ojo humano tiene una gran ca-
pacidad de discriminación de estos colores, podemos descomponer cualquier color en tres componentes (azul,
verde y rojo) que corresponden a tres regiones del espectro visible. Los dispositivos de visualización de imá-
genes (monitores, televisiones, etc) forman sus imágenes mediante la combinación de diferentes niveles de
intensidad en estos tres colores. Cada pixel en pantalla es representado mediante 3 puntos de luz, rojo, verde y
azul (composición RGB) al dispositivo encargado de pintar todos los puntos de un color se le denomina cañon.
De este modo existen el cañon del rojo, el del verde y el del azul.
En el ejemplo de la figura ?? se puede ver la descomposición de una imagen de colores vivos en 3 imágenes
que reflejan la intensidad en el azul, el verde y el rojo.
Una imagen de satélite tiene varias bandas, algunas de ellas responden a estos colores y otras a regiones fuera
del espectro visible. Para visualizarlas podremos pasar las diferentes bandas por cada uno de los cañones o por
todos a la vez (imagen en blanco y negro).
Los sensores utilizados en teledetección están calibrados para recibir valores muy altos de radiación sin llegar a
saturarse por lo que lo normal es que todos los valores recibidos estén muy por debajo de los máximos posibles.
La consecuencia es que los valores de ND obtenidos son muy bajos y las imágenes se van a ver oscuras, muy
poco contrastadas. Una forma de solventar este problema es ajustar el contraste mediante diversas técnicas:
1. Expansión lineal
N D − N Dmin
N D0 = 255 (10.5)
N Dmax − N Dmin
2. Expansión lineal restringida, los valores de N Dmax y N Dmin los decide el usuario en lugar de co-
rresponder a los valores reales de la imagen. De esta forma si N Dmax > N D > N Dmin se aplica la
fórmula ??; si N Dmax < N D entonces N D0 = 255 y si N Dmin > N D entonces N D0 = 0
3. Ecualización del histograma. Tiene en cuenta, nó sólo los valores de ND, sino también su frecuencia de
manera que aquellos valores de ND más frecuentes resultarán más ajustados que los menos frecuentes.
Puesto que la imagen de cada banda representa niveles de intensidad de un color (azul, verde, rojo, etc.) y los
monitores y tarjetas de video disponen de 3 canales
10.4. VISUALIZACIÓN DE IMÁGENES 193
R rojo
G verde
B azul
para representar los 3 colores básicos; puede utilizarse cada canal para representar la intensidad de una banda
y obtener así una composición de color, la más obvia seria simular el color real. Para ello, en landsat, la
correspondencia entre bandas y cañones sería:
b1 ->B
b2 ->G
b3 ->R
pero como se dispone de más bandas, nada impide utilizarlas para generar visualizaciones en falso color. Estas
composiciones servirán para resaltar los elementos que mayor reflectividad presentan en las bandas utilizadas,
además de obtener visualizaciones más o menos estéticas. Por ejemplo, si se pasa la banda 4 de landsat (con
alta reflectividad por parte de la vegetación) por el canal verde, la vegetación se verá mucho más claramente
que si se utiliza la banda 2
b1 ->B
b4 ->G
b3 ->R
En general, se trata de aprovechar que podemos visualizar tres canales a la vez para introducir las tres bandas
que más nos van a ayudar a discriminar visualmente los elementos que nos interesan.
En la figura ?? aparece una composición a partir de la descomposición en colores de la figura ??. La intensidad
del rojo se pasa por el canal azul, la del color azul por el canal verde y la del color verde por el canal rojo.
El equivalente satelital de las figuras ?? y ?? son las figuras ?? y ?? en las que se puede ver en el extremo NO
el embalse de Puentes y en el SE la ciudad de Lorca y parte del valle del Guadalentín.
10.4.3. Filtros
Se utilizan para destacar algunos elementos de la imagen. Consiste en la aplicación a cada uno de los pixels
de la imagen de una matriz de filtrado (generalmente de 3x3) que genera un nuevo valor mediante una media
ponderada del valor original y los de los 8 pixels circundantes. Mediante diferentes combinaciones de los
factores de ponderación se pueden conswguir diferentes efectos.
Los filtros más utilizados son los de paso bajo que asignan a cada pixel el valor medio de los pixels circundantes;
o los de paso alto (para resaltar zonas de gran variabilidad).
La ecuación que se utiliza es:
P1 P1
dc=−1 df =−1 wdc,df Zc+dc,f +cf
ZFf,c = P1 P1 (10.6)
dc=−1 df =−1 wdc,df
194 CAPÍTULO 10. TELEDETECCIÓN
que, en definitiva, es la ecuación de un operador de vecindad que calcula la media ponderada. Los coeficientes
de ponderación se definen como matrices (de 3x3 en este caso). Los valores de estas matrices dependerán de lo
que se busque con el filtrado. Un filtro de paso bajo tenderá a suavizar la imagen, uno de paso alto (incluyendo
valores negativos en algunos coeficientes de ponderación) resalta las variaciones. Finalmente existen filtros
direccionales que resaltarán elementos lineales con determinadas orientaciones (figura ??).
Cuando interesa detectar algún aspecto específico de la superficie terrestre, pueden utilizarse índices que utili-
cen algunas de las bandas. Estos índices suponen a su vez una transformación de las bandas.
En general podemos hablar de dos tipos de transformaciones:
• Indices de vegetación
• Transformación Tasseled Cap
ρ4 − ρ 3
N DV I = (10.7)
ρ4 + ρ 3
Este índice se basa en que la vegetación tiene una reflectividad muy alta en la banda 4 de landsat y muy baja
en la banda 3. Por tanto cuanto mayor sea la diferencia entre ambas bandas mayor es el porcentaje de cobertura
vegetal y más sana es esta. El dividir el índice entre la suma de ambas reflectividades compensa tanto el efecto
de mayor o menor luminosidad como el efecto de la atmósfera.
Se han propuesto distintas variantes para mejorar este índice. El objetivo fundamental es eliminar la influencia
que el suelo puede tener sobre las reflectividades en el rojo y el infrarrojo y que pueda enmascarar las de la
vegetación.
Otros índices, utilizando otras bandas, permitirían analizar otros aspectos como puede ser la litología. Este tipo
de índices pueden calcularse en un SIG ya que , en definitiva, no son más que operadores sencillos de álgebra
de mapas
La transformación tasseled cap supone pasar de las 6 bandas de landsat a 3 bandas con un claro sentido físico
que representan el brillo de la imagen (albedo), el verdor y la humedad. Estas nuevas bandas se obtienen
mediante:
6
X
brillo = Ckb ρk (10.8)
k=1
X6
verdor = Ckv ρk (10.9)
k=1
6
X
humedad = Ckh ρk (10.10)
k=1
(10.11)
En estas ecuaciones Ckb significa Coeficiente para obtener brillo (b) en la banda k. Los coeficientes Ckb , Ckv
y Ckh de estas ecuaciones aparecen en la tabla ??. Permiten llevar a cabo análisis de la densidad y estado de
salud de la vegetación.
196 CAPÍTULO 10. TELEDETECCIÓN
Uno de los problemas que aparecen en la clasificación estadística es la alta correlación entre variables. En este
caso la introducción de varias variables en la clasificación no aporta más información. En la figura 2 aparece
un ejemplo en el cual las bandas 3 y 4 de Landsat TM podrían resumirse en una sola variable.
Las diferentes técnicas de análisis multivariante permiten transformar una serie de variables en nuevas variables
denominadas componentes incorrelacionadas, que absorben la varianza (variabilidad) total de los datos. Estos
componentes están ordenados además de mayor a menor en relación al porcentaje de la varianza total que
absorben. Ello permite eliminar los componentes que absorban un escaso porcentaje de la varianza original y
quedarnos con los que absorban mayor variabilidad.
Para ello hace falta analizar los resultados del análisis de componentes principales: la matriz de vectores pro-
pios y el vector de valores propios. Sin embargo los modulos de análisis de componentes principales de los
programas de SIG no suelen aportar toda la información necesaria.
10.5. OBTENCIÓN DE VARIABLES. INDICES Y TRANSFORMACIONES 197
Figura 10.5: Imágenes de cada uno de los canales del satélite Meteosat
200 CAPÍTULO 10. TELEDETECCIÓN
Figura 10.11: Descomposición de una imagen en las componentes azul, verde y rojo
204 CAPÍTULO 10. TELEDETECCIÓN
Sin entrar demasiado en los detalles del procedimiento, en la Región de Murcia, el primer componente suele
poder asimilarse al albedo, el segundo a la presencia de vegetación y el tercero a la presencia de agua, por lo
que son similares a la transformación tasseled cap. Los últimos componentes, puesto que absorben fundamen-
talemnte aleatoriedad, ruido, tienen un aspecto similar a una televisión no sintonizada.
La elaboración de una clasificación del área de estudio en una serie de clases relativas a litología, tipos de
vegetación, usos del suelo, etc., es uno de los objetivos fundamentales en teledetección.
La clasificación en teledetección es, por tanto, un caso particular del problema general de clasificar N individuos
en un conjunto de K clases en función de una serie de variables cuantitativas ( X1, X2,...,Xn). Para resolver
este problema se necesita una medida de la semejanza o diferencia entre los diferentes individuos y entre los
individuos y las clases. Dos individuos muy parecidos pertenecerán probablemente a la misma clase, mientras
que dos individuos distintos pertenecerán a diferentes clases. La medida más utilizada es la distancia euclidiana:
208 CAPÍTULO 10. TELEDETECCIÓN
v
u n
uX
di,j =t
2
(Xvi − Xvj )2 (10.12)
v=1
aunque pueden utilizarse otro tipo de distancias. Para estimar los valores de X1, X2,...,Xn para las diferentes
clases se utiliza la media aritmética de los valores de los pixels incluidos en la clase.
Puesto que en la práctica no podemos saber con certeza a que clase corresponde cada uno de los pixels, el
problema de la clasificación se convierte en un problema de probabilidad de pertenencia a cada una de las
clases de un conjunto, por tanto se suelen usar métodos estadísticos.
El procedimiento de clasificación supone dos fases:
Adjudicación de cada uno de los pixels del terreno a las clases previamente definidas
Suponiendo que los datos han pasado ya todo tipo de correcciones de tipo geométrico o atmosférico, existen
dos métodos complementarios para afrontar la definición de clases, estos son válidos tanto en imágenes de
satélite como en cualquier otro campo.
Clasificación supervisada.
Clasificación no supervisada.
10.6. CLASIFICACIÓN DE IMÁGENES 209
En realidad suelen utilizarse ambos procedimientos ya que son complementarios. La clasificación supervisada
utiliza nuestro conocimiento del terreno pero si este conocimiento no es perfecto pueden escaparse cosas que
una clasificación no supervisada detectaría.
Clasificación no supervisada
El procedimiento consta de una serie de pasos, en cada paso se identifican los dos individuos más próximos,
se hace una clase con ellos y se sustituyen por el centroide de la clase resultante. De este modo cada paso
analiza un individuo menos que el anterior ya que los individuos van siendo sustituidos por clases. El proceso
se detiene cuando se ha alcanzado un número de clases igual al número de clases que habia sido establecido a
priori.
El resultado final de un proceso de clustering suele ser un dendrograma (figura ??) en el que puede verse como
los diversos individuos se aglutinan en clases, primero los que estan a un menor distancia (los mas parecidos),
y como posteriormente las clases se unen entre si. A partir de un dendrograma podemos elegir el número de
clases que queremos mantener en función de diferentes criterios.
Puesto que una imagen de satélite contiene del orden de millones de pixels no tendría sentido hacer un den-
drograma completo, ni siquiera utilizar todos los pixeles. En su lugar se establece una muestra con la que se
210 CAPÍTULO 10. TELEDETECCIÓN
Figura 10.20: Dendrograma obtenido a partir de los pixels de las áreas de entrenamiento
inicia el proceso. El usuario debe decidir a priori con cuantas clases quiere trabajar y el programa parará en
el momento que toda la muestra inicial se haya reducido a ese número de clases. El resultado final serña la
caracterización de cada una de las clases obtenidas.
Clasificación supervisada
La clasificación supervisada se basa en la disponibilidad de áreas de entrenamiento. . Se trata de áreas de las que
se conoce a priori la clase a la que pertenecen y que servirán para generar una signatura espectral característica
de cada una de las clases. Se denominan clases informacionales. Estas deben ser areas lo más homogeneas
posibles y en las que sepamos lo que había el día que se tomó la imagen. Por ello esta opración se realiza el
mismo día en el que el satélite toma la imagen y luego se compra esta. Otra posibilidad es utilizar fotografía
aerea o información de otro tipo.
Obtener las características de reflectividad de cada una de las clases implica una simple consulta a las imágenes
(figura ??). La respuesta espectral de una clase será la respuesta espectral media de sus pixels.
Una vez que se dispone de un conjunto de clases y de sus signaturas espectrales características, vamos a tratar de
adjudicar cada uno de los pixels a una clase. Los primeros métodos que se utilizaron eran de tipo no estadístico
y con ellos se obtenían resultados bastante mediocres. Su análisis es, sin embargo, útil para comenzar a indagar
en los problemas del proceso de clasificación.
10.6. CLASIFICACIÓN DE IMÁGENES 211
Algorítmos basados en inteligencia artificial (clasificación contextual, lógica borrosa, redes neuronales,
árboles de decisión)
A continuación se indagará en algunos de estos métodos. Se utiliza para ello una muestra de celdillas pertene-
cientes a 3 clases diferentes (figura ??)que podrían asimilarse a celdillas de vegetación (verde), suelo desnudo
(rojo) y agua (azul). Los valores de reflectividad en las bandas 3 y 4 de landsat (ver figura ?? para ver a que
regiones del espectro electromagnético equivalen) se representan mediante circulos; mediante cruces se han re-
presentado los centroides de cada una de las clases (valores de reflectividad media para cada una de las bandas;
finalmente con un cuadrado se representa la celdilla que se va a clasificar.
Evidentemente el pixel x se asignará a la clase respecto a la cual su distancia sea mínima (figura ??). En
definitiva, se definen una serie de hiperesferas que rellenan el hiperespacio de variables sin intersectarse.
Este método no es demasiado bueno ya que sobreclasifica la imagen, es decir ningún pixel queda sin clasificar.
Aunque algunos autores señalan esto como una ventaja, realmente es un problema ya que es preferible dejar
áreas sin clasificar que clasificarlas sin garantías.
212 CAPÍTULO 10. TELEDETECCIÓN
Puesto que se tiene una muestra de refelctividades para cada clase y cada banda, puede calcularse la media y la
desviación típica de cada una de las clases, y utilizar algún modelo de distribución de probabilidad. El clasifi-
cador de máxima probabilidad asume que los datos siguen una función de distribución normal para asignar la
probabilidad de que un pixel cualquiera pertenezca a cada una de las clases. El pixel se asigna de este modo a
la clase a la que es más probable que pertenezca.
Este método puede usarse de forma automática, o puede establecerse algún criterio que permita asignar pixels
a una clase sólo si la probabilidad correspondiente es superior a determinado umbral. Permite por otro lado
definir algún tipo de criterio para medir la calidad de la asignación, por ejemplo la diferencia entre la máxima
probabilidad y la siguiente.
214 CAPÍTULO 10. TELEDETECCIÓN
En la figura ?? aparecen una serie de elipses rodeando a cada uno de los centroides, se trata de lineas de
isoprobabilidad, por tanto el pixel se clasificará como perteneciente a la clase en la que sus valores resulten más
probables.
Sin embargo la hipótesis de que los datos de reflectividad siguen una distribución normal no siempre se cumple
y debería verificarse siempre.
Clasificación de contexto
Todos los métodos estudiados hasta ahora utilizan, para clasificar una celdilla, sólo los valores de reflectividad
recogidos en dicha celdilla. Este hecho no es demasiado problemático si el tamaño de la celdilla es mayor que
los diferentes elementos físicos que componen el paisaje. Sin embargo si el tamaño es más pequeño que las
unidades de paisaje podría utilizarse la información de los pixels de alrededor para estimar la pertenencia a una
clase o confirmar la estimación.
Puede resultar un método útil en combinación con el de máxima probabilidad ya que permite incluir la infor-
mación de los pixels circundantes para tomar una decisión en caso de que las probabilidades para dos clases
sean similares o no exista una clase con probailidades de pertenencia suficientemente altas.
Contexto espacial
Se trata de incorporar otras fuentes de información distintas a las bandas para la clasificación. Entre esta infor-
mación estaría la altitud, pendiente, litología, etc. Las distintas formaciones vegetales tienen mayor capacidad
10.6. CLASIFICACIÓN DE IMÁGENES 215
para desarrollarse en determinados entornos definidos en parte por estas variables. Por tanto puede ser útil
establecer cual es la formación vegetal con mayor probabilidad de desarrollarse en un determinado pixel (en
función de topografía y litología) y combinar esta información con la de las bandas.
Clasificaciones multitemporales
Si lo que se pretende es distinguir entre clases cuya respuesta espectral varían con el tiempo, por ejemplo entre
diferentes usos del suelo, puede ser interesante integrar imágenes obtenidas en diferentes fechas. Imágenes de
primavera y otoño tienen un gran valor discriminante ya que las superficies vegetales, especialmente las de
cultivo muestran grandes diferencias.
Si se utiliza esta técnica, resulta imprescindible realizar una buena coreección atmosférica de las imágenes. Si
todas son de la misma fecha, la influencia de la atmósfera es la misma para todas por tanto podemos asumir
que no influye demasiado en la clasificación. Sin embargo si las imágenes proceden de diferentes fechas, la
diferente influencia de la atmósfera puede enmascarar y distorsionar los cambios en la respuesta espectral.
Se basan en el uso de redes neuronales artificiales que, se supone, imitan a las redes neuronales reales en
el desarrollo de tareas de aprendizaje. Una neurona artificial es un objeto lógico (se trata de software no de
hardware) que recibe diversas entradas, hace una media ponderada de las mismas y produce una salida a partir
de la aplicación de una función umbral a la media ponderada.
Si conectamos las asalidas de unas neuronas como entradas de otras obtenemos una red neuronal. Uno de los
ejemplos más típicos de red neuronal es el la Back Propagation Neural Network que aparece en la figura.
Consta de una capa de entrada con tantas neuronas como variables de entrada se vayan a introducir en el modelo
(en el caso de la teledetección sería una por cada banda utilizada para clasificar), una capa oculta que realiza la
mayor parte del cálculo y una capa de salida con tantas neuronas como posibles clases existan. En teledetección
216 CAPÍTULO 10. TELEDETECCIÓN
esta salida suele consistir en un valor numérico entre 0 y 1 para cada clase, cuanto mayor sea este valor más
verosimil resulta que el pixel pertenezca a la clase en cuestión
Para trabajar con una red neuronal existen varias fases:
2. Estabilización. Al principio del entrenamiento, los factores de ponderación cambian muy deprisa, pero
conforme este se desarrolla (y si las areas de entrenamiento se han seleccionado correctamente) se esta-
bilizan (no se modifican aunque se vuelvan a introducir los pixels de entrenamiento). En este momento
finaliza la fase de entrenamiento
3. Clasificación. Se introducen las respuestas espectrales de los pixels cuya clase no se conoce y se adjudi-
can a la clase que de una respuesta más alta (que no va a ser necesariamente 1).
Se trata en definitiva de un método de clasificación no paramétrico robusto que da buenos resultados cuando
las respuestas espectrales de las clases no siguen una distribución normal. La clave está en el conjunto de
coeficientes de ponderación que constituyen un conjunto de parámetros que deben ajustarse a unos datos de
entrada y salida. Por tanto en cierto modo es equivalente a una regresión multivariante no paramétrica.
Arboles de clasificación
Suponen un análisis exhaustivo de las respuestas espectrales de las clases y del conjunto de datos disponibles,
consiste en ir haciendo preguntas a cada pixel cuya respuesta positiva o negativa conducirá a otra pregunta y
asi sucesivamente hasta obtener la clase a la que pertenece. Se basa en los mismos principios que los sistemas
expertos.
Clasificadores borrosos
Sea cual sea el procedimiento de clasificación utilizado, surge el problema de que algunos pixels resultan
inclasificables, bien porque sus probabilidades de pertenencia a cualquier clase sean muy bajas (máxima vero-
similitud, salidas de un método de redes neuronales, etc.) o porque aparezcan dos o más clases con muy alta
probabilidad que se disputen el pixel. En estos casos tiene más sentido no clasificar los pixels de forma unívoca
sino establecer cual es su posibilidad de pertenencia a cada una de las clases (el concepto de posibilidad no es
exactamente igual al de probabilidad).
10.7. VALIDACIÓN. ERROR DE CLASIFICACIÓN 217
Existen dos posibilidades, evaluar una estimación teórica del error en función de las características del algoritmo
de clasificación o analizar una serie de áreas test obtenidas del mismo modo que las áreas de entrenamiento. El
segundo modo de proceder permite obtener una estimación más realista de los errores mientras la muestra de
pixels para la estimación del error sea lo suficientemente grande y representativo.
Un método simple y apropiado de evaluaciones de los errores es utilizar la matriz de confusión de clases (tabla
??).
Con este tipo de análisis, se obtiene, no sólo una caracterización del error cometido, sino también una medida
sobre la adecuación de las clases consideradas a la realidad y de los parámetros utilizados para caracterizarlas.
Puede por tanto utilizarse para definir un nuevo conjunto de clases para realizar una clasificación.
En la tabla aparece un ejemplo de matriz de confusiones, los valores en filas representan las clases reales y
en columnas aparecen (en la parte izquierda de la tabla) las clases obtenidas tras la clasificación. Por tanto
debe interpretarse como el número de pixels que perteneciendo a la clase fila han sido adjudicados a la clase
columna.
En la parte derecha de la tabla aparece: Ni es el número total de pixels de cada clase, el porcentaje de pixels
clasificados correctamente para cada clase. (ni)ci es el número de pixels que correspondiendo a la clase y han
sido adjudicados a otras, y (nic)i es el número de pixels adjudicados a i cuando en realidad pertenecen a otra
clase. La última fila presenta la totalización de estos resultados.
10.8. Bibliografía
Parkinson,C.L. (1997) Earth from above. Using Color-Coded Satellite Images to Examine the Global
Environment, University Science Books, 175 pp. Sobrino,J.A. (2000) Teledetección Servicio de Publica-
ciones Universidad de Valencia, 467 pp.