Services on Demand
Journal
Article
Indicators
- Cited by SciELO
- Access statistics
Related links
- Cited by Google
- Similars in SciELO
- Similars in Google
Share
Revista Facultad Nacional de Agronomía Medellín
Print version ISSN 0304-2847
Rev. Fac. Nac. Agron. Medellín vol.58 no.1 Medellín Jan./June 2005
CLASIFICACIÓN NO SUPERVISADA DE COBERTURAS VEGETALES SOBRE IMÁGENES DIGITALES DE SENSORES REMOTOS: LANDSAT ETM+
NONSUPERVISED CLASSIFICATION OF VEGETABLE COVERS ON DIGITAL IMAGES OF REMOTE SENSORS: "LANDSAT ETM+"
Mauricio Arango Gutiérrez1; John William Branch Bedoya2 y Verónica Botero Fernández3
1 Instructor Asociado. Universidad Nacional de Colombia, Sede Medellín. Facultad de Minas. A. A. 1027. Medellín, Colombia. <marangog@unalmed.edu.co>
2 Profesor Asistente. Universidad Nacional de Colombia, Sede Medellín. Facultad de Minas. A. A. 1027. Medellín, Colombia. <jwbranch@unalmed.edu.co>
3 Profesora Asistente. Universidad Nacional de Colombia, Sede Medellín. Facultad de Minas. A. A. 1027. Medellín, Colombia. <vbotero@unalmed.edu.co>
Recibido: Mayo 10 de 2004; aceptado: Abril 26 de 2005.
RESUMEN
La diversidad de especies vegetales presentes en Colombia y la falta de inventario sobre ellas hace pensar en un proceso que facilite la labor de los investigadores en estas disciplinas. Los sensores remotos satelitales como el LANDSAT ETM+ y las técnicas de inteligencia artificial no supervisadas, como los Self-Organizing Maps - SOM, podrían proveer una alternativa viable para avanzar en la obtención rápida de información que corresponda a zonas con diferentes coberturas vegetales presentes en la geografía nacional. La zona propuesta para el caso en estudio fue clasificada de forma supervisada por el método de máxima similitud en otro trabajo de investigación en ciencias forestales y se discriminaron ocho tipos de coberturas vegetales. Esta información sirvió como patrón de medida para evaluar el desempeño de los clasificadores no supervisados ISODATA y SOM. Sin embargo, la información que proveen las imágenes debió ser depurada previamente de acuerdo a los criterios de uso y calidad de los datos de manera que se utilizara la información adecuada para estos métodos no supervisados. Para esto se recurrió a varios conceptos como las estadísticas de las imágenes, el comportamiento espectral de las comunidades vegetales, las características del sensor y la divergencia promedio que permitieron definir las mejores bandas y sus combinaciones. Sobre éstas se aplicó el concepto de análisis de componentes principales que permitió reducir el número de datos conservando un gran porcentaje de la información. Sobre estos datos depurados se aplicaron las técnicas no supervisadas modificando algunos parámetros que pudieran mostrar una mejor convergencia de los métodos. Los resultados obtenidos se compararon con la clasificación supervisada a través de matrices de confusión y se concluye que no hay una buena convergencia de los métodos de clasificación no supervisada con este proceso para el caso de las coberturas vegetales.
Palabras claves: SOM, ISODATA, LANDSAT, análisis de componentes principales, clasificación no supervisada, coberturas vegetales.
ABSTRACT
The plant species diversity in Colombia and the lack of inventories of them suggests the need for a process that facilitates the work of investigators in these disciplines. Remote satellite sensors such as LANDSAT ETM+ and non-supervised artificial intelligence techniques, such as self-organizing maps - SOM, could provide viable alternatives for advancing in the rapid obtaining of information related to zones with different vegetative covers in the national geography. The zone proposed for the study case was classified in a supervised form by the method of maximum likelihood by another investigation in forest sciences and eight types of vegetative covers were discriminated. This information served as a base line to evaluate the performance of the non-supervised sort keys ISODATA and SOM. However, the information that the images provided had to first be purified according to the criteria of use and data quality, so that adequate information for these non-supervised methods were used. For this, several concepts were used; such as, image statistics, spectral behavior of the vegetative communities, sensor characteristics and the average divergence that allowed to define the best bands and their combinations. Principal component analysis was applied to these to reduce to the number of data while conserving a large percentage of the information. The non-supervised techniques were applied to these purified data, modifying some parameters that could yield a better convergence of the methods. The results obtained were compared with the supervised classification via confusion matrices and it was concluded that there was not a good convergence of non-supervised classification methods with this process for the case of vegetative covers.
Key words: SOM, ISODATA, LANDSAT, principal component analysis, non-supervised classification, vegetative covers.
INTRODUCCIÓN
REVISIÓN DE LA LITERATURA
CORRECCIÓN DE LA IMAGEN DIGITAL SATELITAL
MÉTODOS PARA SELECCIÓN DE DATOS
CLASIFICACIÓN DIGITAL
CASO ESTUDIO
CONCLUSIONES
TRABAJO FUTURO
BIBLIOGRAFÍA
La clasificación es una forma de aprendizaje, un proceso que acumula y concentra experiencias dentro de modificaciones internas de un sistema; no razona para deducir un resultado o tomar decisiones. Por lo tanto, la clasificación se limita a agrupar conjuntos de objetos en clases a través del uso de técnicas de inteligencia artificial o estadísticas, principalmente en aquella del tipo digital.
Ésta es posible hacerla de dos maneras, con orientación de un experto en el tema a clasificar o sin esa orientación. La primera es un proceso más del reconocimiento y la segunda aprovecha las características de la imagen para definir las agrupaciones con valores similares. Además, ésta puede variar de un tema a otro y es allí donde se deben definir algunos criterios que permitan generalizar el uso de este proceso. Todo esto plantea la necesidad de investigar sobre el diseño de un proceso de segmentación no-supervisada en imágenes digitales que exploten todas las posibilidades de tratamiento dentro de un tema particularmente complejo como es el caso de la definición de coberturas vegetales en regiones con una alta diversidad como la colombiana.
Para orientar esta investigación se escogieron las imágenes digitales del sensor remoto satelital LANDSAT ETM+, buscando responder a varios interrogantes como:
- Determinar el proceso de combinación de las diferentes imágenes que contiene una escena LANDSAT ETM+, para obtener la mejor diferenciación espectral respecto al contenido de la información a evaluar.
- Proponer un método de segmentación no supervisada para este tipo de imágenes digitales.
- Validar el método propuesto para coberturas vegetales sobre dichas imágenes de sensores remotos.
Se busca categorizar segmentos de Imágenes Digitales Multiespectrales Satelitales IDMS del tipo LANDSAT ETM+ de manera eficiente, confiable y sin conocimiento experto en ella, tomando como punto inicial un caso estudio con ciertos tipos de coberturas.
El desarrollo de estos métodos permite potenciar la investigación hacia nuevas técnicas computacionales que sólo hasta hace algunos años se vienen desarrollando en el país en otras áreas pero que tienen actualmente un gran interés para el reconocimiento de patrones en IDMS.
El tener un modelo de clasificación no supervisada eficaz, permite a las entidades relacionadas con los recursos naturales, lograr un mejor planeamiento del recurso humano y técnico para la verificación en campo de la clasificación que se obtenga de una zona específica. Lo que redundará en una mayor eficiencia en el momento de determinar los usos del suelo, en función de la vegetación y a gran escala en el territorio nacional. Además, la aplicación temporal de este modelo permitiría conocer fácilmente como evolucionan las coberturas vegetales ante eventos climáticos o acciones del hombre. Esto permite una adecuada administración de los recursos como también el inventario de la oferta de oxígeno que proviene de las coberturas de bosques, tema de gran importancia mundial.
La organización de este documento en la sección dos contextualiza el problema dentro de las diferentes disciplinas y técnicas.
La sección tres trata sobre las correcciones que se hace a las imágenes digitales. Allí se revisa que los segmentos a probar no necesiten ser sometidos a algún tipo de corrección que altere los Niveles Digitales - ND originales de la imagen. Como se trabajará en segmentación no-supervisada no será necesario hacer realce o mejoras de la imagen para efectos de visualización. Pero si se deberá hacer una aproximación en la conversión de ND a reflectividades para cada banda.
La sección cuatro define dos criterios de selección de información que será el insumo para la fase siguiente. Una parte se refiere a la información que la literatura recomienda para combinar bandas orientadas a la clasificación de coberturas vegetales y la otra se refiere a la reducción de los datos sin pérdida de información. Este concepto cobra mucha importancia en la clasificación digital, pero en especial en el método de inteligencia artificial ya que éste recomienda una entrada de datos pequeña para evitar redundancias y procesos de análisis lentos.
La segunda parte de esta sección se refiere al Análisis de Componentes Principales que resume el conjunto de las bandas espectrales en un conjunto más pequeño sin perder una parte significativa de la información original. Lo que se busca es sintetizar las bandas originales y crear nuevas bandas que recojan la mayor parte de la información original. Este modelo deberá generar imágenes que, por su diferenciación espectral, garantice un proceso de segmentación confiable.
En la sección cinco se describen dos métodos de clasificación no supervisada. Uno de ellos es una técnica ampliamente conocida y el otro no ha sido tan estudiado en estos casos. Este último se fundamenta en tres parámetros: variables que intervienen en el análisis, criterio para medir la similitud o distancia entre casos y criterio para agrupar los casos similares. La teoría define algunos métodos con base en estos parámetros, los cuales se han orientado al uso de redes neuronales. Éstos no han sido probados con este tipo de imágenes y deberán ser definidos según los resultados arrojados por las imágenes generadas en el proceso de diferenciación espectral desarrollado en etapas anteriores. Este último aspecto hace al modelo diferente de otros ya que las variables involucradas provienen de múltiples imágenes.
Finalmente, la sección seis cierra este estudio a través de la validación de la hipótesis propuesta donde se aplicarán los algoritmos de clasificación existentes sobre las imágenes escogidas y sus resultados se compararán con una clasificación supervisada.
En la sección siete se analizan los resultados, se concluye y se define el trabajo futuro.
Antes de abordar esta lectura es conveniente revisar algún material introductorio al sensado remoto del cual hay gran disponibilidad en Internet, pero una página interesante es http://www.ccrs.ncan.gc.ca. También son muy cercanos en conceptos a este trabajo los de (Todt, 1998 y Avendaño, 1999). Otra recomendación es revisar la literatura sobre componentes principales y técnicas de inteligencia artificial.
Las fuentes de datos para la clasificación digital de imágenes son diversas pero entre ellas se destacan las imágenes satelitales de la serie Landsat (National Aeronautics and Space Administration NASA, 1998), cuyos objetivos han sido cartografiar y evaluar los recursos naturales. El último satélite de esa serie es el LANDSAT ETM+ con ocho bandas lo cual reviste especial importancia debido a que una de las limitantes para el funcionamiento eficiente de un clasificador no supervisado es la presencia de una baja diferenciación espectral entre clases, aunque por otro lado aumenta la complejidad de los datos.
El sistema de captura de una imagen en estos sistemas optico-electrónicos, consiste en un sensor que explora la superficie terrestre adquiriendo la radiación emitida y reflejada de los objetos situados sobre ella. Esta energía que capta el sensor está definida por el valor numérico o Nivel Digital - ND, que codifica digitalmente esta radiancia, para una parcela de terreno y en una banda específica, en 8 bits (0 a 255) para el caso de las imágenes LANDSAT. La colección de todos estos datos se constituye en un arreglo matricial (Figura 1) que tiene una unidad mínima de observación (parcela) denominada píxel (Picture Element de su sigla en inglés) con un número entero (ND) que puede convertirse en una intensidad luminosa o nivel de gris y con una localización espacial.
Figura 1. Organización de datos de ocho bandas espectrales sobre una misma escena
Lo primero a considerar en este proceso de generación de información son las transformaciones en los NDs originales que permiten una mejor disposición para generar información de muchos tipos; en otras palabras, se genera nueva información a partir de las bandas espectrales disponibles. Las más usuales son: conversión de ND a valores físicos de reflectividad y temperatura, transformaciones multibandas como índices de vegetación y otros cocientes, componentes principales, Tasseled Cap y análisis lineal de mezclas espectrales (Chuvieco, 2000).
En nuestro medio no se ha desarrollado una solución computacional a este problema pero en investigaciones internacionales ya se han logrado avances al implementar nuevas técnicas que permiten manipular estos datos que son de tendencias no lineales, tales como las Redes Neuronales Artificiales (Solaiman, Mouchot y Maillard, 1994b), lógica difusa (Duda; Canty y Klaus, 1999) y técnicas híbridas (Solaiman y Mouchot, 1994a; 1995ª; Ruppert et al., 1997; Sergi; Solaiman y Mouchot, 1995; Velickov et al, 2000; Nissinen; Hyötyniemi y Koivo, 1999 y Santos, 2003). Sin embargo, estos modelos se diferencian por el tipo de imágenes digitales sobre las que han operado y porque su interés no se ha centrado en las coberturas vegetales probando técnicas combinadas, aunque los fundamentos teóricos básicos son similares a las condiciones de este problema.
Esta problemática plantea una primera dificultad a resolver que es encontrar cuales bandas son importantes para el reconocimiento de clases espectrales (Nissinen; Hyötyniemi y Koivo, 1999) antes de abordar el problema de clasificación. Lo primero es definir cuales son las condiciones espectrales de la imagen que le permitan ser clasificada por un algoritmo no supervisado orientado a coberturas vegetales. Es así como en esta etapa se busca realizar una corrección de los datos a fin de disminuir la componente de ruido atmosférico inherente a las imágenes digitales de sensores remotos y mostrar las consideraciones que para ello se hacen.
Ahora, se define la clasificación no-supervisada CNS como un proceso de agrupación de pixeles con valores digitales similares para todas las bandas y cada una de estas agrupaciones son llamadas clases espectrales, las cuales se supone corresponden a un tipo de cubierta de terreno. Los métodos usados para desarrollar esta clasificación son del tipo agrupamiento (del inglés clustering), aunque recientemente se ha trabajado con los modelos neuronales.
La aplicación de esta clasificación opera como una búsqueda automática de grupos de valores homogéneos dentro de las imágenes, pero pueden ocurrir varias posibilidades: que una categoría esté expresada en varias clases espectrales, que dos o más categorías compartan una sola clase espectral, que varias categorías compartan clases espectrales y la ideal, que haya una correspondencia biunívoca entre las clases espectrales y las categorías. Esto será la base para el agrupamiento.
El agrupamiento (Clustering) es una técnica de clasificación en que la imagen es segmentada en clases desconocidas que posteriormente serán etiquetadas. Ésta se emplea en diversos métodos, como por ejemplo: K-medias, C-medias e ISODATA (Interactive Self-Organizing Data Analysis Technique (Algorithm)) (Richards, 1995).
En la CNS de imágenes multiespectrales uno de los algoritmos que resulta adecuado para delimitar los valores homogéneos dentro de la imagen ha sido el ISODATA (Datos auto-asociados iteractivamente) (Duda y Hart, 1973) el cual calcula los promedios de las clases o agrupaciones que eventualmente están distribuidos en el espacio de decisión. En cada una de las iteracciones re-calcula los promedios y re-clasifica los pixeles de la imagen con respecto a los nuevos promedios. Este proceso continúa hasta que el cambio del número de pixeles en cada clase (cluster) es mínimo respecto a un valor de tolerancia o hasta que se realiza cierto número de iteracciones predefinidas. Sin embargo, es muy artificioso señalar parámetros de control significativos sino se conocen los grupos espectrales ni el valor idóneo de dispersión o distancia entre grupos; es decir, el usuario es quien define el número de categorías que cree se pueden obtener cuando éste no tiene conocimiento de lo que estará presente en la imagen. Otra dificultad es el gran volumen de cálculo que precisa, donde a partir de la quinta iteracción los cálculos son mayores que para la clasificación de máxima verosimilitud (clasificación supervisada) (Richards, 1993).
La principal ventaja que ofrecen los métodos no supervisados es que la intervención humana se centra en la interpretación más que en la consecución de los resultados. Lo que buscan estos métodos es definir los grupos o categorías que intervendrán en lo que sí podría llamarse clasificación (Chuvieco, 2000), también podría decirse que son exploratorios (Mather, 1989) ya que buscan reducir las clases espectrales presentes en la imagen.
En el caso particular de la clasificación de coberturas vegetales, muchos especialistas han optado por trabajar bajo las técnicas supervisadas, ya que los algoritmos de clasificación no-supervisada se orientan a definir propiamente los grupos que intervendrán en la clasificación (Chuvieco, 2000). El ISODATA es el algoritmo más adecuado para delimitar los grupos de valores homogéneos dentro de la imagen (Rebollo y Orti, 1980). Sin embargo, es artificioso señalar unos parámetros de control significativos, puesto que el usuario no conoce, inicialmente, el número de grupos espectrales presentes en la imagen, ni el valor idóneo de dispersión interna o distancia entre grupos. De esta forma, el análisis no supervisado se convierte en un proceso interactivo, en donde el usuario establece unos valores arbitrarios que se van modificando a la luz de los resultados.
Éstas razones han llevado a algunos investigadores a desarrollar otras técnicas que definan un modelo que permita segmentar imágenes multiespectrales satelitales de manera eficiente, confiable y sin conocimiento experto. Algunos trabajos han recurrido a la lógica difusa (Duda; Canty y Klaus, 1999) que aunque obtiene mejores resultados que con los métodos C-medias y C-medias-Difuso plantea definir el número de agrupamientos. Se destacan otros trabajos en técnicas híbridas donde se combinan algoritmos de aprendizaje no-supervisado (SOFM) y supervisado (LVQ2) (Solaiman, Mouchot y Maillard, 1994b) que posteriormente se comparó con SOFM y con el Perceptrón Multicapa usando Componentes Principales como entrada de datos pero sin ninguna finalidad específica de tipos de coberturas (Sergi; Solaiman y Mouchot, 1995). También se comparó con el clasificador Bayesiano de Máxima Similitud del tipo supervisado y se concluyó que se llegaba a soluciones equivalentes (Solaiman, Mouchot y Koffi, 1995a). Este análisis se aplicó sobre 5 bandas espectrales de imágenes LANDSAT 5, pero no analizaron los Componentes Principales. Siguiendo con esta línea, se propuso la segmentación de imágenes LANDSAT 5 usando RNA y sistemas expertos, los resultados fueron buenos en términos de preservación de bordes de coberturas (Solaiman et al., 1995b).
En el contexto latinoamericano existen dos trabajos que ayudaron a motivar el actual: (Avendaño, 1999 y Todt, 1998). El primero hace una comparación para el reconocimiento de patrones en imágenes multiespectrales entre modelos supervisados paramétricos (máxima similitud) y neuronal (Retropropagación) y no supervisados paramétricos (ISODATA) y neuronal (Kohonen et al., 1996 a). En este trabajo se llega a resultados que resaltan las bondades de los modelos neuronales en la clasificación supervisada más no en la CNS debido a que en este último se presenta que el número de clases a clasificar está en función del tamaño del mapa de la red. El segundo hace una evaluación del desempeño de clasificadores neuronales de forma similar al anterior pero en la CNS se usa como parámetro el Histograma Tridimensional. Una de las conclusiones es que si las bandas utilizadas son debidamente seleccionadas a través de un método estadístico el desempeño del clasificador neuronal puede contribuir a una mejor ocurrencia de clases.
En el contexto nacional el desarrollo de la teledetección ha sido exclusivo de los expertos en las áreas temáticas; es decir, geógrafos, geólogos, ingenieros, agrónomos, entre otros. Éstos se han orientado a la generación de productos con base en los algoritmos que ofrecen las plataformas de software para teledetección, que sumada la experiencia al uso de estas herramientas, se han aplicado las técnicas de clasificación supervisada para la solución de este tipo de problemas.
El Instituto Geográfico Agustín Codazzi genera algunas publicaciones indicando sus desarrollos en este campo. Sin embargo, se ha relegado el uso de los métodos de clasificación no supervisada a aquellos casos en donde la diferencia espectral en los elementos contenidos en las imágenes es muy marcada. En muchos casos no se usa ni como proceso exploratorio para definir las clases espectrales en que posiblemente se pueda segmentar una clasificación supervisada y esto se debe a la insatisfacción del usuario del software por las respuestas que arrojan los algoritmos disponibles, lo que hace que se pierda gran parte del potencial de información que provee una imagen digital como la LANDSAT ETM+.
Lo mismo ha sucedido con las entidades encargadas del manejo de los recursos naturales como las Corporaciones Autónomas. Éstas han desarrollado excelentes trabajos en fotografías aéreas pero la escala regional, que ofrecen las imágenes satelitales, ha sido poco explorada y menos aún con la clasificación no supervisada.
Lo definido anteriormente implica diseñar un modelo analítico que discrimine mejor las coberturas vegetales, genere las imágenes que tengan una mayor información espectral y reduzca los datos conservando la mayor cantidad de información. Estos parámetros anteriores servirán para diseñar el accionar de la técnica de redes neuronales implementada, Mapas de Kohonen et al (1996 a), como una técnica de inteligencia artificial aplicada a la clasificación de imágenes de sensores remotos. Finalmente, se hace una validación del modelo, teniendo en cuenta tanto las técnicas usadas frecuentemente como la descrita en este trabajo, contra una clasificación supervisada producto de un trabajo de campo muy detallado.
CORRECCIÓN DE LA IMAGEN DIGITAL SATELITAL
Se pueden hacer diferentes tipos de corrección sobre una imagen de sensor remoto pero debe tenerse especial cuidado ya que estos afectan los procesos posteriores que se desean realizar. Por esta razón, es importante mostrar el grado de abstracción y análisis que se hace antes de someterla a la clasificación. Se describe la estructura de la imagen y las posibles fuentes de error con el fin de aclarar sobre cuales se puede operar sin alterar de forma negativa los procesos siguientes.
El funcionamiento de los sensores satelitales se hace por exploración secuencial de la superficie terrestre adquiriendo la radiación de los objetos que estén consignados en un área que depende de la resolución espacial del sensor. Esta área constituye la unidad mínima de información en la imagen denominada píxel (picture element) y la unión de estos cuadros es la que forma una imagen (Figura 2) donde los valores numéricos definen el valor de radiancia que se puede representar mediante tonos o niveles de gris de cada píxel.
Figura 2. Pixeles de una imagen digital ampliada y sus valores de radiancia.
El nivel de gris que toma cada píxel se define por un valor numérico que algunos autores definen como Nivel Digital (ND) (Chuvieco, 2000), que codifica digitalmente la radiancia detectada por el sensor para un área del terreno y en una banda espectral. El ND es un valor numérico, no visual, que puede traducirse a una intensidad visual o nivel de gris mediante un convertidor digital-analógico (monitor).
A partir de lo anterior, la imagen digital puede esquematizarse como una matriz numérica en tres dimensiones donde X y Y corresponden a las coordenadas geográficas, Z a la dimensión espectral (Figura 1) y el origen se sitúa frecuentemente en la esquina superior izquierda. Esto último se debe a la secuencia de adquisición de imágenes que es de Norte-Sur de acuerdo con la traza del satélite y el número de bandas depende de la resolución espectral del sensor satelital.
Con base en este carácter matricial de la imagen numérica es que se aplican transformaciones y cálculos sobre las imágenes tales como sintetizar varias bandas reduciendo la información redundante a través de componentes principales o discriminar grupos de ND homogéneos dentro de la matriz como se plantean posteriormente.
Por otro lado, las imágenes de sensores remotos presentan unas alteraciones radiométricas y geométricas que hacen que éstas no coincidan con el tono, posición, forma y tamaño de los objetos que incluye. En el caso de las imágenes satelitales las deformaciones se pueden agrupar en cuatro tipos (Mather, 1989):
- Distorsiones originadas por la plataforma.
- Distorsiones provocadas por la rotación terrestre.
- Distorsiones provocadas por el sensor.
- Distorsiones provocadas por la atmósfera.
Algunos de estos problemas se solucionan en el centro de recepción de las imágenes y otros se solucionan con correcciones radiométricas o geométricas. Pero en general, éstas correcciones modifican los niveles digitales y no se harán con el fin de disminuir el tiempo de tratamiento y abordar el trabajo con los valores originales.
Ahora, considerando que la reflectividad es la relación entre la energía reflejada y la incidente, tenemos que la primera se obtiene de los datos medidos por el sensor ya que éste mide radiancia espectral que es consecuencia de la reflexión de la radiación electromagnética en las cubiertas, más la influencia de la atmósfera. Para hacer un cálculo preciso de la reflectividad real de la cubierta se deben considerar muchos factores (Chuvieco, 2000) y resolverlos resulta muy laborioso y requiere datos sobre las condiciones de la atmósfera en el momento de toma de la imagen, los cuales no suelen estar disponibles. Además, estos efectos varían de una zona a otra dentro de la imagen. Por lo tanto, las correcciones atmosféricas se han abordado de varias formas:
- Asumir ciertas condiciones atmosféricas estándar que corresponde a una determinada composición de vapor de agua, anhídrido carbónico, oxígeno, ozono y aerosoles, en función de temperatura y humedad relativa del día de la toma.
- Otro método es el de homogeneizar los NDs entre imágenes multitemporales de la misma zona.
- Apoyarse en los datos de la propia escena obteniendo a partir de las diferentes bandas una estimación del efecto atmosférico. Entre estos métodos se destaca el de corrección del histograma por valores mínimos (Campbell, 1987) donde se asume que las áreas cubiertas con materiales de fuerte absortividad (agua, zonas en sombra) deberían presentar una radiancia espectral muy próxima a cero. Por lo tanto, una sencilla aproximación a la corrección atmosférica consiste en restar a todos los ND's de cada banda el mínimo de esa misma banda, situando el origen del histograma en cero.
El último método del numeral anterior es el más sencillo y el que mejor se adapta a las características de las imágenes LANDSAT. En este caso el método de corrección atmosférica se basa en las características de la banda del infrarrojo cercano (banda 4 del sensor LANDSAT ETM+) que se aplica sobre las bandas afectadas por el efecto atmosférico como son las del visible (azul, verde y rojo).
Una de las formas que permiten explotar estas posibilidades es el operar sobre una banda del visible usando un ploteo de puntos (scatter-plot) de referencia con la banda 4 y así obtener el valor a restar de cada banda para corregir las bandas del visible ubicando el origen de los histogramas en cero.
MÉTODOS PARA SELECCIÓN DE DATOS
La determinación de los mejores datos a la entrada de procesos de clasificación es un paso importante en el diseño de un problema particular, como el de la clasificación de coberturas vegetales.
En el caso específico de la vegetación se hacen consideraciones basadas en las características propias del sensor (NASA, 1998), pero de esto es importante recordar que la banda 6 tiene una resolución espacial de 60 m y la pancromática de 15 m, contra 30 m que tienen las otras; por lo tanto, la inclusión de estas dos bandas no se consideran en el alcance del presente trabajo ya que involucraría un trabajo a nivel del subpíxel para convertirlas a la escala de las otras.
Otro aspecto a considerar es el comportamiento espectral de la vegetación. Éste debe entenderse desde el conocimiento de la estructura interna de la hoja individual (Todt, 1998) que junto con los cloroplastos y la cantidad de agua presente varían la reflectancia (R), absorción (A) y transmisión (T) de energía incidente (I) proveniente de los rayos solares. Las longitudes de onda del rojo (Rj) y azul (A) son absorbidas para la fotosíntesis y las del verde (V) e infrarrojo cercano (IC) son reflejadas (Figura 3).
Figura 3. Efecto de las longitudes de onda sobre la vegetación. (Canada Centre for Remote Sensing - CCRS, 2001).
Es posible observar (Figura 4) que el comportamiento espectral varía de acuerdo con la longitud de onda que registra la hoja al ser iluminada por los rayos solares. En general las hojas poseen alta absorción en las regiones del ultravioleta (0,01-0,39 μm), azul (0,43-0,5 μm), rojo (0,6-0,76 μm) e infrarrojo medio (1,35-2,6 μm). Aquí la mayor parte de la energía incidente es absorbida para efectos de la pigmentación y la respuesta espectral depende tanto de la cantidad del pigmento como del tipo.
Figura 4. Comportamiento espectral de una hoja en los vegetales.
En las regiones del verde (0,5-0,6 μm) y el infrarrojo cercano (0,76-1,35 μm) se concentra aproximadamente el 90 % de la reflectancia. Aquí los pigmentos se tornan altamente trasparentes a la radiación; por lo tanto, de la energía que incide en la hoja el 45-50 % es transmitida, el 45-50 % reflejada y el 5 % absorbida (Todt, 1998).
Para la selección de bandas se ofrecen algunos métodos tales como la Distancia de Battacharyya, Divergencia y distancia de Jeffries-Matusita pero éstos requieren de un muestreo que va asociado a una clasificación supervisada que se sale del objetivo principal de este trabajo. En este caso se utiliza el concepto de Divergencia Transformada Promedio para definir las bandas óptimas. Ésta es una medida de la diferencia entre dos señales de clases. Se calcula con las medias de las clases y las matrices de covarianza; y se extiende a todas las clases aplicando una regla de decisión sobre todos los pares de clases de señales. Lo que muestra es la separabilidad entre clases presentes en las bandas evaluando sus estadísticas. Esto permite evaluar que combinaciones de bandas pueden discriminar mejor las clases presentes en ellas que unido a las características del sensor y el objeto de esta investigación, deben dar relevancia a las combinaciones que contengan las bandas 1, 2, 3, 4 y 5.
En las redes neuronales es especialmente crítico hacer una buena selección de los datos ya que un gran número de entradas reduce la capacidad de generalización de la red y un número pequeño podría ser insuficiente para el aprendizaje ya que el número de bandas de entrada define la complejidad de la red (Kavzoglu, 2002).
Algunas variables son ponderables de modo directo y corresponden a las adquiridas por el sensor, tales como reflectividad y temperatura, entre otras. También es posible generar información de otras variables de modo indirecto en donde se asuma una relación teórica entre el parámetro a estimar y lo que mide el sensor. A partir de este concepto surgen los diferentes tipos de modelos: los inductivos o empíricos y los deductivos o teóricos.
Los inductivos son los que establecen una relación numérica entre el parámetro a estimar y los NDs de la imagen, a partir de observaciones in situ, tomadas en el momento de adquirir ésta. Su inconveniente viene dado por el carácter local de la aplicación que no permite extrapolar estas funciones a otras zonas.
Los deductivos o teóricos tratan de establecer un modelo de validez general, independiente de las condiciones de observación. Parten de demostrar la relación entre el parámetro a estimar y las variables contenidas en la imagen. Tiene como ventaja que no requiere información de campo simultánea a la adquisición, que sólo estará disponible cuando se haya planificado previamente un experimento con ese objetivo. Entre estos se encuentran algunos de transformaciones multibanda como: índices de vegetación, componentes principales y Tasseled Cap, entre otros.
También es evidente que no siempre una banda espectral contiene una única información sobre una zona, de hecho los valores de los pixeles están altamente correlacionados entre canales. Por lo tanto, una aproximación más eficiente es emplear una estrategia de reducción de datos antes de la clasificación ya que la parte más crítica en dicho proceso es que el tiempo de computación y análisis se incrementa exponencialmente con el número de bandas o canales.
Entre los métodos propuestos en la literatura el ACP ha sido ampliamente aceptado para el análisis de datos multivariados. Tradicionalmente ha sido empleado para mejoramiento de imágenes y reducción de canales pero efectivamente usados en estudios multitemporales de detección de cambios (Piwowar y Ellsworth, 1995).
Según González y Woods (1992), el ACP comprende un procedimiento matemático que transforma un conjunto de variables correlacionadas de respuesta en un conjunto menor de variables no correlacionadas llamadas componentes principales.
Estos conceptos de base del ACP han tenido un impacto especial en el estudio de las imágenes de sensores remotos ya que la adquisición de imágenes sobre bandas adyacentes del espectro hace suponer información redundante, puesto que un área observada tiende a mostrar un comportamiento similar en regiones próximas del espectro. Por esta razón una medida en una banda puede tener una fuerte correlación con las deducidas de otra y así el ACP tiene sentido porque convertiría un conjunto de variables correlacionadas en uno de variables no correlacionadas reduciendo, no eliminando, el número de variables respuesta medida y por ende la dimensionalidad real.
Algunos autores sugieren que el ACP involucra transformación de características y obtiene un conjunto de rasgos transformados más que un subconjunto de características originales (Mitra; Murthy y Pal, 2002). Lo que debe merecer un estudio posterior a la luz de la propuesta planteada por ellos.
Se recomienda la aplicación de este método en casos donde: Todas las variables estén en las mismas unidades o unidades comparables y que tengan varianzas con tamaños muy semejantes. Éste es el caso de las imágenes satelitales correspondientes a una misma escena.
En el método de clasificación no supervisado o modo autorganizado de clasificación, un sistema desempeña ambos procesos de entrenamiento y operación sobre cualquier vector distintivo de entrada. Los vectores alimentan al sistema en una frecuencia y cada vez que un vector distintivo de entrada no es mapeado con un identificador de una clase ya aprendida, el sistema establece una nueva clase con un identificador para esa clase y ajusta esos parámetros al mapa del vector distintivo dentro de ese identificador. Esto se puede hacer en procesos tales como algoritmo ISODATA, K-medias o Kohonen, entre otros.
En el entrenamiento supervisado o no supervisado el sistema determina uno o más vectores prototipo, arquetipo, patrón, representativo o central, entre otros, como modelo(s) idealizados para cada clase. Después de entrenado, el sistema está listo para operación pero se deben hacer algunas pruebas para verificar el entrenamiento. En el modo operativo, cada vector de entrada es comparado con algunas medidas de semejanza con un(os) vector(es) de ejemplo para cada clase y se toma una decisión de acuerdo con la mayor similitud (o diferencia) entre el vector de entrada y el(los) ejemplo(s).
Uno de los tipos de agrupación más frecuentemente usados y estudiados en la clasificación no supervisada es el ISODATA, que será comparado con Mapas de Kohonen en la solución del problema planteado en este trabajo.
Según Looney (1997) el Interactive Self-Organizing Data Analysis Technique (Algorithm) es como el K-medias, excepto porque el primero incorpora algunas aproximaciones heurísticas como definir el número de agrupaciones existentes. Una de las dificultades de este método es que no es tan autorganizado ya que se deben definir parámetros basados en la experiencia como número de agrupaciones deseadas, número mínimo de vectores distintivos, mezclador inicial (lumping threshold), desviación estándar y número máximo de pares de agrupaciones.
La red Kohonen también es llamada Self-Organizing Map SOM, es una red que corresponde a uno de los tantos modelos de Redes Neuronales Artificiales RNA que se han desarrollado desde el modelo de McCulloch-Pitts en 1943 que fue el primer acercamiento para inventar un dispositivo neuronal sintético.
El SOM representa el resultado de un algoritmo de cuantificación de vector que ubica un número de vectores de referencia o códigos en un espacio de datos de entrada altamente dimensionado para aproximar a esos conjuntos de datos en una forma ordenada. Cuando las relaciones de orden local están definidas entre los vectores de referencia, los valores relativos del último dependen el uno del otro así como sus valores de vecindad deberían atarse a lo largo de una superficie elástica. Por medio del SOM esta superficie llega a ser definida como una clase de regresión no lineal de los vectores de referencia a través de los puntos de los datos.
Una aplicación típica de los SOM está en el análisis de datos vectoriales experimentales complejos donde los elementos de los datos frecuentemente están relacionados los unos a los otros en una forma altamente no lineal (Kohonen, 1996).
Según Kohonen (1996), el proceso en el cual está formado el SOM es un proceso de aprendizaje no supervisado. Como cualquier método de clasificación no supervisado puede ser usado para encontrar agrupaciones de datos de entrada e identificar vectores de datos desconocidos con una de las agrupaciones. Por otro lado, si los datos son conocidos previamente, se puede hacer de forma óptima la alineación de un número finito de clases en un vector de datos desconocido por medio del algoritmo de aprendizaje supervisado LVQ, el cual no se desarrolla en este documento.
Aunque es posible obtener algunas clases de mapas sin tener en cuenta algunas precauciones, es importante poner atención a algunos aspectos con el fin de que los mapas resultantes sean estables, bien orientados y menos ambiguos (Kohonen, 1996), así: Forma del arreglo, Aprendizaje con un pequeño número de muestras de entrenamiento disponibles, Mejoramiento de casos raros, Calidad de aprendizaje, Componentes de vectores de entrada perdidos, Escalado de componentes y Representaciones forzadas para un lugar buscado en el mapa. Los elementos anteriores se consideraron al momento de adaptar los algoritmos de clasificación para el caso estudio.
La región sobre la cual se desea hacer un análisis de los algoritmos anteriormente descritos corresponde a la zona urbana y alrededores del Municipio de Sonsón del Departamento de Antioquia Colombia (Figura 5). Esta es un segmento de una escena LANDSAT 7 ETM+ (composición bandas 453) con una extensión de 2.25 Km2 (500*500 pixeles).
Figura 5. Localización área de estudio (Sonsón, Antioquia-Colombia).
Se escogió esta zona de una clasificación supervisada mayor por tener ésta un control de campo más exhaustivo (Figura 6). El resultado obtenido por Uribe (2002) indica una representación muy ajustada a lo que efectivamente se tendría en el terreno, lo que permitiría una muestra adecuada en contenido de píxeles y clases. El método usado por él fue máxima verosimilitud y define 14 clases de coberturas presentes en la zona de estudio con una frecuencia en los rangos de datos muy fluctuante. Se puede observar un alto predominio de los tipos de bosques y cultivos.
Figura 6. Clasificación supervisada de la zona de prueba (Uribe, 2002).
Siguiendo con la metodología descrita anteriormente se le aplicó a la escena corrección atmosférica, selección de datos, clasificación digital y análisis.
La reducción del ruido atmosférico busca acercar los valores de Niveles Digitales a Reflectividades. Este proceso hace una gran abstracción sobre los elementos que afectan los valores sensados debido a la dificultad que representa tener control sobre todas esas variables. Es una propuesta aceptada en la literatura ya que utiliza una característica importante del sensor. En estas regiones tropicales y montañosas en la mayoría de los casos es posible encontrar zonas de cero reflectividad como las sombras de nubes o montañas y éstas se presentan claramente en banda del infrarrojo cercano. Si se compara esta banda, a través de un ploteo de puntos, con cada una de las bandas del visible (azul, verde y rojo) es posible trasladar el origen de los valores del histograma y corregir los datos de estas bandas.
En la escogencia de las bandas se tuvo en cuenta que las del infrarrojo térmico y pancromático presentan escalas diferentes en los datos lo que requeriría un proceso adicional de tratamiento de los datos para poderlos usar en este contexto; por lo tanto, no se tienen en cuenta. La banda del infrarrojo medio lejano se orienta a la discriminación de formaciones rocosas y alteraciones hidrotermales, por lo que tampoco se tuvo en cuenta para la selección. Las bandas 2, 3, 4 y 5 fueron diseñadas para el monitoreo de coberturas vegetales y la clasificación supervisada presenta 8 clases de éstas. Pero teniendo en cuenta que la desviación estándar, la varianza y el rango son muy bajos en las bandas 1 y 2, entonces se aplica el concepto de la Divergencia Transformada Promedio para diferenciar 14 clases tomando sólo aquellas combinaciones que contengan las bandas 3, 4 y 5 (rojo, infrarrojo cercano y medio), así: 123456, 12345, 2345, 345, 23456, 13456, 1345 y 3456.
Ahora, se aplica el concepto de ACP sobre esas combinaciones de bandas y se toman los componentes principales 1 y 2 de cada combinación ya que estos contienen más del 95 % de la información total, para un total de 16 imágenes.
Se propuso el método para clasificación no supervisada de Mapas de Kohonen o Self Organizing Maps SOM y se comparó con ISODATA.
- Interactive Self-Organizing Data Analysis Technique (Algorithm) ISODATA es uno de los algoritmos de clasificación no supervisada más utilizados y mencionados en la literatura sobre análisis de imágenes y por eso se compara con el SOM que no lleva gran trayectoria en este campo aún. También por esta razón, es posible obtener muchos software comerciales con esta aplicación ya implementada por lo cual se uso el Image Analyst® para obtener los resultados.
- La implementación del SOM se desarrolló en JAVA sobre la estructura del HidroSIG® que es un software que integra aplicaciones de Sistemas de Información Geográficos SIG y sensores remotos. La estructura de este algoritmo se hizo con base en algunos algoritmos disponibles en la literatura entre los que está el SOM_PACK® revisado por Kohonen (1996).
- Ambos métodos se aplicaron sobre los resultados del proceso de selección de datos previo (Componentes Principales) y sus resultados fueron comparados contra la clasificación supervisada a través del software ArcView®, donde se pueden obtener las matrices de confusión entre dos imágenes.
Los parámetros de los algoritmos de clasificación ISODATA y SOM aplicados a las imágenes fueron:
- ISODATA:
- Vectores de entrada: las imágenes.
- Número de agrupaciones: 12, no varía.
- Número de agrupaciones: 15, referente a la clasificación supervisada. Estas agrupaciones no se excederán a menos que las agrupaciones contengan menos que el mínimo número de pixeles o si muchas agrupaciones son agrupadas.
- Máxima desviación estándar: 3. Éste es un umbral que define la posibilidad de división así, si la desviación estándar de la banda es superior a este valor la agrupación es candidata para dividirse. No varía en las pruebas.
- Mínima distancia para combinar conglomerados: 20. Corresponde a la mínima distancia para combinar pares. Si la distancia entre las medias de las agrupaciones es menor que este valor entonces se agrupan. Además, se selecciona la Distancia Euclidiana basada en el Teorema de Pitágoras aplicado a la distancia entre pixeles. No varía en las pruebas.
- El número mínimo de pixeles: 25. Corresponde al número mínimo de pixeles que puede contener una agrupación. Se utilizarán valores de 25 y 50 para las pruebas con el fin de mejorar el proceso de agrupación.
- El máximo número de pares de agrupaciones: 10. Corresponde al máximo número que puede ser combinado en una iteracción. No varía en las pruebas.
- Método de agrupación: Máxima probabilidad con un umbral de probabilidad del 95 %. No varía en las pruebas.
- Máximo número de iteracciones: 1000. Corresponde al número de veces que se repite el algoritmo de entrenamiento. Varía entre 100 y 1000
Siempre se presentan áreas no típicas que resultan con firmas espectrales con grandes desviaciones estándar. Es muy difícil reducir el número total de clases porque la mayoría de las firmas se encuentran estadísticamente en el centro de la distribución con sesgos en los extremos (outliers) y esto ocasiona un incremento de las clases que afecta los valores de distribución normal de los datos. Este asunto se obviará en este análisis.
- SOM: Para esta etapa se construyó un algoritmo en JAVA incluido en el Hidrosig® (Hernández, 2002), bajo los siguientes parámetros:
- Un arreglo rectangular de 5*3 que permite una salida de máximo 15 clases. El algoritmo permite otros arreglos.
- Para el aprendizaje se define un número aleatorio de datos con un máximo de 1000 iteracciones ya que se puede tener una convergencia apropiada a este nivel. Sin embargo, el algoritmo permite hacerlo con un número mayor.
- No se tiene un arreglo para el mejoramiento de casos raros por la supervisión que éste requiere.
- La calidad del aprendizaje está dada por las funciones de vecindad tomadas como Gaussiana y Burbuja aunque no se define un índice de desempeño ya que los mapas a utilizar son muy pequeños.
- Como se definió una imagen de prueba sin errores no se aplica un componente para vectores de entrada perdidos.
- No se utiliza un reescalamiento de los datos ya que los datos están en un rango discreto de 0 a 255 y no se considera necesario.
- Para las pruebas se consideró además:
- Vectores de entrada: corresponde a las mismas imágenes (bandas) utilizadas en el método anterior de clasificación
- Funciones de vecindad: se harán pruebas con ambas técnicas Gaussiana y Burbuja.
- Tipo de malla: Rectangular. En esta investigación se prueban mapas de salida con arreglos 5*3 (Filas * Columnas) para una clasificación con máximo 15 clases.
- Proceso de entrenamiento: puede ser hasta 100.000 iteracciones, pero se busca una convergencia apropiada con 1.000 y se probará también con 100 para evaluar los cambios.
Una vez elaboradas las dos clasificaciones se procede a la evaluación a través del método de Matriz de Confusión también denominada matriz de error o tabla de contingencia. Éste es un arreglo de números que expresa el número de unidades de pixeles asignados a una categoría particular con respecto a otra de prueba. En las columnas se encuentran los datos verificados en el campo y sobre los que se tiene certeza del tipo de cubierta que representan, que en este caso sería la clasificación supervisada (Uribe, 2002). Las filas contienen los tipos de cubiertas definidos como resultado de una prueba de clasificación.
La precisión de una clasificación se obtiene al calcular el número total de tipos de cubierta (suma de las celdas de la diagonal de la matriz de confusión) dividido por el total de ejemplos de prueba (número total de elementos en las celdas de la matriz de confusión) (Figura 7). A través de ésta se puede evaluar el porcentaje de precisión de una clase con respecto a una determinada prueba. La precisión total en la clasificación se define por la proporción de la suma de la diagonal principal contra la obtenida por el clasificador.
Figura 7. Matriz de confusión para 120 elementos en 6 tipos de cubiertas.
Para el análisis de los datos se tomaron las matrices que mejor discriminación presentaron, se hizo una reasignación de las clases y se generaron las matrices de confusión respectivas.
El análisis de resultados considera sólo las clases vegetales de la clasificación supervisada (Figura 6) para realizar 32 pruebas en cada método. Sin embargo, ni en el método de ISODATA ni en el SOM es posible diferenciar alguna de las coberturas vegetales presentes en la clasificación supervisada.
Recordando los logros y resultados que perseguía este trabajo se pueden describir así:
- La diferenciación espectral de coberturas vegetales se fundamentó en principios estadísticos ampliamente usados en la literatura y lograr así una reducción de datos orientados a la clasificación de coberturas vegetales.
- El método propuesto de clasificación (SOM), al igual que el de comparación (ISODATA) y la técnica de validación (Matriz de confusión) fueron definidos de acuerdo con parámetros que contempla la literatura en análisis de datos de este tipo y similares. Estos aspectos han sido probados en muchos problemas de análisis de datos de manera satisfactoria.
- Finalmente, en la validación del método los resultados permiten concluir que el método propuesto no converge satisfactoriamente a las coberturas de la clasificación supervisada con base en las imágenes que representan el caso estudio. Además, el método de comparación ISODATA tampoco converge a una solución satisfactoria.
Lo anterior lleva a dos tipos de conclusiones:
- El método de reducción de datos implementado en este trabajo introduce información que distorsiona los valores reales de la imagen y por lo tanto los métodos de clasificación no operan adecuadamente. Esto también podría sustentarse sobre los resultados de algunas investigaciones que indican que el ACP si altera la información evaluada (Mitra; Murthy y Pal, 2002).
- El principio sobre el que se fundamentan los métodos de clasificación no supervisada se desvirtúa a la luz de que la intervención humana es necesaria para este tipo de procesos o que al menos se debe integrar información de otras fuentes que permitan tomar decisiones al algoritmo sobre la posibilidad de que exista una cobertura en un determinado sitio, según las condiciones de relieve, humedad relativa, frecuencia de lluvias, entre otras.
También es claro que el método SOM al igual que el ISODATA, requiere que se le definan un número de clases aproximado a obtener, lo cual introduce un parámetro que es propio de la clasificación supervisada. Aunque la teoría dice que un número máximo de clases a definir en una cobertura es de aproximadamente 15 y podría pensarse en dejar fijo el parámetro. Esto haría que se clasifique con base en ese valor máximo pero cuando se presente en una zona donde hayan menos de 15 coberturas es posible que se obligue al sistema a generar más coberturas de las requeridas.
Las razones que explican la condición por la que no se alcanza el objetivo general puede deberse a varias aspectos que definen el trabajo a seguir:
- El proceso de clasificación no se realizó sobre valores de reflectividades reales sino sobre una simulación con imágenes corregidas atmosféricamente. Si es posible conseguir información de campo, simultáneo al momento de la toma calcular los valores de reflectividades y operar sobre estos datos. Si esto no es posible, como ocurre en la mayoría del territorio colombiano, se sugiere abordar el problema desde las imágenes de laboratorio donde se pueden controlar las variables entre el sensor y el elemento sensado, como es el caso de la microscopia asistida por computador.
- La abstracción de información que se hace a través del ACP no es la apropiada para este tipo de datos ya que los datos de entrenamiento pueden ser insuficientes para lograr una buena convergencia posterior. Se sugiere evaluar otros métodos de reducción de datos (Mitra; Murthy y Pal, 2002) o modificar el algoritmo de forma que, según el volumen de datos a evaluar, se introduzca un patrón de parada antes de que la red se sobre entrene.
- Si la selección de bandas se reduce a tres, como ocurrió en este caso con las bandas 3-4-5, es posible pensar en un espacio tridimensional para lo que operaría un esquema de SOM 3D el cual ya se menciona en la literatura aunque con pocas aplicaciones y poca literatura.
- Es recomendable elaborar sistemas híbridos entre técnicas no supervisadas, sistemas expertos y reglas difusas que evalúan la viabilidad de que una cobertura se aloje en una posición determinada teniendo en cuenta otras variables ambientales y la proximidad con ellas. Esto sería un proceso complejo que requeriría de mucha más información pero que introduce aquellos elementos que un experto considera cuando elige clasificar un tipo de cobertura en un sitio determinado.
- No era el objetivo de este trabajo llegar a etiquetar las coberturas, ya que esto implica un análisis más detallado de las respuestas espectrales en el campo de las coberturas vegetales, tema que se debe explorar porque en esta región tropical se tiene muy poca información al respecto. En esta información también podría estar la razón por la cual no fue posible lograr una convergencia apropiada del algoritmo. Se plantearon en este trabajo, todas las variables que intervienen en la clasificación apropiada de una cobertura vegetal y que éstas afectan la firma o respuesta espectral, pero un análisis de ellas a través de programas de computacionales que relacionen un banco de datos de las diferentes y posibles firmas espectrales multitemporales podrían permitir analizar estos patrones y tomar la decisión de clasificar en una u otra clase, esto puede ser una ampliación del punto anterior.
- Explorar casos puntuales de aplicación de los SOM como para el caso de condiciones anómalas de la vegetación tal como enfermedades, contenidos de humedad mayores que alteran la respuesta espectral o presencia de otras especies vegetales que alteran la respuesta espectral por proximidad, entre otras.
AVENDAÑO, M. Análisis comparativo entre algoritmos para el reconocimiento de patrones en imágenes multiespectrales (MODELOS paramétricos y neuronales). Ensenada, Baja California, México, 1999. 111 p. Tesis (Master of Science). Centro de Investigación Científica y Educación Superior de Ensenada. Departamento de Ciencias de la Computación. [ Links ]
CAMPBELL, J. B. Introduction to remote sensing, New York: The Guilford Press, 1987. 670 p. [ Links ]
CANADA CENTRE FOR REMOTE SENSING. News and announcements. Disponible en Internet: http://www.ccrs.nrcan.gc.ca (consulta en Noviembre, 2001). [ Links ]
CHUVIECO, Emilio. Fundamentos de teledetección espacial. 3ed. España: Rialp, 2000. 568 p. [ Links ]
DUDA R. O. and HART, P. Pattern classification and scene analysis. New York: John Wiley and Sons, 1973. 189 p. [ Links ]
DUDA, T.; CANTY, M. J. and KLAUS, D. Unsupervised land-use classification of multispectral satellite images: a comparison of conventional and fuzzy-logic based clustering algorithms. En: INTERNATIONAL SYMPOSIUM ON OPERATIONALIZATION OF REMOTE SENSING (1999: Enschede, The Netherlands ). Proceedings 2nd International Symposium on Operationalization of Remote Sensing, 1999. p. 1256-1258. [ Links ]
GONZÁLEZ, R. C. and WOODS, R. E. Digital image processing. Massachusetts, EUA: Addison-Wesley, 1992. 599 p. [ Links ]
HERNÁNDEZ N., O. Herramienta para la clasificación de imágenes digitales de sensores remotos. Medellín, 2003. 73 p. Tesis (Ingeniero de Sistemas e Informática) Universidad Nacional de Colombia. Facultad de Minas. [ Links ]
KAVZOGLU, T. and MATHER, P. M. The role of feature selection in artificial neural network applications. En: International Journal of Remote Sensing. Vol. 23 (2001); p. 2919-2937 [ Links ]
KOHONEN, T. et al Som_pak: the self-organizing map program package. Espoo, Finland: Helsinki University of Technology, Laboratory of Computer and Information Science, 1996. s.p. (Technical Report A 31). [ Links ]
LOONEY, C. G. Pattern recognition using neural networks: theory and algorithms for engineers and scientists. Oxford University Press, 1997. ISBN 0-19-507920-5 [ Links ]
MATHER, P. M. Computer processing of remotely sensed images. En: Journal of Geography in Higher Education. Vol. 13, No. 1 (1989); p. 81-83. [ Links ]
MITRA, P., MURTHY, C. A. and PAL, S. K. Unsupervised feature selection using feature similarity. En: IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol. 24, Nº 3. (2002); p. 301-312. [ Links ]
NATIONAL AERONAUTICS AND SPACE ADMINISTRATION. Landsat 7 science data users handbook: Greenbelt, Maryland, NASA Goddard Space Flight Center, electronic version. Disponible en Internet: http://ltpwww.gsfc.nasa.gov/IAS/handbook/handbook_toc.html . (Consultada Noviembre 12, 1998). [ Links ]
NISSINEN, A. S., HYÖTYNIEMI, H. and KOIVO, H. Classification of radiation spectra using map of linear classifiers. En: INTERNATIONAL CONFERENCE ON COMPUTATIONAL INTELLIGENCE FOR MODELLING CONTROL AND AUTOMATION (1999: Vienna). Proceedings of the International Conference on Computational Intelligence for Modelling Control and Automation. p.128-133. [ Links ]
PIWOWAR, J. M. and ELLSWORTH, F. L. Hypertemporal analysis of remotely sensed sea-ice data for climate change studies. En: Progress in Physical Geography. Vol. 19, No. 2 (1995); p. 216-242. [ Links ]
REBOLLO, M. y ORTI, F. Pattern recognition techniques: remote sensing applications. Madrid: Centro de Investigación UAM IBM, 1980. p. 136-187. [ Links ]
RUPPERT, G. S. et al. A hybrid classifier for remote sensing applications En: International Journal of Neural Systems, Vol. 8, No. 1 (Feb., 1997); p. 63-68. [ Links ]
SANTOS, M. A. Clasificaçāo de imagens LANDSATTM a través da inteligência artificial: uma abordagem conexionista. Embrapa: Empresa Brasileira de Pesquisa Agropecuária Instituto Nacional de Pesquisas Espaciais, 2003. [ Links ]
SERGI, R.; SOLAIMAN, B. and MOUCHOT, M. C. LANDSAT - TM Image classification using principal components analysis and neural networks. En: INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYMPOSIUM (1995: Florence, Italy ). Quantitative Remote Sensing for Science and Applications. p.1927-1929. [ Links ]
SOLAIMAN, B., and MOUCHOT, M. C. A comparative study of conventional and neural network classification of multispectral data. Ecole Nationale Superieure des Télécommunications de Bretagne, France.1994a. 5 p. [ Links ]
________; ________ and KOFFI, R. K. Multispectral LANDSAT Images Segmentation using Neural Networks and Multi-Experts Approach. Ecole Nationale Superieure des Télécommunications de Bretagne - France. 1995a. 5 p. [ Links ]
________; ________ and MAILLARD, E. A Hybrid algorithm (HLVQ) combining unsupervised and supervised learning approaches. Ecole Nationale Superieure des Télécommunications de Bretagne - France. 1994b. 4 p. [ Links ]
SOLAIMAN, B. et al. A comparative study on multispectral agricultural images classification using Bayesian and neural networks approaches. Ecole Nationale Superieure des Télécommunications de Bretagne France and Canada Center for Remote Sensing, Application Division Canada . 1995 b. [ Links ]
TODT, V. Avaliaçao do desempenho de classificadores neurais para aplicaçoes em sensoriamento remoto. Porto Alegre, 1998. 413 p. Tesis (Sensoriamento remoto). Universidade Federal do Rio Grande Do Sul. Centro Estadual de Pesquisas em Sensoriamento Remoto e Meteorologia. [ Links ]
URIBE, L. F. Análisis multitemporal de las coberturas vegetales en un ecosistema de alta montaña en el oriente de Antioquia en los años 1992-2000. Medellín, 2005. 112 p. Tesis (Magister en Bosques y Conservación Ambiental). Universidad Nacional de Colombia. Facultad Ciencias Agropecuarias. [ Links ]
VELICKOV, S. et al. Application of data mining techniques for remote sensing image analysis. En: INTERNATIONAL CONFERENCE ON HYDROINFORMATICS (2000: Iowa). Proceedings 4th International Conference on Hydroinformatics. 1 Cd-rom. [ Links ]