Lexikon der Fernerkundung

Klassifizierung

Syn. Klassifikation, engl. classification, franz. classification; eine Methode der Bildverarbeitung, die dazu dient, in Rasterbildern mit Hilfe von Algorithmen Muster, d.h. Flächen mit gleichen Eigenschaften zu ermitteln, z.B. Erkennen von Wald, Gewässern etc. in Satellitenbildern. Um Rasterbilder klassifizieren zu können, müssen die Sensoren der Satelliten in der Lage sein, verschiedene spektrale Signaturen zu unterscheiden, und - abhängig von der Klassifizierungsart - müssen Trainingsgebiete definiert werden.

Das allgemeine Ziel der Fernerkundung ist, aus Fernerkundungsdaten Informationen zur Lösung von Fragestellungen aus z.B. den Bereichen Ökologie, Stadt- oder Umweltplanung abzuleiten. Dies geschieht primär mit Hilfe der Bildauswertung oder Bildanalyse, zu der die klassischen, analogen Verfahren der Photogrammetrie und der Photointerpretation gehören. Die visuelle Bildinterpretation identifiziert räumliche Objekte aufgrund von Farbe, Helligkeit, Textur, Muster, Form, Größe, Lage oder Schatten. Hierbei gehen vor allem Erfahrungswerte des Interpreten ein.

Die digitale Bildauswertung bietet im Anschluss an die digitale Bildaufbereitung und Bildverbesserung ebenfalls die klassischen Interpretationsmöglichkeiten. Dazu werden die Farbkomposite ausgedruckt oder am Monitor interpretiert. Darüber hinaus bestehen Verfahren, die die digitalen Bilder mit Hilfe numerischer oder statistischer Verfahren auswerten. Dabei ist vor allem die rechnergestützte Klassifikation von Bedeutung, d.h. das Erkennen von Objekten oder Eigenschaften wie z.B. Landbedeckungstypen durch Auswertung mehrerer Kanäle. (de Lange 2013)

In der Fernerkundung werden zur Klassifizierung meist mehrere Farbkanäle gleichzeitig verwendet. Beispielsweise sind die Kanäle Rot, Grün, Blau und nahes Infrarot eine mögliche Kombination zur Detektion von Vegetation.

Pixel-basierte Klassifizierung

Mittels Klassifizierung werden einzelne Pixel eines digitalen Bildes einer bestimmten Klasse gemäß einer Klassenbeschreibung zugeordnet, beispielsweise aufgrund spektraler Signaturen, d.h. aufgrund der unterschiedlichen Reflexionseigenschaften von Objekten.

Jede Klasse ist also durch spezifische Merkmale charakterisiert und dadurch von anderen Klassen unterschieden. Jedes Bildelement wird auf alle Merkmale aller Klassenbeschreibungen untersucht und letztlich derjenigen Klasse zugeteilt, deren Eigenschaften es aufweist. Das Ziel jedes Klassifizierungsverfahrens ist es, die Gesamtheit der Bildelemente einer Szene in thematische Klassen oder Landnutzungsklassen einzuteilen.

Für die in der Regel automatische Klassifizierung der Satellitendaten stehen zwei Verfahren zur Verfügung, das pixelbasierte und das objektbasierte. Bei den pixelbasierten Verfahren wird jedes einzelne Pixel analysiert und nach spektralen Ähnlichkeiten in Klassen sortiert. Bei den objektbasierten Verfahren wird von der Annahme ausgegangen, dass ein Pixel mit einer hohen Wahrscheinlichkeit die gleiche Klassenzugehörigkeit hat wie sein Nachbarpixel.

Pixel-basierte Klassifizierung wird meist synonym auch als Multispektralklassifizierung bezeichnet. Die zu klassifizierenden Einheiten sind die einzelnen Pixel. Normalerweise werden nur deren spektrale Eigenschaften verwendet, es wird also keine Kontextinformation berücksichtigt. Die einzelnen Pixel und deren Klassenzuweisung haben bei einfachen Verfahren keinen Einfluss auf die Klassifizierung der benachbarten Pixel. Basierend auf meist statistischen Entscheidungsregeln wird ein Pixel entsprechend seiner spektralen Eigenschaften einer Landbedeckungsklasse zugeordnet. Die zu klassifizierenden Landnutzungsklassen unterscheiden sich durch spezifische Kombinationen der DN-Werte (DN = digital number), die ihren typischen Reflexionswerten entsprechen.

Die pixel-basierten Klassifizierungen neigen zum "salt-and pepper"- Effekt. In diesem Fall erscheint die klassifizierte Szene sehr heterogen.

In der Multispektralklassifizierung werden drei Arten von Klassifizierung unterschieden:

Die überwachte (supervised c.) Klassifizierung, bei der für jede Objektklasse eine Musterklasse bestimmt wird. Aus diesen Musterklassen wird wiederum der Klassifikator bestimmt. Jedes Element außerhalb einer Musterklasse wird sodann mittels dieser Entscheidungsfunktion des Klassifikators auf Grund seiner typischen Geländeinformation (z.B. spektrale Signatur bei Multispektralbildern) einer Objektklasse zugeordnet. Ein Objekt weist daneben noch andere Merkmale auf, die bei einer Klassifikation berücksichtigt werden können, beispielsweise Textur, Musterung, Größe, Form, Orientierung, Zeit und Merkmale wie Winkel, Enden und Kanten. Eine überwachte Klassifikation kann hierarchisch oder iterativ durchgeführt werden. In beiden Fällen werden für ausgesuchte Areale des Bildes Trainingsdaten gewonnen und danach das gesamte Bild klassifiziert.

Eine Schwierigkeit bei der Generierung von Trainingsgebieten resultiert z.B. aus einer zu geringen Auflösung räumlicher Objekte. In diesem Fall sind die spektralen Eigenschaften einzelner Pixel gemischt, es entstehen so genannte "Mischpixel". Räumlich stark differenzierte, topographisch bedingte Beleuchtungsverhältnisse und Schattenwirkungen können sich negativ auf das Klassifizierungsergebnis auswirken, weil dadurch die Klassenbeschreibungen unspezifisch und damit schlechter trennbar werden.

Die unüberwachte (unsupervised c.) Klassifizierung unterscheidet sich in Hinblick auf die überwachte darin, dass keine Geländeinformation und keine Anzahl der Objektklassen benötigt wird. Mittels eines Klassifikators (z.B. ein Abstandsmaß) wird iterativ jedes Bildelement einer Teilgesamtheit zugeordnet. Diese Teilklassen besitzen jedoch noch keine Objektidentität.

Die einzelnen Flächen lassen sich jedoch nicht immer zu einem bestimmten Zeitpunkt unterscheiden, sondern in manchen Fällen nur, wenn sie zu verschiedenen Zeitpunkten der Wachstumsperiode untersucht werden (multitemporale Klassifizierung).

Die hybride (hybrid c.) Klassifizierung mit einer Vielzahl verschiedener Verfahren. Eine Möglichkeit besteht z.B. darin, einer überwachten Klassifizierung eine unüberwachte Klassifizierung vorzuschalten. Mit Hilfe der unüberwachten Klassifizierung können die unterscheidbaren spektralen Klassen sowie geeignete Trainingsgebiete bestimmt werden. Die hybride Multispektralklassifizierung findet insbesondere in den Fällen Anwendung, bei denen eine hohe Variabilität in den spektralen Merkmalen der Klassen vorhanden ist, wie z.B. Biotopkartierung.

Die Güte einer Klassifikation hängt wesentlich davon ab, wie eindeutig die Multispektralsignatur jeder Objektklasse ist, wie stark die stichprobenhafte Geländekenntnis (ground truth) in einem Testgebiet mit den Ergebnissen der Klassifikation harmonisiert und mit welchem Typ von Klassifikation gearbeitet wird. Im Regelfall führen unüberwachte Klassifikationen von multispektralen Fernerkundungsdaten zu keinen befriedigenden Ergebnissen, da kaum eine Objektklasse eindeutig im Bild gekennzeichnet ist (Mischpixel = Mixel!). Deshalb setzt man überwiegend auf überwachte, interaktive Klassifikationsschritte, welche maßgeblich von den Interpreten gesteuert werden können und, gestützt durch individuelle Sach- bzw. Geländekenntnisse, deutlich bessere Klassifikationsergebnisse erbringen.

Klassische Klassifizierungsmethoden, wie die maximum-likelihood, minimum distance oder parallelepiped classification bedienen sich binärer Entscheidungsregeln bezüglich der Zugehörigkeit des Bildelementes zu einer Klasse. Sie bringen zum Ausdruck, ob das Element der Klasse gehört (=1) oder nicht (=0). Diese Klassifizierungsmethoden werden auch als harte Klassifizierungssysteme (engl. hard classifiers) bezeichnet. Die gebräuchlichsten pixel-basierten Klassifikationsmethoden gehören zu den harten Klassifizierungssystemen.

Hingegen kann bei den weichen Klassifizierungssystemen (engl. soft classifiers) jedes Pixel zu mehr als einer Klasse gehören, und es besitzt unterschiedliche Zugehörigkeitswahrscheinlichkeiten zu den verschiedenen Klassen.

Pixelbasierte Verfahren stoßen v.a. bei hoch aufgelösten Bilddaten schnell an ihre Grenzen. In diesen Verfahren werden Objekte, wie beispielsweise Gebäude, in ihre Teilobjekte zerlegt, so dass keine typische spektrale Gesamtreflexion definiert werden kann. Die häufig verwendete Maximum Likelihood-Klassifizierung setzt eine Normalverteilung der Grauwerte in den Trainingsgebieten voraus. Für heterogene Objekte ist diese Voraussetzung nicht immer gegeben, folglich können Probleme bei der Klassenzuweisung entstehen. Bei hoher räumlicher Auflösung besitzen Bilddaten zudem meist nur drei bis vier spektrale Kanäle, was im Vergleich z.B. zu Landsat, der als Standardsensor für die Multispektralklassifizierung verwendet wird, einen Verlust an spektraler Information bedeutet. Viele Objektklassen besitzen bei nur drei oder vier Kanälen spektral ähnliche Eigenschaften und überlagern sich im Merkmalsraum. Die Klassentrennung kann daher nur unter Einbeziehung weiterer Informationen wie z.B. räumliche Nachbarschaft, Form und Textur von Objekten, sicher erfolgen.

Die aufgezeigten Grenzen der klassischen, pixelbasierten Klassifizierungsverfahren haben andere, z.T. wissensbasiert genannte Verfahren motiviert, wie z.B. die objektorientierte Bildanalyse, die Wissen über die zu extrahierenden Objekte modellieren.

Im Gegensatz zu den harten Klassifizierungssystemen benutzen die weichen Klassifizierungssysteme den Grad der Zugehörigkeit des bestimmten Bildelementes zu jeder in der Klassenhierarchie vorhandenen Klasse (Fuzzy systems), wobei der Zugehörigkeitsgrad nicht nur die binären Werte, sondern auch Zwischenwerte annehmen kann. In diesem Fall bedeutet der Wert 1 die sichere Zugehörigkeit und der Wert 0 die sichere Nichtzugehörigkeit zu einer bestimmten Klasse. Der Vorteil der soft classifiers besteht in der Möglichkeit der Darstellung der Unsicherheiten bezüglich der Zugehörigkeit zu Klassen. Ein Bildobjekt kann mehreren Klassen mit unterschiedlicher Wahrscheinlichkeit zugeordnet werden. Dieses Prinzip entspricht eher der menschlichen Zuordnung und der linguistischen Beschreibung der Objekte in der Welt als harte Regeln. Die Klassifikationsergebnisse der soft classifiers stehen dadurch dem menschlichen Erkennen viel näher.

Objektbasierte Bildanalyse

Im Zuge der verbesserten räumlichen Auflösung der Satellitensysteme hat sich seit einigen Jahren die objektbasierte Bildanalyse etabliert. Mit eCognition (Trimble), ENVI Feature Extraction Module (ITT), IMAGINE Objective (ERDAS) und Feature Analyst (VLS) stehen leistungsfähige und teilweise erweiterbare kommerzielle Softwaresysteme zur Verfügung. Sie erreichen zwar nicht die Genauigkeit der visuellen Interpretation, sind jedoch in der Lage, eine Vorauswahl von relevanten Bildobjekten oder -bereichen zu treffen. Alle Systeme zeigen, je nach Anwendung, noch methodische Schwächen, u. a. in den Bereichen Segmentierung, automatische Merkmalsextraktion und multitemporale Analyse.

Die objektbasierte Bildanalyse kann als eine spezielle Form der wissensbasierten Bildanalyse gesehen werden, die sich mit der Extraktion topographischer Objekte aus Daten mit einem hohen Informationsanteil im spektralen Bereich beschäftigt.

Das Konzept der objekt-basierten Bildanalyse beruht auf der Annahme, dass semantische Information notwendig ist, um Bilder vollständig zu interpretieren. Diese Information kann nicht von einzelnen Pixeln repräsentiert werden, sondern nur von "aussagekräftigen" Bildobjekten und ihren wechselseitigen Beziehungen. Der größte Unterschied im Vergleich zu pixelbasierten Ansätzen ist, dass objektbasierte Ansätze der eigentlichen Klassifikation einen Segmentierungsschritt vorschalten und in der Folge Bildobjekte anstelle einzelner Pixel analysieren.

In der objektbasierten Bildanalyse werden in einem ersten Schritt die Bilddaten segmentiert, d.h. benachbarte Pixel nach bestimmten Homogenitätskriterien zu Segmenten zusammengefasst. Die Segmentierung kann hierbei auch als eine Generalisierung der Bilddaten aufgefasst werden. Die Klassifizierung der Segmente erfolgt in eCognition über eine Wissensbasis in Form von Regelsätzen, welche die Eigenschaften der gewünschten Objektklassen als Fuzzy-Zugehörigkeitsfunktionen beschreiben.

Die Segmente werden als Ganzes klassifiziert, wobei neben den spektralen Informationen auch Formeigenschaften, Textur und Kontextinformationen genutzt werden können.

Zur Klassifizierung von Landbedeckungsarten wird in zunehmendem Maße auf das objektbasierte Verfahren zurückgegriffen. Neben den durch den neuartigen Klassifizierungsansatz verbundenen Vorteilen, wie beispielsweise der Segmentierung kompakter Objekte, die dem menschlichen Wahrnehmungsvermögen entsprechen, hat diese Methode aber auch Schwachstellen. Mit der Bildung homogener Objekte geht gleichzeitig auch eine Generalisierung einher. Mit der pixelbasierten Klassifizierung wird jedes einzelne Pixel nach spektralen Ähnlichkeiten untersucht und in Klassen sortiert, was in der Regel keine homogene Objektbildung zulässt, aber andererseits auch keine Generalisierung darstellt.

Eine Klassifikation kann nach verschiedenen Methoden erfolgen, wobei eine Kombination von überwachter und nicht überwachter Klassifikation sowie auch ein mehrstufiges Vorgehen möglich sind. Solch eine Vorgehensweise ist immer dann sinnvoll, wenn verschiedene Klassen nur durch unterschiedliche Verfahren optimal identifiziert werden können. Hierbei durchläuft jedes Pixel einen "Entscheidungsbaum". Derartige Klassifikationsschemata sind zum Teil fester Bestandteil professioneller Bildverarbeitungssoftware, die darüber hinaus auch die Möglichkeit besitzt, eigene hierarchische Klassifikationsschemata zu realisieren.

Einige ungelöste Probleme der Klassifizierung:

Weitere Informationen:


Pfeil nach linksklassifizierte BilderLupeIndexKleinsatellitPfeil nach rechts