Lexikon der Fernerkundung

RA-2

Radaraltimeter auf dem inzwischen inaktiven ENVISAT zur Erfassung der Ozeanoberflächentopographie, der signifikanten Wellenhöhe und der Windstärke an der Meeresoberfläche. Auf diese Weise unterstützte der Sensor die Erforschung der Ozeanzirkulation, der Bathymetrie und die Charakteristik des marinen Anteils des Geoids. Durch die Bestimmung von Windgeschwindigkeit und Wellenhöhe wurde die Wetter- und Seegangsvorhersage unterstützt. Daneben war RA-2 in der Lage, Meereis, Polareis und die meisten Landoberflächen zu beobachten und darzustellen.

Weitere Informationen:

RADAR

Engl. Akronym für Radio Detecting/Detection and Ranging; eine Technik, die die Reflexion von ausgestrahlten Radiowellen an Objekten misst und auswertet. In der Fernerkundung ein aktives System, das Mikrowellenstrahlung zur Gewinnung von Bildern benutzt. Verschiedene Satelliten mit Radarsensoren wie SAR-Lupe, TanDEM-X oder RADARSAT befinden sich im Orbit.

Weitere Informationen:

Radaraltimeter

Aktives Mikrowellengerät, das im Gegensatz zum Windscatterometer die Wasseroberfläche nicht unter einem schrägen Einfallswinkel (Winkel zwischen Nadir und Antennenblickrichtung) bestrahlt, sondern unter dem Einfallswinkel Null (in Nadirrichtung). Aus der Zeitdifferenz zwischen Aussendung und Empfang der extrem kurzen Radarimpulse kann der Abstand zur Wasseroberfläche mit einer Genauigkeit im Zentimeterbereich gemessen werden. Aus den Radaraltimeterdaten lassen sich dann globale Karten über die Verformung des Meeresspiegels erstellen. Diese Verformung wird verursacht durch das räumlich-variable Schwerekraftfeld der Erde und durch Ozeanströmungen, die aufgrund der Corioliskraft eine Neigung der Wasseroberfläche verursachen. So fällt der Wasserspiegel z.B. am Puertorikanischen Graben, der mit einer starken Schwerkraftanomalie verbunden ist, auf einer Entfernung von 100 km ungefähr 15 m ab. Der Golfstrom, dessen Geschwindigkeit etwa 1-1,5 m/s beträgt, verursacht am Rand einen Sprung im Wasserspiegel um etwa 1 m. Außerdem kann man aus den Radaraltimeterdaten auch die mittlere Wellenhöhe und den Betrag der Windgeschwindigkeit erhalten. Die Information über die mittlere Wellenhöhe erhält man aus der Verformung des rückgestreuten Radarsignals und die Windgeschwindigkeit aus der Intensität des rückgestreuten Radarpulses.

Weitere Informationen:

Radarantenne

Die Antenne eines Radarsystems sendet die elektromagnetische Strahlung aus, die zur Aufnahme dient, und empfängt die vom Gelände reflektierten Anteile. Bei abbildenden Radarsystemen werden unterschieden: die reale Antenne, wenn die wirksame Antennenlänge tatsächlich physisch gegeben ist, die synthetische Antenne, wenn unter Ausnutzung des Dopplereffekts eine virtuelle Antennenlänge erzeugt wird.

Radarbild

Engl. radar image, franz. image radar; ein mittels Radartechnik gewonnenes Bild. Radardaten haben komplexe Pixelwerte, Amplitude und Phase. Meist wird die Amplitude als Bildhelligkeit genutzt, um Radarbilder zu erzeugen. Die Bildphase ist für die Interferometrie von Bedeutung.

Weitere Informationen: Radar Earth Observatory for urban area characterization (Europäische Kommission, Katrin Molch)

Radarecho

Die von einem Objekt zu einem Radarsystem reflektierte Radarstrahlung, welche ursprünglich von dessen Antenne ausgesandt wurde. Das Radarecho enthält Informationen über die Lage und die Entfernung des reflektierenden Objekts.

Radarfernerkundung

Fernerkundung unter Einsatz von aktiven Fernerkundungssystemen mit Sendern für die Energieabstrahlung und mit Antennen zum Empfang der (von der Erdoberfläche oder von Schwebeteilchen in der Atmosphäre) reflektierten Strahlung. Diese Radarsysteme decken das Spektrum der Millimeter- und Zentimeterwellen ab (sogenannter Mikrowellenbereich). Sie können bodengestützt, luftgestützt oder satellitengetragen sein. Die Radarinformation stellt eine wertvolle Ergänzung zu passiven Sensoren dar, die den sichtbaren oder infraroten Spektralbereich nutzen. Da der Sensor die Szene aktiv beleuchtet, ist er unabhängig von der Tageszeit. Zudem ist in den langwelligen Frequenzbändern (Zentimeterbereich) die Signaldämpfung durch Witterungseinflüsse gering.

Für die Erdbeobachtung arbeitet die Radar-Fernerkundung in drei Wellenlängenbereichen: X-Band (2,4-4,5 cm), C-Band (4,5-7,5 cm), L-Band (15-30 cm). Das gebräuchlichste Monitoringsystem ist SAR (Synthetic Aperture Radar). Die abgestrahlte Energie ("Radarkeule") ist auf das Gelände seitlich der Überfluglinie gerichtet (side looking radar). Von dort erfolgt in Abhängigkeit von der Geländerauigkeit, dem Auftreffwinkel der Strahlung, der Landformen etc. eine spezifische Reflexion, die das Radarbild erzeugt. Dem Radarsender zugewandte Berghänge reflektieren dabei stärker als deren abgewandte Seite, was zu überzeichneten und verstärkten scheinbaren Terraindarstellungen führt. Auch die Reflexion bebauter Gebiete ist in Abhängigkeit vom Reflexionsverhalten der Materialien usw. sehr unterschiedlich.

Die erhöhte Eindringtiefe der L-Band-Wellenlänge ergibt wertvolle Information zum Gesteinsuntergrund und zum Wassergehalt in Bodenschichten und Vegetation. Als aus komplexen empirischen Formeln abgeleitete Faustregel kann gelten, dass bei trockener Vegetation bzw. trockenem Boden die Eindringtiefe rund die halbe Wellenlänge beträgt. Allerdings wurden bei sehr trockenen Sanden mit L-Band-Radar bereits Eindringtiefen bis zu zwei, drei Metern erzielt. Dieses Phänomen konnte u.a. dazu verwendet werden, um mittels Weltraum-Radaraufnahmen vom Space Shuttle aus fossile Entwässerungssysteme unter der rezenten Sandbedeckung der Sahara zu kartieren.

Satelliten-Radaraufnahmen besitzen die Fähigkeit, sowohl nachts als auch durch Wolken, Aufnahmen der Erdoberfläche zu generieren. Denn die ausgesendeten Mikrowellen beleuchten die Erdoberfläche aktiv und durchdringen, aufgrund ihrer Wellenlänge, auch Wolken. Ein empfangenes Radar-Signal ist ein komplexes Signal und besteht aus der Intensität und der Phase des zurück gestreuten Echos. Mit Hilfe der Radar-Interferometrie (InSAR) können topographische Informationen (Höhen) sowie deren Veränderungen (Deformationen) bestimmt werden.

Besonderheiten der Mikrowellenfernerkundung:

  • Sensorik: Hochfrequenzelektronik statt Optik
  • Messung und Auswertung der Signalphase möglich
    (→SAR, Interferometrie, Radarinterferometrie)
  • Weitgehende Durchdringung von Atmosphäre und Wolken
  • Teilweise Eindringung in Vegetation, Boden, Schnee und Eis möglich
  • Mikrowellensensoren erfassen im Wesentlichen physikalische Merkmale (optische Sensoren: chemische), z.B.:
    • Leitfähigkeit (Dielektrizitätskonstante)
    • Rauhigkeit: viele natürliche Oberflächen weisen Rauhigkeitsstrukturen im Zentimeterbereich auf (z.B. Äcker)

Die Nutzung des Mikrowellenbereiches zur Erdbeobachtung bietet sich für eine Reihe unterschiedlicher Zwecke an, die mit verschiedenen Techniken angegangen werden. Die wichtigsten darunter sind:

  • Altimeter: aktive Instrumente, die in Nadirrichtung kurze Pulse aussenden und die Signallaufzeit auswerten. Altimeter liefern wichtige Daten zur Erzeugung globaler Karten der Verformung des Meeresspiegels, die etwa durch Schwankungen des Erdschwerefeldes oder Meeresströmungen verursacht werden.
  • Scatterometer: aktive Beleuchtung der Meeresoberfläche in Schrägsicht. Wellen beeinflussen die Intensität des zurückgestreuten Signals, was Rückschlüsse auf die Windverhältnisse ermöglicht.
  • Bildgebende Verfahren: Die größte Bedeutung in der Fernerkundung haben die Verfahren zur bildgebenden Erfassung der Landoberflächen der Erde erlangt. Im Gegensatz zu optischen Sensoren, die eher chemische Objektmerkmale erfassen (meist den reflektierten Anteil des einfallenden Sonnenlichts) messen Radarsensoren eher physikalische Größen. Neben der Objektgeometrie bestimmen vor allem die Leitfähigkeit des Materials, die häufig vom Wassergehalt bestimmt ist, sowie die Oberflächenrauigkeit das gemessene Signal.

Auch beim Wetterradar, also Radargeräten, die vorwiegend zur Erfassung von Wetterdaten dienen, können Differenzierungen nach untersuchten Parametern und eingesetzten Frequenzbereichen vorgenommen werden. Die Wahl des Frequenzbereiches bestimmt die Dämpfung der elektromagnetischen Wellen durch die Atmosphäre, mehr noch durch eine Wolke oder den Niederschlag. Die Arbeitsfrequenz bestimmt die mögliche Eindringtiefe der Radarstrahlen in dieses Niederschlagsgebiet und welche Objekte aus diesem Gebiet zu einer Reflexion beitragen. Das heißt, ob auf dem Wetterradar von diesem Gebiet nur die Außenkonturen zu sehen oder die innere Struktur erkennbar ist, ist abhängig von dieser Arbeitsfrequenz.

rain_attenuation

Zu größerer Darstellung auf Grafik klicken

Frequenzabhängige Dämpfung in einem Regengebiet


(Die Amplituden der Radargeräte sind nur relative Werte, die Kurven zeigen nur an, wie viel von der Regenverteilung an der Reflexion beteiligt sein kann.)
Die oberste (blaue) Kurve zeigt als Ursache der Dämpfung die geometrische Ausdehnung eines Gewitters mit 20 km im Durchmesser mit einer zum Zentrum hin zunehmenden Niederschlagsmenge bis 100 mm/h. Die nächste Kurve (in Pink) zeigt die im Pegel angeglichene Amplitude der Radarechos von einem Radargerät im S-Band. Die nächsten zwei Kurven zeigen das Gleiche von einem Radargerät im C-Band (Gelb) und einem im X-Band (Hellblau).
Es ist ersichtlich, dass Wetterradargeräte im X-Band nur für den Nahbereich konzipiert werden können. Die Sendeenergie Radar im S-Band wird hingegen kaum gedämpft – das ist ebenfalls ein Zeichen dafür, dass dieses Radar dieses Niederschlagsgebiet nur sehr schwach anzeigen wird, da nicht genug Energie reflektiert wird. Für die gewünschte Reichweite müssen die notwendigen energetischen Bedingungen geschaffen werden. Wetterradargeräte haben deshalb einen weiten Bereich der genutzten Impulsleistung des Senders von nur wenigen Kilowatt bis hin zu mehreren Megawatt.

Quelle: Wikipedia
 

Weitere Informationen:

Radarinterferometrie (InSAR)

Die Radarinterferometrie ist ein berührungsfreies, fernerkundliches Messverfahren mit einem aktiven Sensor. Die Radarinterferometrie ermöglicht die flächenhafte Bestimmung von großräumigen Bodenbewegungen wie sie z.B. infolge von Grundwasserentzug, Rohstoffgewinnung, Vulkanaktivität oder seismischen Ereignissen hervorgerufen werden. Die Radarinterferometrie hat in den letzten zwei Jahrzehnten aufgrund der Verfügbarkeit geeigneter abbildender Radarsysteme mit verschiedenen Sensoren im L-Band, C-Band und X-Band besonders im Bereich der Beobachtung von Bodenbewegungen für verschiedene geowissenschaftliche Fragestellungen erheblich an Bedeutung gewonnen, aber auch für die Generierung von digitalen Höhenmodellen. In den Archiven der Satellitenbetreiber z.B. der europäischen Weltraumorganisation ESA, des DLR / DFD, der JAXA oder MDA/CSA werden große Datenmengen gesammelt und Nutzern auch für retrospektive Untersuchungen zur Verfügung gestellt.

Bei herkömmlichen, abbildenden Radarsystemen wird jedem Punkt des abgebildeten Gebietes entsprechend seinem Abstand zum Sensor eine Position in der Bildebene zugeordnet. Die Intensität der Rückstreuung charakterisiert die Materialien der Oberfläche, deren Rauigkeit, Orientierung usw. Das Ergebnis ist ein zweidimensionales Bild des Testgebietes.

Eine Weiterentwicklung stellt die SAR-Interferometrie dar. Hierbei wird ein Testgebiet von zwei oder mehr unterschiedlichen Sensorpositionen aus abgebildet. Da es sich bei Radarsystemen um kohärente Systeme handelt, enthalten die Daten nicht nur Informationen über die Rückstreuintensität (Signalstärke) sondern auch eine Phaseninformation der kohärenten Welle zum Zeitpunkt der Reflexion. Die Aufnahmegeometrie ist damit ähnlich derjenigen bekannter stereometrischer Verfahren und hat zur Folge, daß verschiedene Zielpunkte unterschiedliche Weglängendifferenzen zu den Sensorpositionen besitzen.

Jedes Pixel in einem Radarbild ist Träger dieser beiden Arten von Informationen. Die Intensität charakterisiert die Materialien der Oberfläche, deren Rauigkeit, Orientierung usw. Sie führt zu einer bildhaften Wiedergabe des Geländes. Hingegen wird die Phaseninformation in ganz anderer Weise genutzt. Wenn das Radarsystem dasselbe Gelände von einer nahezu gleichen Position erneut aufnimmt, dann sind die Phasenbilder nicht identisch. Die Unterschiede hängen von den Objektentfernungen ab. Deshalb können durch die Kombination der Phasenbilder von geeigneten Mehrfachaufnahmen Entfernungsunterschiede errechnet werden, aus denen z.B. ein Digitales Geländemodell gewonnen werden kann.

Durch die Überlagerung von zwei Radaraufnahmen werden Interferogramme erzeugt, die als Messgröße die Phasendifferenz beider Aufnahmen enthalten. Das Interferogramm macht die Phasendifferenzen in Form farbiger Ringe (sog. Fringes) sichtbar. Da jeder dieser Ringe den gesamten Wertebereich einer Phase wiedergibt, weist das Interferogramm aber Mehrdeutigkeiten auf, die anschließend noch aufgelöst werden müssen. Aus der Phasendifferenz können Abstandsänderungen und daraus Höhenänderungen abgeleitet werden. Dazu müssen aus der Phasendifferenz noch verschiedene Signalanteile (aufgrund von z. B. Topographie, Atmosphäre, Rauschen) auf geeignete Weise eliminiert bzw. reduziert werden.

Für die radarinterferometrischen Auswertungen müssen die auszuwertenden Signale zwischen zwei Radaraufnahmen des gleichen Gebietes räumlich und auch zeitlich korrelieren. Veränderungen der Rückstreueigenschaften durch z.B. Vegetationswechsel, längere zeitliche Abstände der Aufnahmen oder auch starke Bodenbewegungsgradienten führen zu Dekorrelationen und damit zur systematischen Verfälschung der abgeleiteten Höhenänderung bis hin zur Nichtauswertbarkeit. Wichtigste Voraussetzung für eine erfolgreiche interferometrische Auswertung von Radardaten ist folglich eine „feste“ Phasenbeziehung (Kohärenz, d. h. Ähnlichkeit) zwischen den zu unterschiedlichen Zeitpunkten aufgezeichneten Aufnahmen.

Während bei stereoskopischen Auswertesystemen versucht wird, die Parallaxe durch direkte Messung der Weglängen zu bestimmen, wird beim interferometrischen SAR die Kohärenz des Signals ausgenutzt sowie die Tatsache, daß sich die Phase einer monochromatischen elektromagnetischen Welle proportional zur zurückgelegten Weglänge verhält. Eine Phasendifferenzmessung, wie sie in der SAR-Interferometrie letztendlich durchgeführt wird, ermöglicht über die Bestimmung des Wegunterschiedes die Ermittlung der gewünschten Höheninformation. Die Daten können zur Erstellung von digitalen Höhenmodellen, zur Detektion von Veränderungen im Zentimeterbereich, zur multitemporalen Klassifikation oder zur Detektion beweglicher Streuer verwendet werden.

In der Satellitenfernerkundung erzielte diese Technik ihren Durchbruch mit den Starts der Satelliten ERS-1 und ERS-2 1991 und 1995 sowie der SRTM im Jahr 2000. Letztere hat in den vergangenen Jahren ein nahezu globales Höhenmodell mit bisher unerreicht hoher geometrischer Auflösung geliefert. Weitere Radarsysteme sind PALSAR-2 auf dem japanischen Satelliten ALOS-2 und ASAR auf dem inzwischen inaktiven ENVISAT. Seit 2007 liefert der deutsche Satellit TerraSAR-X SAR-Daten. Seit 2010 wird dessen Mission durch den Satelliten TanDEM-X ergänzt.

Anwendungsfelder der Radarinterferometrie sind die Erfassung von Veränderungen der Erdoberfläche im mm- und cm-Bereich (Gletscher, Vulkanismus, Hangrutschungen, Erdbeben, bergbaubedingte Senkungen usw.) sowie die Vermessung von Meeresströmungen.

Weitere Informationen:

Radarmeteorologie

Teilgebiet der Physik der Atmosphäre. Bei diesem meteorologischen Fernmessverfahren werden mit Radarsystemen Objekte in der Atmosphäre geortet. Dies geschieht durch das Aussenden kurzer Impulse elektromagnetischer Wellen im Zentimeterbereich durch eine rotierende Antenne. Die von den Objekten reflektierten oder gestreuten Wellen werden durch dieselbe Antenne wieder empfangen, die aufgenommenen Signale auf dem Radarschirm sichtbar gemacht und elektronisch weiterverarbeitet.
Radargeräte können stationär oder mobil vom Boden aus operieren, sowie auf Luftfahrzeugen oder Satelliten montiert sein.
Die bodengebundene Radarüberwachung der Atmosphäre dient im operationellen Bereich vorwiegend der Ergänzung der konventionellen meteorologischen Beobachtungen und damit der Verfeinerung der Wetteranalyse. Radarinformationen bilden mit die Grundlage für Warnungen vor besonderen Wettererscheinungen wie Hagel, Sturm, Starkniederschlägen oder auch der für Flugzeuge gefährlichen Windscherung (Wetterradar).
Eine lange bewährte Radaranwendung im Wetterdienst ist die Höhenwindmessung in Verbindung mit dem Aufstieg von Radiosonden (Bahnverfolgung).
Neuere Entwicklungen nutzen den Doppler-Effekt zur Bestimmung des dreidimensionalen Windfeldes (Windprofiler). Die gleichzeitige Anwendung von Schallwellen (RASS), die der Atmosphäre Inhomogenitäten aufprägen, und dem diese Inhomogenitäten messenden Radar ermöglicht es, aus der spektralen Verteilung der Radarechos das Vertikalprofil der Schallgeschwindigkeit zu bestimmen. Da die Schallgeschwindigkeit von der Temperatur abhängt, erfolgt somit eine Messung des vertikalen Temperaturprofils, was z.Z. bis in eine Höhe von ca. 5 km möglich ist.
Von Satelliten aus können mit Hilfe von Radaraltimetern die Abweichungen des aktuellen vom idealen Meeresniveau (Geoid) mit einer Genauigkeit von ca. 10 cm bestimmt werden. Damit ist die kontinuierliche Erfassung des oberflächennahen Strömungssystems im Ozean prinzipiell möglich geworden.
Die erste satellitengestützte Mission, die Niederschlagsmessungen mit Hilfe von Radar und anderen Sensoren durchführt, ist die amerikanisch- japanische Tropical Rainfall Measurement Mission (TRMM).

Hurrikan Rita im Satellitenbild Hurrikan Rita im Satellitenbild

Diese Abbildung zeigt die Regenkonzentration im Gefolge des Hurrikans Rita, gemessen über den Zeitraum vom 18. bis zum 25. September 2005. Sie beruht auf den Multisensor-Daten des TRMM-Satelliten. Wolkendaten aus dem GOES-Satelliten der NOAA zum besseren Verständnis darübergelegt.

Die Regengebiete sind in Farben dargestellt, die von grün (<30 mm) bis rot (>80 mm) reichen.

TRMM ist der einzige Satellit (2005), der Regenradar und andere Mikrowelleninstrumente einsetzt, um die Regenmengen über den tropischen und subtropischen Ozeanen zu messen.

Zu größerer Darstellung auf Abbildung klicken

Quelle: NASA
 

Weitere Informationen: Radar-Meteorologie (DWD)

RADARSAT-1

Inzwischen inaktiver kanadischer Erdbeobachtungssatellit auf sonnensynchroner, polarer Umlaufbahn zum Umweltmonitoring, zur physischen Ozeanographie, zur Eis- und Schneebedeckung, zur Beobachtung von Landflächen und zur Unterstützung des nachhaltigen Umgangs mit Ressourcen. Radarsat arbeitete mit einem aktiven Mikrowelleninstrument, einem C-Band SAR. Dieses schickte gepulste Signale mit Einfallswinkeln zwischen 20 und 60° zur Erde und verarbeitete die reflektierten und dann empfangenen Signale. Die Verarbeitung der Daten erzielte Auflösungen zwischen 30 und 600 m.
Der Satellit bewegte sich auf einer sonnensynchronen Umlaufbahn in 798 km Höhe um die Erde bei einer Inklination von 98,6°. Die Umlaufzeit betrug 100,7 min, der Wiederholzyklus 24 Tage.

Quelle: CRISP

Das Haupteinsatzgebiet lag in den Polarregionen. Die Anwendungsbereiche umfassten Meereis-Monitoring (tägliche Eiskarten, Schutz der Ölplattformen vor Neufundland), Kartographie, Hochwasserkartierung und Katastrophenmonitoring allgemein, Gletschermonitoring, Waldflächenkartierung, Ölfleckenüberwachung, Aufspüren von möglichen Rohstofflagerstätten, Stadtplanung, Erntevorhersagen, Überwachung von Küstenerosion, Aufspüren von seismologisch oder vulkanologisch bedingten Oberflächendeformationen.

Quelle: Natural Resources Canada (R.o.)

RADARSAT-1 stellte im März 2013 nach 17 Jahren Dienst aufgrund eines Defekts seine Arbeit ein. Die Datenkontinuität wird durch den Start von RADARSAT-2 auf einer Sojus-Rakete im Dezember 2006 gewährleistet.

Weitere Informationen:

Radarschatten

Engl. radar shadow, franz. ombre de radar; in der Radar-Fernerkundung informationslose Bereiche, also Bereiche ohne Signal, die in Entfernungsrichtung (von der Antenne abgewandt) hinter einem Objekt auftreten, das seine Umgebung überragt. Radarschatten erscheinen in Radarbildern sehr dunkel.
DIN 18716 definiert: Ein "informationsloser dunkler Bereich eines Radarbildes, der entsteht, wenn von der Antenne abgewandte Geländeflächen stärker geneigt sind als die Radarwellenfront".

Radarsensor

Mikrowellenimpulse aussendendes und empfangendes Instrument, welches bei der Radarerkundung eingesetzt wird. Man unterscheidet bildformende/-gebende und profilschreibende Sensoren.

Radarsignal

Engl. radar backscatter; die von einem Objekt rückgestreute und von einem Empfänger aufgenommene Mikrowellenstrahlung eines Radarsystems. Die Grauwerte in einem Radarbild sind proportional zu der von einem Objekt empfangenen Radarrückstreuung. Objekte mit starker Reflexion zurück zum Sensor erscheinen hell, Objekte mit geringerer Reflexion dunkler. Das Ausmaß der Rückstreuung hängt von den Objekteigenschaften ab, (geometrische Form, Oberflächenrauigkeit, lokaler Einfallswinkel, Dielektrizitätskonstante) sowie von den Sensoreigenschaften (Wellenlänge/Frequenz, Einfallswinkel, Polarisation, Beobachtungsrichtung).

Radarsystem

Engl. radar system; bei Radarsystemen handelt es sich um aktive Fernerkundungsverfahren, d.h. die verwendete elektromagnetische Strahlung wird vom Aufnahme-System selbst erzeugt. Dabei handelt es sich stets um Mikrowellenstrahlung einer bestimmten Frequenz im Bereich zwischen etwa 1 und 100 cm Wellenlänge. Die Daten-Aufnahme ist deshalb unabhängig von den naturgegebenen Strahlungsverhältnissen und - da die Mikrowellen Wolken, Dunst und Rauch durchdringen - auch unabhängig von der jeweiligen Wetterlage.
Radarsysteme erfassen und lokalisieren ausgestrahlte und reflektierte Strahlung, womit sie Höhen messen und Geländebilder erzeugen.

Beistehende Abbildung skizziert die Funktionsweise eines einfachen Radarsystems. Im Flugzeug wird ein kombinierter Sender/Empfänger mitgeführt, dessen Antenne schräg nach unten gerichtet ist. Sie ist so konstruiert, dass sich die in einem Bruchteil einer Sekunde ausgestrahlten Mikrowellen in einen sehr schmalen, aber langen Raumwinkel hinaus senkrecht zur Flugrichtung ausbreiten. Zu einem bestimmten Zeitpunkt erreicht die Front der ausgesandten Wellen ein bestimmtes Flächenelement F des Geländes. Von diesem wird die auftreffende Mikrowellenstrahlung teilweise reflektiert; ein mehr oder weniger großer Anteil der reflektierten Strahlung kehrt zurück zur Antenne und wird dort als Signal empfangen und registriert. Da die von den Mikrowellen bestrahlte Fläche über das Gelände hinwegwandert, können die Reflexionssignale von einem schmalen Geländestreifen nacheinander erfasst und als Bildzeile aufgezeichnet werden. Durch die Vorwärtsbewegung des Flugzeugs entsteht dann - wenn die Folge von Senden und Empfangen systematisch wiederholt wird eine vollständige zeilenweise Bildaufzeichnung eines neben dem Flugzeug verlaufenden Geländestreifens. Ein nach diesem Prinzip arbeitendes System wird Seitensicht-Radar (engl. Sidelooking Airborne Radar oder SLAR) genannt.

Schematische Darstellung der Radar-Aufnahme Schematische Darstellung der Radar-Aufnahme


Die durch Aussendung einer einzelnen Wellenfront und den Empfang der
reflektierten Signalfolge entstehende Bildzeile ist als Grauwertprofil dargestellt.

Zu größerer Darstellung auf Grafik klicken.

Quelle: Albertz 2001

Solche Systeme (auch als Systeme mit Realer Apertur genannt) sind nur für geringe Flughöhen geeignet, bei denen die Entfernung zwischen Antenne und Gelände nicht zu groß ist.

Um in Flugrichtung eine höhere Auflösung zu erreichen und insbesondere die Aufnahme von Radarbildern auch von Satelliten aus möglich zu machen, müssen Radar-Systeme mit Synthetischer Apertur (engl. Synthetic Aperture oder SAR) eingesetzt werden. Dabei wird nur eine kurze Antenne verwendet, welche die Mikrowellenimpulse in einer breiten Keule mit dem Öffnungswinkel γ abstrahlt. Während des Fluges werden die einzelnen Geländepunkte aber wiederholt bestrahlt. Dementsprechend tragen sie mehrfach zu den empfangenen Reflexionssignalen bei, welche dadurch in komplexer Weise miteinander korreliert werden. Bei der Verarbeitung können die Daten jedoch so behandelt werden, als würden sie von einzelnen Elementen eines sehr langen Antennenarmes stammen. Dadurch lassen sich Bilddaten mit hoher geometrischer Auflösung ableiten. Je weiter die Geländepunkte von der Antenne entfernt sind, desto häufiger werden sie abgebildet und desto länger ist die scheinbare (synthetische) Antenne. Dies führt dazu, dass die Auflösung Δx in der Flugrichtung entfernungsunabhängig wird.

Zur Wirkungsweise von Radar-Systemen mit synthetischer Apertur Zur Wirkungsweise von Radar-Systemen
mit synthetischer Apertur



Die nahe gelegenen Geländepunkte werden nur wenige
Male während der kurzen Flugstrecke, die entfernt
gelegenen während einer längeren Flugstrecke häufiger
erfasst (hier: a=2mal, b=4mal, c=6mal).

Quelle: Albertz 2001

Die Art und Weise, wie die Erdoberfläche in Radar-Bildern wiedergegeben wird, hängt vom Zusammenwirken vieler Einzelfaktoren ab. Dabei handelt es sich um

  • Parameter des Aufnahmesystems, wie die Wellenlänge der Strahlung, ihre Polarisation und den Depressionswinkel, sowie um
  • Parameter der Geländeoberfläche, insbesondere die Oberflächenrauhigkeit, die Oberflächenform und die elektrischen Eigenschaften der Materialien.

Die Wellenlänge bzw. Frequenz der verwendeten Mikrowellenstrahlung wird durch die technischen Einzelheiten des Systems definiert. Üblich, aber ohne einheitliche Festlegung ist die Kennzeichnung einzelner Wellenbereiche durch Buchstaben. Die in der FE am häufigsten verwendeten Frequenzbereiche sind:

Häufige Frequenzbereiche in der Fernerkundung
Ka-Band λ ≈ 0,7 - 1 cm f ≈ 30 - 40 GHz
X-Band λ ≈ 2,4 - 4,5 cm f ≈ 7 - 12 GHz
C-Band λ ≈ 4,5 - 7,5 cm f ≈ 4 - 7 GHz
L-Band λ ≈ 15 - 30 cm f ≈ 1 - 2 GHz
P-Band λ ≈ 60 - 300 cm f ≈ 0,2 - 0,5 GHz

Die Unterschiede sind deshalb wichtig, weil die Wechselwirkung zwischen der Strahlung und den Materialien an der Erdoberfläche in den einzelnen Wellenlängenbereichen sehr unterschiedlich ist.

Von Polarisation spricht man, wenn elektromagnetische Wellen nur in einer ausgezeichneten Richtung schwingen. Die von der Antenne abgestrahlten Mikrowellen können horizontal (H) oder vertikal (V) polarisiert sein. Beim Empfang kann das System wiederum auf horizontale oder vertikale Polarisation eingestellt sein. Dadurch sind vier Kombinationen der Polarisation ausgesandter und empfangener Mikrowellen möglich, nämlich HH, VV, HV und VH. 

Aufnahme-Parameter in der Radartechnik Aufnahme-Parameter in der Radartechnik


Von zwei parallelen Flugbahnen aus kann ein Geländestreifen
in stereoskopischer Überdeckung aufgenommen werden. Ein
Punkt des Geländes erscheint dann in den Bildern unter
verschiedenen Depressionswinkeln.

Zu größerer Darstellung auf Grafik klicken.

Quelle: Albertz 2001

Als Depressionswinkel bezeichnet man in der Radartechnik den Winkel zwischen der Horizontebene des Aufnahmesystems und dem Strahl zum beobachteten Objekt. Der auch Einfallswinkel (incidence angle) genannte Winkel wirkt sich unmittelbar auf die Auflösung des Systems quer zur Flugrichtung aus und bestimmt die Bestrahlungsstärke der Geländeoberfläche. Außerdem steht er in engem Zusammenhang mit der Geometrie der Abbildung und der Möglichkeit, Stereobildstreifen aufzunehmen.
Die Oberflächenrauhigkeit hat großen Einfluss auf die Reflexionscharakteristik einer Fläche. Ist sie im Vergleich zur Wellenlänge der Strahlung gering, dann werden die Mikrowellen gespiegelt; zum System kehrt dann praktisch kein Signal zurück, so dass solche Flächen im Radarbild dunkel erscheinen.

Reflexion von Mikrowellen an Oberflächen verschiedener Rauhigkeit Reflexion von Mikrowellen an Oberflächen verschiedener Rauhigkeit

Links: Spiegelnde Reflexion an einer im Verhältnis zur Wellenlänge glatten Fläche (z.B. Sand)
Rechts: Diffuse Reflexion an einer rauhen Fläche (z.B. Felsbrocken).

Quelle: Albertz 2001

Liegt die Rauhigkeit dagegen in der Größenordnung der Wellenlänge, so wirkt die Fläche als diffuser Reflektor. Mischformen der Reflexion sind häufig.
Die jeweilige Oberflächenform führt dazu, dass manche Flächen der schräg einfallenden Mikrowellenstrahlung zugewandt sind und deshalb stärker bestrahlt werden, während die abgewandten Flächen nur geringe Bestrahlung erfahren. Im Bild erscheint deshalb die Geländefläche je nach ihrer Exposition in bezug auf das Radarsystem heller oder dunkler. Wenn eine systemabgewandte Fläche steiler geneigt ist als der Depressionswinkel, dann erhält sie überhaupt keine Bestrahlung. Das Radarbild zeigt dann völlig informationslose tiefe Schlagschatten, sog. Radarschatten.

Als Besonderheit der Radar-Aufnahme treten Rückstrahl-Effekte auf, und zwar wenn benachbarte horizontale und vertikale Flächen zum Sensor hin orientiert sind und spiegelnd reflektieren.

Radar_Rueckstrahl Rückstrahl-Effekt bei der Aufnahme von Radarbildern

Durch zweimalige Spiegelung wird die Mikrowellenstrahlung genau in Richtung auf den Sensor reflektiert. Im Bild entsteht ein heller, überstrahlter Fleck.

Quelle: Albertz 2001

Von großem Einfluss auf die Ausbreitung der Mikrowellen und damit auf das Reflexionsvermögen sind die elektrischen Eigenschaften der Materialien an der Erdoberfläche. Besonders starke Reflexion tritt an metallischen Strukturen (z.B. Zäune, Masten von Hochspannungsleitungen u.ä.) auf. Andere Materialien mit hoher Dielektrizitätskonstante (z.B. feuchte Böden) reflektieren stark, und die Strahlung dringt nur wenig in das Material ein. Mit abnehmender Dielektrizitätskonstante (z.B. mit abnehmender Bodenfeuchte) wird auch das Reflexionsvermögen geringer, die Eindringtiefe nimmt jedoch zu. Das zu beobachtende Reflexionssignal hängt demnach von einer mehr oder weniger dicken Oberflächenschicht ab und mag deshalb auch Informationen zu vermitteln, die z.B. mit optischen Sensoren nicht erfassbar sind.

Die Wechselwirkung zwischen der Mikrowellenstrahlung und den Materialien an der Erdoberfläche ist kompliziert, die Interpretation von mit Radar-Systemen gewonnenen Bildwiedergaben entsprechend schwierig.

Für den Satelliteneinsatz kam von Beginn an nur das SAR-Verfahren in Frage. Experimentellen Charakter hatte noch sein Einsatz im Satelliten SEASAT-1 (1978) und ab 1981 in mehreren Space-Shuttle-Flügen mit dem Shuttle Imaging Radar (SIR). Kontinuität setzte mit den europäischen FE-Satelliten ERS (1991/5), ENVISAT (2002) und dem kanadischen RADARSAT ein. Die ERS sind mit den SAR-Systemen AMI ausgestattet, ENVISAT mit der Weiterentwicklung ASAR und RADARSAT trägt ein SAR-System, das in verschiedener Weise betrieben werden kann.
Der Einsatz des INSAR während der Shuttle Radar Topography Mission erlaubte die Erstellung eines weltweiten digitalen Geländemodells. Radarsatelliten wie der ERS-1 werden auch zur Eisbergwarnung eingesetzt. Eine Beschränkung stellt allerdings die Wiederholrate der Überflüge dar, die etwa bei 1 Woche liegt. Das deutsche Bundesamt für Seeschiffahrt und Hydrographie verwendet z.Z. SAR-Daten des ERS-2 aus der Quicklook-Kette operationell zur Eiswarnung. Der dänische Eisdienst verwendet RADARSAT-Daten. Eine Schwadbreite von ca. 500 km ermöglicht eine tägliche Abdeckung.

Weitere Informationen:

Radianz

Engl. radiance; syn. Flächenhelligkeit, Bezeichnung für die Strahlungsflussdichte pro Raumwinkeleinheit.

Radiometer

Engl. radiometer, franz. radiomètre; ein passives Instrument, das elektromagnetische Strahlung mengenmäßig erfasst, gewöhnlich im Mikrowellen-, Infrarot- und Nah-Infrarot-Bereich. Nach DIN 18716ein "Instrument zur Messung der elektromagnetischen Strahldichte".

Von der z.B. an Satelliten ankommenden Strahlung wird immer nur ein kleiner Teil gemessen, bestimmt durch die Eigenschaften des Radiometers wie Wellenlänge, Raumwinkel und Blickrichtung. Daraus ergibt sich, dass für verschiedene Messaufgaben Radiometer mit ganz verschiedenen, jeweils optimierten Eigenschaften eingesetzt werden.

Wettersatelliten tragen Radiometer um die Strahlung von Schnee, Eis, Wolken, Wasserkörpern, der Erdoberfläche und der Sonne zu messen. Damit wird der Flüssigwasser- und Wasserdampfgehalt der Atmosphäre ermittelt. Auch werden die Messungen dazu verwendet, Altimeterdaten zu korrigieren, beispielsweise durch die Messung der reflektierten Strahlung von der Meeresoberfläche. Abbildende Radiometer vermögen ihre gescannten Informationen in einem zweidimensionalen Pixelmuster anzuordnen, das dann für eine bildhafte Darstellung verwendet wird.

Es werden unterschieden:

Radiometrie

Sammelbegriff für alle das Rückstrahlungsverhalten von Objekten betreffenden Aspekte, im Unterschied zu den geometrischen Eigenschaften von Fernerkundungsdaten.

radiometrische Auflösung

Engl. radiometric resolution, franz. résolution radiométrique; Maß für die kleinste mit einem Fernerkundungssystem noch unterscheidbare elektromagnetische Strahlung, in Abhängigkeit von der betrachteten Wellenlänge und vom Detektorsystem. Die Auflösung wird bestimmt durch das Signal-Rausch-Verhältnis, den Dynamikbereich und die Quantisierung.
Die radiometrische Auflösung gibt Auskunft über die Anzahl der Grauwertabstufungen, die das Aufnahmesystem in jeder einzelnen Filmschicht bzw. in jedem Kanal erfassen kann.
Übertragen auf die Alltagserfahrung und eingeschränkt auf das sichtbare Licht heißt dies: Die radiometrische Auflösung gibt an wie gut kleine "Helligkeitsunterschiede" innerhalb einer Aufnahme wahrgenommen werden können und sie gibt die mögliche Grösse der digital numbers (DN) in einem Kanal an. Die digital numbers werden von 0 bis 2x-1 angegeben. Der Bereich stimmt überein mit der Anzahl der Bits, die gebraucht werden, um den Zahlenwert in das binäre Format zu codieren (1 bit = 21 = 2). Der Maximalwert für die Darstellung einer Energiemenge ist durch die Anzahl der Bits definiert. Die Daten der meisten digitalen Aufnahmesysteme (Scanner) weisen eine radiometrische Auflösung von 8 bit auf. Bei Bilddaten photographischer Systeme geht man von etwa 6 bit (also etwa 64 Grauabstufungen) aus.

BitGWr Bits und Grauwerte

Die radiometrische Auflösung von Bilddaten der Fernerkundung gibt an, wie gut man Grauwerte voneinander unterscheiden kann. Ihre Einheit heißt Bit. Je mehr Bit ein Bild hat, um so mehr Grauwerte können gespeichert und um so mehr Unterschiede im Reflexionsverhalten der Landoberfläche können festgestellt werden.

Quelle: FIS

Bei einer 8-Bit Darstellung (28) können die DN Werte zwischen 0 und 255 annehmen. Die Daten des ERS-1/2 sind in 16-Bit kodiert, das bedeutet die DN liegen zwischen 0 und 65535. Je feiner die Unterscheidung zwischen den geringsten und den höchsten Helligkeitswerten ist, umso besser kann die Aufnahme interpretiert bzw. klassifiziert werden.

Ältere Systeme können lediglich 64 Helligkeitsstufen bzw. Grauwertabstufungen (entspricht 6 bit) unterscheiden, wobei mit neueren Systemen 2048 Helligkeitsstufen (z.B. 11 Bit bei IKONOS) erreicht werden oder sogar 12 bit (212 oder 4096 Grauwerte) bei flugzeuggestützten Multispektralsensoren wie HRSC-AX oder DMC.

Zu den radiometrischen Eigenschaften zählen:

  1. Rauschen: sind statistische Schwankungen von Messdaten. Die Leistungsfähigkeit eines Sensors ist abhängig vom Signal/Rausch-Verhältnis.
  2. Kalibrierung: Es besteht ein Zusammenhang zwischen den Messdaten und den beobachteten physikalischen Größen. Optimale Sensorauslegung auf projektierten Anwendungszweck.
  3. Spektrale Auflösung: Anzahl der Spektralkanäle, Bandbreite der Kanäle
  4. Konsequenzen für Bildauswertung: die radiometrische Genauigkeit ist bei photographischen Verfahren gering; allerdings ist sie hoch bei Abtastaufnahmen (Scannersysteme)
radiometrische Korrektur

Engl. image restoration; syn. radiometrische Verbesserung, Beseitigung von während der Datenaufnahme oder -übertragung aufgetretenen radiometrischen Bildfehlern durch Atmosphärenkorrektur bzw. Beleuchtungskorrektur. Radiometrische Korrekturen verbessern die Bildqualität und gleichen Farbübergänge zwischen benachbarten Bildausschnitten aus. Es werden also Effekte kompensiert oder zumindest reduziert, die nicht objektspezifisch sind und sich den eigentlichen Objektinformationen in störender Weise überlagern.

Radionavigation

Verfahren der Navigation, die auf dem Empfang von Radiosignalen beruhen. Zu unterscheiden sind satellitengestützte und bodengebundene Verfahren. Wichtigste Verfahren der Satellitennavigation sind das Global Positioning System und GLONASS. Die bodengebundenen Verfahren haben mit dem Aufkommen der Satellitennavigation weitgehend an Bedeutung verloren, da sie hinsichtlich Reichweite und Genauigkeit beschränkt sind.

Radio-Okkultation

Engl. radio occultation; eine Fernerkundungs-Messtechnik zur Sondierung planetarer Atmosphären unter Benutzung phasentreuer Radiosignale, die sich durch die Atmosphäre von einem Sender zu einem Empfänger ausbreiten. Sowohl Sender als auch Empfänger befinden sich während der Messphase außerhalb der zu sondierenden Atmosphäre.
Die Durchführung der Messung erfordert eine spezielle Geometrie des Raumfahrzeugs zur Empfangsstation, wobei das Raumfahrzeug während der Messung aus Sicht des Empfängers hinter dem Planeten verschwindet und somit in Okkultation geht. Während der Radiostrahl vom Weltraum oberhalb der Atmosphäre zu einem Punkt in die Atmosphäre läuft, findet eine kontinuierliche Aufzeichnung der Beobachtungsdaten statt. Das sondierte Medium wirkt in charakteristischer Weise auf das Radiosignal und verändert dessen Phase, Amplitude und Polarisation. Die Signalbeeinflussung durch das Medium erzeugt einen zeitabhängigen Datensatz, der dem Höhenprofil des Brechungsindex entspricht. Dieses Profil der Neutral-Atmosphäre ist für Gasgemische proportional zur Dichte, woraus sich mit der hydrostatischen Grundgleichung und dem idealen Gasgesetz Höhenprofile von Druck und Temperatur der Neutral-Atmosphäre berechnen lassen. Aus der Proportionalität der Elektronendichte zum Höhenprofil des Brechungsindex sind zusätzlich Aussagen über die Elektronendichte der Ionosphäre möglich.

Wenn Radiookkultations-Missionen mit Funksignalen von GPS-Satelliten oder generell von Navigationssatelliten arbeiten, benutzt man den Begriff GPS-RO bzw. GNSS-RO (Global Navigation Satellite System-Radio Occultation). Derartige Messungen können auch von Flugzeugen oder von hohen Berggipfeln aus durchgeführt werden.

Beispielsweise nutzte CHAMP die Signale der GPS-Satelliten zur Temperatur- und Wasserdampfmessung an täglich über 200 global verteilten Orten von der Erdoberfläche bis in 40 km Höhe. Die Signale werden dabei immer dann aufgezeichnet, wenn die GPS-Satelliten aus dem Blickwinkel von CHAMP am Erdhorizont verschwinden. Beim Durchlaufen der Atmosphärenschichten werden die Wege der GPS-Signale abhängig von Temperatur und Wasserdampfgehalt gekrümmt. Aus der präzisen Messung einer Serie von Brechungswinkeln während der GPS-Radiookkultation können mit mathematischen Verfahren die Atmosphäreneigenschaften mit hoher Genauigkeit berechnet werden.

Die CHAMP-Messungen schließen Lücken im globalen meteorologischen Beobachtungsnetz für Wettervorhersage und Klimaforschung, besonders über unzugänglichen Regionen der Erde, wie z.B. über den Ozeanen oder Polargebieten. Im Vergleich dazu ist die Stationsverteilung für den Start von Wetterballonen sehr ungleichmäßig. Die GPS-Radiookkultationstechnik ermöglicht im Gegensatz zu anderen Satellitenmethoden insbesondere die Erfassung von Klimatrends, die durch langfristige Veränderungen von Temperatur und Wasserdampf in verschiedenen Atmosphärenschichten über verschiedenen Regionen der Erde charakterisiert werden. Die Daten von CHAMP sind dabei der Beginn eines Datensatzes, der von einer Reihe anderer, 2006 gestarteten Satelliten fortgesetzt wird (U.S.-taiwanesische Mehrsatellitenmission FORMOSAT-3/COSMIC, europäischer MetOp).

Beispiele für klimarelevante Messungen von CHAMP sind globale Verteilungen des Wasserdampfes als wichtigstem Treibhausgas und der Tropopausenhöhe. Die Tropopause kennzeichnet die Obergrenze der erdnächsten Atmosphärenschicht, der Troposphäre, in der sich alle Wetterereignisse abspielen. Wissenschaftliche Studien zeigen, dass eine klimatische Erwärmung der Troposphäre zu einer größeren Tropopausenhöhe führt. Vieles deutet zurzeit darauf hin, dass Veränderungen in der Tropopausenregion ein klareres Klimasignal enthalten als Messungen an der Erdoberfläche.

gps_ro

Zu größerer Darstellung auf Grafik klicken

Quellen: idw, GFZ
GPS Radio-Okkultation

Niedrigfliegende Satelliten empfangen GPS-Signale, welche die Atmosphäre durchquert haben. Daraus lassen sich die Temperatur-schichtung und die Höhe von Druckflächen sehr genau berechnen.

Beispielsweise nutzte CHAMP die Signale der GPS-Satelliten zur Temperatur- und Wasserdampfmessung an täglich über 200 global verteilten Orten von der Erdoberfläche bis in 40 km Höhe. Die Signale werden dabei immer dann aufgezeichnet, wenn die GPS-Satelliten aus dem Blickwinkel von CHAMP am Erdhorizont verschwinden. Beim Durchlaufen der Atmosphärenschichten werden die Wege der GPS-Signale abhängig von Temperatur und Wasserdampfgehalt gekrümmt. Aus der präzisen Messung einer Serie von Brechungswinkeln während der GPS-Radiookkultation können mit mathematischen Verfahren die Atmosphären-eigenschaften mit hoher Genauigkeit berechnet werden.

 

Beispiele von Radiookkultationsmissionen:

Einsatz-Beispiele für Radiookkultationen:

  • Titanatmosphäre
    Die Raumsonde Voyager 1 stellte mit Hilfe der Radio-Okkultation beim Saturnmond Titan die Dichte, die chemische Zusammensetzung und die Höhe seiner Atmosphärenschichten fest.
  • Bestimmung des Durchmessers von Titan
    Auch der Monddurchmesser konnte mit Hilfe der Okkultationsmethode bestimmt werden. Die hohe Opazität (Undurchsichtigkeit) der Atmosphäre machte eine optische Bestimmung des Monddurchmessers mit der Kamera nicht möglich, jedoch konnte durch die Zeit, die vom Verlöschen des Signals an einer Seite des Mondes bis zum Wiederauftauchen des Signals an der gegenüberliegenden Mondseite verging, sein Durchmesser errechnet werden.
  • GPS-Radiookkultation
    Der deutsche Geoforschungssatellit CHAMP (2000-2010) beobachtete die Signale von GPS-Satelliten kurz vor oder nach ihrer Okkultation durch die Erde. Aus dem Vergleich mit den Werten, die von einem Satelliten ohne atmosphärische Störungen zu erwarten wären, lassen sich Aussagen über Wassergehalt und Temperatur der Atmosphäre ableiten.

Weitere Informationen:

Radiosonde

Ein Ballon-getragenes Instrumentenset aus der Aerologie, zur direkten Meßwertnahme meteorologischer Parameter von der Erdoberfläche bis in eine Höhe von ca. 30 km und zur unmittelbaren Datenübermittlung. Entsprechend setzt sich auch der Name aus zwei Teilen zusammen, 'Radio-' (engl. für Funkgerät) und '-sonde', der Bezeichnung für die Messfühler. Die Radiosonde wurde 1927 von Moltschanoff erfunden. Schon in den folgenden Dekade entstand vor allem in Europa und den USA ein Radiosondenmessnetz, mit dessen Messwerten Höhenwetterkarten erstellt wurden.

Die Bedeutung von Radiosonden liegt in der direkten Art der Datengewinnung, ein Vorteil gegenüber anderen Verfahren, die überwiegend aus der Ferne, z.B. von Wettersatelliten aus arbeiten. Nur mit einer Radiosonde kann die Atmosphäre mit ausreichender Höhenauflösung und Genauigkeit vermessen werden, um ein genaues Bild über deren aktuellen Zustand zu erhalten.
Radiosondenaufstiege werden i.a. zweimal täglich weltweit durchgeführt (üblicherweise 0000 und 1200 UTC). Global bestehen ca. 1.500 Stationen, die sich am diesbezüglichen Programm Integrated Global Radiosonde Archive (IGRA) beteiligen, das vom National Climatic Data Center der NOAA betrieben wird. IGRA verfügt über 28 Mio qualitätsüberprüfte Radiosondenbeobachtungen über einen Zeitraum von 1938 bis 2005.

Radiosonden-Stationen Die Standorte der IGRA-Stationen


Zu größerer Darstellung auf Grafik klicken




Quelle: NOAA

Der mit 4 m3 Wasserstoff gefüllte Gummi-Ballon (800 g) trägt die 30 m unter dem Ballon angebrachte Instrumentenkapsel (650 g) mit einer definierten Steiggeschwindigkeit von ca. 300 m pro Minute. Während des Aufstieges werden über die Messfühler ständig Messwerte genommen und über die Sendeeinheit per Funk an die Bodenempfangsstation übertragen. Die Instrumente messen Temperatur (Bimetallthermometer), Luftfeuchte (Haarhygrometer) und Luftdruck (Aneroidbarometer). Durch Verfolgung der Sonde mit Theodoliten, mittels Radar oder mit Hilfe von GPS kann auch der (Höhen-)Wind bestimmt werden. Für die Radar-Verfolgung wird ein zusätzlicher Reflektor an der Sonde angebracht.

Mit dem Aufstieg dehnt sich der Ballon wegen des abnehmenden Luftdrucks aus. Bei Erreichen der maximalen Höhe platzt der Ballon (Rekord im Bereich des DWD bei ca. 39 km bzw. 2,5 hPa), und die Instrumentenschachtel aus Styropor schwebt an einem Fallschirm zur Erde zurück. Etwa 25 % der Instrumente werden gefunden (Vergütung für die Finder) und erneut eingesetzt.

Ballone, die keine Instrumente, sondern lediglich einen Radar-Reflektor tragen, nennt man Pilotballone. Sie dienen zur Erfassung des vertikalen Windprofils. Die Wolkenuntergrenze kann man bestimmen, indem man das Verschwinden des Ballons in der Wolke beobachtet. Ferner kommen Spezialradiosonden zum Einsatz, zu denen Ozonsonden mit optischen oder elektrochemischen Sensoren sowie Strahlungssonden zählen.

Radiosonden Radiosonde

1 Gehäuse
2 Barometer
3 Sensoreinheit
4 Wind (Sensor/Sender)
5 Einstellschraube
6 Antennenbodenplatte
7 403 MHz Antenne
8 Antennenstab Windsensor
9 Temperatursensor
10 Feuchtigkeitssensor
11 Schutzdeckel
12 Sensorstützleiste
13 Batterie

Zu größerer Darstellung
auf Bild klicken

Radiosondenaufstieg

Ein typisches Radiosondenaufstiegsgespann besteht aus einem mit Wasserstoff gefüllten Gummiballon (spezieller Latex mit 0,05 - 0,1mm Wandstärke), einem Papierfallschirm, ggf. einem Radarreflektor (mit Reflektorfolie bespanntes Pappkreuz) und der Radiosonde mit ggf. GPS-Empfänger. Alle Teile sind durch Schnüre verbunden, wobei sich die Radiosonde ca. 30 m unter dem Ballon befindet. Beim Aufsteigen dehnt sich der Ballon wegen des abnehmenden Luftdrucks ständig aus, bis er in ca. 20-30 km Höhe platzt (Rekord DWD bei ~39 km bzw. 2,5 hPa). Die Radiosonde fällt dann, vom Fallschirm gebremst, wieder zur Erde zurück.

Quelle: BOM
 

Der Einsatz von Radiosonden wird zwar den in situ-Methoden zugerechnet, mit ihrer Funktion der bodengestützten Bahnverfolgung zur Bestimmung des Höhenwindfeldes besitzt sie aber auch eine Fernerkundungskomponente. Ein weiterer Bezug zur Fernerkundung besteht in der Nutzung der Radiosondendaten zur unerläßlichen Kalibrierung und Validierung von z.B. Satellitendaten.

Weitere Informationen: Integrated Global Radiosonde Archive (NOAA, NESDIS)

Radiowellen

Frequenzen unterhalb von 3 GHz (entsprechend einer Wellenlänge von 10 cm); aufgrund der Transparenz der Atmosphäre in diesem Bereich wird dies auch als Radiofenster bezeichnet, was eine Beobachtung der Erdoberfäche aus dem Weltraum ermöglicht. Dies gilt natürlich auch für andere Fensterbereiche. Die Frequenzbänder P, L, S, C, X, K bezeichnen für Radargeräte genutzte Frequenzbereiche, deren kryptische Bezeichnung aus dem 2. Weltkrieg stammt. Neben aktiven Systemen wie Radar und Altimeter werden auch passive Radiometer (z.B. zur Messung der Bodenfeuchte oder Salinität) in diesem Frequenzbereich genutzt.

Im Ultrakurzwellenbereich (Wellenlängenintervall 0,1-1 m) hängt die Ausbreitung der Radiowellen von den physikalischen Eigenschaften der unteren Atmosphäre ab. Die Refraktion dieser Wellen wird von der vertikalen Temperatur- und Feuchteverteilung bestimmt. Wenn man diese Zusammenhänge nutzt, kann man aus den Empfangsbedingungen eines definierten Senders auf Elemente des Aufbaus der Atmosphärische Grenzschicht und zum Teil auch der Troposphäre schließen.

Radiowellen im Kurz-, Mittel- und Langwellenbereich (Wellenlängenintervalle 10-30.000 m) werden zur Sondierung der Ionosphäre eingesetzt. Neben speziellen Impulssendern, die die Bestimmung der Höhe der ionisierten Schichten gestatten, werden auch Radiowellen genutzt, die von kommerziellen Radiosendern ausgestrahlt werden. Damit kann man mit drei geeignet angeordneten Empfängern die Phasenverschiebungen der an einer ionosphärischen Schicht reflektierten Radiowellen messen und so unter bestimmten Voraussetzungen auf die Windverhältnisse in der Höhe der erfassten Schichten schließen.

Gewittertätigkeit kann global aus der Registrierung von Atmospherics (kurz auch Sferics) überwacht werden. Darunter versteht man die im Langwellenbereich bemerkbare Impulsstrahlung, die von elektrischen Entladungen in der Atmosphäre ausgeht.

In der meteorologischen Fernerkundung hat die Nutzung von Radiowellen gegenüber neueren Methoden an Bedeutung verloren.

räumliche Auflösung

Syn. geometrische A., Bildauflösung; engl. spatial resolution, geometric r., image r., franz. résolution spatiale; Maß der kleinsten identifizierbaren Fläche auf einem Bild als diskrete unabhängige Einheit.
Nach DIN 18716 gilt als räumliche Auflösung die "Fähigkeit eines Sensorsystems, Signale von benachbarten Objektstrukturen getrennt zu erfassen". Der Definition sind folgende zwei Anmerkungen beigefügt:

  1. "Die räumliche Auflösung kann entweder auf die Bildgröße (in μm) oder auf die Objektgröße (in m) bezogen werden (sofern auf Objektgrößen Bezug genommen wird, werden die Angaben in m auch als Bodenauflösung bezeichnet)."
  2. "Die geometrische Auflösung wird durch den Pixelabstand (Boden(pixel)auflösung, Ground Sample Distance, GSD) und die Modulationsübertragungsfunktion (MTF) bestimmt."

Bei Rasterdaten wird die räumliche Auflösung oft ausgedrückt als die Größe der Rasterzelle. Die Bodenauflösung in Zentimetern oder Metern gibt dann an, welche Strecke auf der Erdoberfläche ein Bildpunkt (Pixel) eines Orthophotos abbildet. Diese Aussage wird häufig so interpretiert, dass Objekte ab dieser Länge auf dem Bild sichtbar werden (bei einer Auflösung von 50 cm wären dann Objekte mit einer Länge von mindestens 50 cm sichtbar). Tatsächlich jedoch hängt die Sichtbarkeit von mehreren Faktoren ab, bspw. dem Kontrast des Objektes und seiner Umgebung. Daher sind oft auch Objekte mit einer Länge < Auflösung zu sehen.
In der Fernerkundung ist sie definiert bezüglich des Durchmessers der Grundfläche, die erkannt/unterschieden werden kann und ist häufig vergleichbar mit der Größe der Erdoberfläche, die von einem einzigen Pixel bedeckt wird. Damit hängt die Erkennbarkeit von Details in FE-Aufnahmen direkt von der räumlichen Auflösung ab. Häufig wird der Begriff auch synonym gebraucht mit Instantaneous Field of View (IFOV).
Die grob auflösenden, aber global aufgezeichneten Daten werden vorwiegend für klimarelevante Untersuchungen verwendet (Strahlungshaushalt der Erde, Wetterbeobachtung, Meereisbedeckung, Oberflächentemperatur), die hochauflösenden Daten hingegen zur topographischen und thematischen Kartierung (Bildkarten, Landnutzung, Ernteprognosen, Vegetation, Waldschäden, mineralogische Prospektion) sowie als Planungsgrundlage.
Die Fernerkundungssysteme an Bord der METEOSAT-Satellitenserie haben eine räumliche Auflösung von ungefähr 900 m, während die auf der SPOT-Serie bis hinunter auf 2,5 m, jene auf Ikonos II bis 1 m, die auf QuickBird II bis 61 cm (jeweils panchromatisch) auflösen kann.
Es wird vermutet, dass die Auflösung militärischer Aufklärungssatelliten 10 cm erreichen können.

spatial_resolution_1_lres spatial_resolution_2_lres Räumliche Auflösung

Links: Bilder von Harbour Town in Hilton Head, SC, mit verschiedenen nominellen räumlichen Auflösungen

Rechts: Bilder des gleichen Ausschnittes eines Wohngebietes in Mechanicsville, New York. Die Bilder wurden am 1. Juni 1998 aufgenommen mit einer nominellen räumlichen Auflösung von 0,3 x 0,3 m. Zum Einsatz kam eine Digitalkamera. Die dargestellten räumlichen Auflösungen sind simuliert und dazu durch Resampling der Originaldaten aus diesen abgeleitet.

Zu größerer Darstellung auf Abbildungen klicken

Quelle: Jensen 2009 (l) und 2007 (r)

Moderne Systeme erlauben die gleichzeitige Aufnahme von panchromatischen und multispektralen Daten. Durch Datenfusion ist es dann mit Einschränkungen möglich, multispektrale Bilder mit einer Auflösung zu generieren, die an jene der panchromatischen Aufnahme heranreicht.
Die hohe Auflösung wird durch eine verringerte Aufnahmebreite erkauft. Während die indischen Satelliten IRS-1C und IRS-1D mit einer Bodenauflösung von 5 Metern mit einem Überflug noch einen Streifen von 70 km abdecken, reduziert sich die Streifenbreite bei den 1m-Satelliten auf 4-20 km. Diese technisch bedingte Limitierung zieht eine herabgesetzte Überflugwiederholrate nach sich. Diese Einschränkung wird aufgehoben, indem die Sensoren verschwenkbar sind und zwei oder mehrere Satelliten der selben Serien in Umlauf gebracht werden sollen. Dadurch wird es möglich, idente Gebiete auch innerhalb kurzer Zeit wiederholt abzudecken, eine Tatsache, die für ein zuverlässiges Monitoring von Bedeutung ist.
Die eigentlich wünschenswerte hohe räumliche Auflösung bei möglichst vielen Systemen findet ihre Grenzen in den Datenmengen, die zu den Empfangsstationen am Boden übertragen werden müssen. Diese werden durch die Übertragungsfrequenz (X-Band) beschränkt, da an Bord keine oder nur minimale Speichermöglichkeiten gegeben sind. Eine Verbesserung der Pixelgröße um den Faktor 2 bedeutet eine 4-fache Datenmenge pro aufgezeichnetem Spektralkanal. Bei Landsat TM würde der Schritt von 30m-Pixeln zu 15m-Pixeln bei 7 Kanälen die 28-fache Datenmenge ergeben, d.h ein Bild würde anstatt 250 Byte dann 7 GByte groß werden. Aus diesem Grund bedingen sich Streifenbreite und Pixelgröße wechselseitig.

raumzeitliche_aufloesung_lres Räumliche und temporale Auflösung bei verschiedenen Anwendungen


Mit dem Anstieg der Anforderungen an die zeitliche Auflösung ist es in der Regel nötig, die räumliche Auflösung zu reduzieren, damit die Menge an Sensordaten noch handhabbar bleibt. Normalerweise sind für viele Anwendungen, die sehr detaillierte räumliche Informationen erfordern, z.B. Landnutzungs-kartierungen, zum Glück keine hohen temporalen Auflösungen vonnöten. Hierbei genügen gewöhnlich Datensätze, die alle 5 bis 10 Jahre erhoben werden. Ausnahmen gelten z.B. für die Bereiche Precision Farming, Ernteertragsuntersuchungen, Verkehrsstudien oder Notfall-Management, für die beide Auflösungsarten sehr gute Qualitäten liefern müssen und mit ihrer Datenfülle entsprechend schwierig zu verarbeiten sind.
Es kann auch zu weiteren Abwägungsnotwendigkeiten bezüglich anderer Auflösungsarten kommen.

Zu größerer Darstellung auf Grafik klicken

Quelle: Jensen 2007
 

Weitere Informationen:

Raketenstartplatz

Einrichtung zum Start von Raketen stellt eine oder mehrere Abschußrampen und Startleitstände zur Kontrolle der Startprozedur zur Verfügung. Für Flüssigkeitsraketen sind auch Anlagen zur Lagerung und ggf. Erzeugung des flüssigen Treibstoffes nötig.

Ein Raketenstartplatz wird möglichst weit entfernt von menschlichen Siedlungen errichtet, um Gefahren für die Bevölkerung bei einer Explosion möglichst gering zu halten. Meist wird ein Standort am Meer gewählt, da das Meer eine exzellente leicht zu überblickende Sicherheitsfläche für den gefahrlosen Niedergang von Raketenteilen darstellt.

Raketenstartplätze von denen auch Satelliten und interplanetare Raumflugkörper gestartet werden, werden auch als Weltraumbahnhof bezeichnet. Die bekanntesten Raketenstartplätze sind Cape Canaveral in den USA, Baikonur in Russland und Kourou in Französisch-Guyana. Daneben gibt es noch zahlreiche weniger bekannte Raketenstartplätze.

In Europa sind Esrange bei Kiruna in Schweden und Salto di Quirra auf Sardinien die wichtigsten Raketenstartplätze. Deutschland hat zur Zeit keinen Raketenstartplatz, besaß aber seit 1936 dreimal einen und zwar von 1936 bis 1945 in Peenemünde, der hauptsächlich zur Erprobung (nicht zum militärischen Einsatz!) der A4/V2 diente, von 1957 bis 1964 im Wattengebiet von Cuxhaven, von den Ernst Mohr, die "Herrmann-Oberth-Gesellschaft e.V." und die "Berthold-Seliger-Forschungs- und Entwicklungsgesellschaft mbH" diverse Raketen, wie die Kumulus und die Cirrus starteten und auf der Halbinsel Zingst an der Ostseeküste, wo sich von 1988 bis 1992 ein Startplatz für russische MMR06-M Raketen befand. Polen startete in den 70er Höhenforschungsraketen vom Typ Meteor von Truppenübungsplätzen in der Nähe von Leba und Ustka.

Weitere Informationen:

Raman-Streuung

Engl. Raman scattering; die inelastische Streuung von Licht an Atomen oder Molekülen. Das emittierte Streulicht ist bei der Raman-Streuung spezifisch und besitzt eine höhere oder niedrigere Frequenz als die des einfallenden Lichtstrahls. Der Anteil des frequenzver-schobenen Lichtes ist um einen Faktor 103 bis 104 geringer als der des elastisch gestreuten Lichtes, welches als Rayleigh-Streuung bezeichnet wird.

RapidEye

Kommerzieller Anbieter (RapidEye AG, seit 2013 BlackBridge AG, seit Juli 2015 durch die Übernahme von Blackbridge im Besitz von Planet Labs) von hochwertigen Fernerkundungsdatenund Geoinformations-Dienstleister, dessen Unterstützung von Management- und Entscheidungsprozessen auf eigenen Erdbeobachtungbildern basiert. RapidEye leitet die gleichnamige Satellitenmission (RapidEye Constellation) in nationaler und internationaler Kooperation. Die Mission besitzt Aufgaben zu Kartographie, Landoberflächen (z.B. Ermittlung von Ernteschäden), digitalen Geländemodellen, Katastrophenmanagement, Umweltmonitoring, 3D-Visualisierung.
Die ursprünglich in privat-öffentlicher Partnerschaft konzipierte zivile Mission arbeitet mit einem Finanzeinsatz von ca. 160 Millionen €. 15 Mio € Fördermittel kamen von Seiten des DLR, 10 % der Gesamtsumme vom Bundesministerium für Wirtschaft und Technologie.
Das Satellitensystem wurde seit 1996 von dem Münchner Raumfahrtunternehmen Kayser-Threde basierend auf Ideen des DLR als Leitprojekt zur Kommerzialisierung der Raumfahrt und als Teil des neuen Deutschen Raumfahrtprogramms entwickelt.
Das Kamerasystem der Mission wurde von dem Thüringer Unternehmen Jena-Optronik GmbH entwickelt und gebaut, welches im Jahr 2004 den Auftrag über die Entwicklung und Herstellung von MacDonald Dettweiler and Associates Ltd. (MDA), dem kanadischen Hauptauftragnehmer der Firma RapidEye AG, erhielt. Die britische Firma Surrey Satellite Technology Ltd (SSTL) baute die Satelliten.

Am 29. August 2011 übernahm das kanadische Unternehmen Iunctus Geomatics die RapidEye AG. Der Hauptsitz befindet sich - nach vorübergehendem Standort in Brandenburg an der Havel - seit Dezember 2012 am Kurfüstendamm, Berlin. Der Firmenname wurde am 6. November 2013 in BlackBridge AG umbenannt um den Marktauftritt aller BlackBridge-Firmen zu vereinheitlichen. Im Juli 2015 übernahm Planet Labs die Fa. BlackBridge und damit auch Rapideye.

Einzigartige Konstellation von 5 identischen Erdbeobachtungssatelliten mit beispiellosen Fähigkeiten (Animation)


Die RapidEye Konstellation mit 5 Satelliten hebt sich mit ihrer einziartigen Fähigkeit, täglich hochaufgelöste Bilder von großen Räumen zu liefern, von anderen Anbietern satellitenbasierter Geoinformationen ab.
Das RapidEye-System kann jeden Tag Daten von 4 Mio km² mit einer Auflösung von 6,5 m aufnehmen und hat innerhalb von zwei Jahren seiner kommerziellen Aktivitäten bereits Daten von über 2 Mrd. km² in seinem Archiv gespeichert.



'Geblockte Inhalte zulassen', evtl. vorher 'F5' drücken!


Quelle: RapidEye

Das System besteht aus 5 Satelliten, die sonnensynchron in ca. 630 km Höhe die Erde in ungefähr gleichen Abständen umlaufen. Die etwa kühlschrankgroßen Satelliten auf Basis des Satellitenbus MicroSat-100 haben eine Masse von ca. 156 kg und wurden gemeinsam am 29. August 2008 an Bord einer russisch/ukrainischen Dnepr-1-Trägerrakete vom Raketenstartplatz Baikonur (Kasachstan) in den Weltraum gebracht und nacheinander ausgesetzt. Ihre vorgesehene Lebensdauer beträgt 7 Jahre.

Das optische System liefert mit Hilfe von fünf Zeilenscannern mit jeweils 12.000 Pixeln multispektrale Bilder in fünf Bändern innerhalb des Wellenlängenbereichs von 440 nm bis 850 nm. Die Downloadübertragungsrate im X-Band beträgt mehr als 80 Mbps (Telemetrie Downlink 9,6 kBit/s, Control Uplink: 38,4 kBit/s). Die Sensoren sind quer zur Flugrichtung um bis zu 25 Grad in beide Richtungen schwenkbar. Dies ermöglicht die Aufnahme eines Gebietes aus verschiedenen Sichtwinkeln. Aus den resultierenden stereoskopischen Aufnahmen lassen sich digitale Geländemodelle ableiten. Die Sensoren können bis zu 77 km breite Bildstreifen (Schwadbreite) mit einer maximalen Länge von 1.500 km aufzeichnen. Dabei beträgt die geometrische Auflösung in jedem Kanal 6,5 Meter pro Pixel.

Quelle: RapidEye
Kanäle des RapidEye-Sensors

  • 440 - 510 nm (blau)
  • 520 - 590 nm (grün)
  • 630 - 685 nm (rot)
  • 690 - 730 nm (red-edge, liefert Aussagen über den Chlorophyllgehalt von Pflanzen)
  • 760 - 850 nm (NIR)

Jedes Gebiet der Erde soll innerhalb von weniger als fünf Tagen überflogen werden können. Das bedeutet im Einzelfall, dass durch die Möglichkeit des Schwenkens der Satelliten und die Tatsache, dass es sich um fünf baugleiche Satelliten handelt, es möglich sein wird, jeden Punkt der Erde jeden Tag zu erreichen. Hochaufgelöste Fotos mit einer Detailgenauigkeit von fünf Metern lassen sich beispielsweise in topographische Karten mit einem Maßstab von bis zu 1:25.000 umsetzen. Multitemporale Bilddaten geben unter anderem über Wachstumsentwicklungen auf Ackerbauflächen Aufschluss oder ermöglichen feldgenaue Kartierungen von Unwetterschäden.
Die Satelliten tragen Namen griechischen Ursprungs: Choma (Erde), Tachys (schnell), Mati (Auge), Trochia (Orbit) und Choros (All).

Anwendungsbereiche des RapidEye-Systems:
Landwirtschaft: RapidEye ist in der Lage, auf regionaler wie globaler Ebene die landwirtschaftliche Überwachung von Feldern in regelmäßigen Abständen durchzuführen. Die Informationen, welche aus den Bildern abgeleitet werden können, unterstützen Landwirte bei Precision Farming, landwirtschaftliche Versicherer bei Schadensbewertung und Risikomanagement oder Regierungen bei der Nahrungsmittelversorgung und Überwachung des Umweltschutzes.

Forstwirtschaft: Satellitengestütze Informationen werden zunehmend von Regierungen und kommerziellen Betreibern verwendet, um z. B. den Waldzustand zu bewerten, die ökologische und ökonomische Nachhaltigkeit der Forstbetriebe zu messen und illegalen Holzeinschlag und Entwaldung zu überwachen.

Sicherheit und Katastrophenschutz: Zeitnahe Aufnahmen von Krisengebieten ermöglichen eine schnelle Schadensanalyse, was von wesentlicher Bedeutung für das Krisenmanagement der Behörden und der Koordination der Rettungskräfte ist.

Umweltschutz: Satellitenbilder können Behörden und Organisationen wertvolle Informationen liefern, um die ökologischen Auswirkungen menschlicher Einflüsse zu überwachen.

Räumliche Darstellung: RapidEyes Satellitenbilder werden als Hintergrund für eine Vielzahl von Anwendungen wie beispielsweise Kartographie, Navigations- und Flugsimulation, Gaming und als integraler Bestandteil in geospezifischen 3D-Modellierung verwendet.

Energie & Infrastruktur: Die RapidEye-Konstellation kann Pipelines, Übertragunsnetze und andere Infrastrukturen überwachen um Problemstellen zu identifizieren wie z. B. Eingriffe in die Vegetation, nah stehende Gebäude, Ausbau von Straßen oder Leckagen. Die Daten können zur Klassifizierung von Bodenbedeckung und Bodennutzung eingesetzt werden, um Telekommunikationsunternehmen bei der Planung ihres Funknetzes zu unterstützen.

Weitere Informationen:

RapidSCAT

siehe ISS-RapidSCAT

RASS

Engl. Akronym für Radio-Acoustic Sounding System, dt. Radio-Akustisches Sondierungs-System; Kombination von Windprofiler-Radargeräten mit auf Schallquellenbasis arbeitenden SODAR-Geräten zur Messung der Temperatur.

Die ausgesandten akustischen Wellen erzeugen Wellenfronten, die sich mit Schallgeschwindigkeit ausbreiten und die elektromagnetische Brechungsindexschwankungen in der Luft erzeugen, an denen die Radarwellen gestreut werden. Durch das Windprofiler-Radar lässt sich nun, analog zur Messung des Radialwindes, die Schallgeschwindigkeit bestimmen. Sie hängt direkt von der Temperatur ab, so dass daraus das vertikale Temperaturprofil abgeleitet werden kann.
Die vertikale Reichweite ist hierbei auf Grund der starken Schwächung der akustischen Signale jedoch deutlich geringer als bei der Wind-messung. Je nach System werden im allgemeinen Messhöhen von 0,2 - 1 km (Grenzschichtwindprofiler) bzw. 0,5 - 4 km (Troposhärenwind-profiler) erreicht.

RASS-Kombination der Fa. Metek aus SODAR-Gerät und Erweiterung (Parabolantennen) zur Erstellung von Temperaturprofilen. RASS-Kombination der Fa. Metek aus Drei-Komponenten-SODAR und Erweiterung zur Erstellung von Temperaturprofilen.

Links: RASS-Kombination der Fa. Metek aus SODAR-Gerät und Erweiterung (Parabolantennen) zur Erstellung von Temperaturprofilen.

Rechts: RASS-Kombination der Fa. Metek aus Drei-Komponenten-SODAR und Erweiterung zur Erstellung von Temperaturprofilen.


Quelle: METEK
 

Weitere Informationen:

Rasterbild

Engl. raster graphics (image), bitmap, syn. Rastergrafik, Pixelgrafik; Rasterdaten, die einen bildhaften Informationsgehalt (Bildinformation) in Form von computerlesbaren Daten haben. Das sind z.B. Satellitenbilder, gescannte Luftbilder, Karten oder Pläne, aber auch Ergebnisse einer Klassifizierung. Derartige Bilder besitzen eine rasterförmige Anordnung (Matrix) von Pixeln (Bildpunkten), denen jeweils eine Farbe zugeordnet ist. Die Hauptmerkmale einer Rastergrafik sind daher die Bildgröße (Breite und Höhe gemessen in Pixeln, umgangssprachlich (!) auch Bildauflösung genannt) sowie die Farbtiefe.

RGB-Rastergrafik RGB-Rastergrafik

Links oben befindet sich ein Smiley als RGB-Rastergrafik (Bitmap). Rechts davon ist eine vergrößerte Darstellung. Jedes Quadrat stellt ein Pixel dar. Wenn noch weiter hineinzoomt, können die einzelnen Pixel analysiert werden, wobei deutlich wird, dass ihre Farben durch die Addition der Werte für Rot, Grün und Blau entstehen.

Zu größerer Darstellung auf Grafik klicken

Quelle: Wikipedia
 
Rasterdaten

Engl. raster data; Datenart eines speziellen Datenmodells (Rasterdatenmodell) zur Verwaltung von Geometrie- und Sachdaten. Die dem Modell zugrunde liegende Rasterung beruht auf der Unterteilung einer Ausgangsfläche in Elemente bestimmter Größe. Es entsteht eine Matrix, ein Raster von Bildpunkten (Pixel). Dabei handelt es sich meist um Quadrate oder Rechtecke, aber bei Verwendung geographischer Koordinaten als Bezugssystem auch um Trapeze. Sie haben eine bestimmte Position im Bild und weisen eine einheitliche Flächenfüllung (Farb- oder Grauwert) auf. Die Rasterzelle wird als Träger der geometrischen (Transformation von Lagekoordinaten) aber auch thematischen Information (Attribute eines Objektes) benutzt.
Zum Datenaustausch von Rasterdaten existieren eine Vielzahl von Datenformaten, wobei die meisten zur Speicherung von digitalen Bildern konzipiert sind. Von diesen wiederum erlauben nur einige eine Georeferenzierung bzw. Geokodierung des Bildes (z.B. GEOTIFF, ESRI-GRID, ERDAS-IMG).

Regelmäßige Raster als Dreiecks-, Vierecks- und Hexagonalraster Regelmäßige Raster als
Dreiecks-, Vierecks- und Hexagonalraster


Quelle: Geoinformatik-Service, Universität Rostock

Da Rasterdaten für jedes Pixel einen bestimmten Wert wiedergeben, eignen sie sich im Gegensatz zu Vektordaten zur Darstellung von kontinuierlichen Daten, wie z.B. der Konzentration von Schadstoffen oder der Abhängigkeit einzelner Werte im Raum von der Entfernung einer emittierenden Quelle (Ausbreitungsberechnungen). So gehört die Modellierung von unscharfen Phänomenen zu ihren Stärken.

Darstellung von Geländehöhen in einer Rasterdatenmatrix

 

Darstellung von Geländehöhen in einer Rasterdatenmatrix

 

Darstellung der Schallausbreitung in einer Rasterdatenmatrix

 

Darstellung der Schallausbreitung in einer Rasterdatenmatrix

Quelle: Geologie Universität Freiburg

Prinzip der Überführung von Vektordaten in die Matrixstruktur von Rasterdaten Prinzip der Überführung von Vektordaten in die Matrixstruktur von Rasterdaten

In der Kartographie spielen Rasterdaten gegenüber den Vektordaten eher eine untergeordnete Rolle. In den meisten Fälle werden Rasterdaten durch Scannen analoger Vorlagen (Karten, Luftbilder) gewonnen oder in Form von digitalen Aufnahmen sowie von Satellitenbilddaten übernommen. Ebenso finden Rasterdaten in der GRID-Datenstruktur im Digitalen Geländemodell Anwendung.

Darstellung von Objekten im Raster- und Vektorformat
Darstellung von Polygonen im Vektorformat

Darstellung von Polygonen im Vektorformat

Darstellung von Polygonen Im Matrixmuster des Rasterformats

Darstellung von Polygonen Im Matrixmuster des Rasterformats

Darstellung von Linien im Vektorformat

Darstellung von Linien im Vektorformat

Darstellung von Linien im Matrixmuster des Rasterformats

Darstellung von Linien im Matrixmuster des Rasterformats

Quelle: Geologie Universität Freiburg

Mit Methoden der digitalen Bildverarbeitung können die Bildpunkte klassifiziert werden. Es bilden sich dann Flächen gleicher Klassen. Die Zuordnung zu bestimmten Sachdaten muss über eine Legende erkennbar gemacht werden.

Weitere Informationen: Rasterdaten - Topographische Geobasisdaten Deutschland (BKG)

Rasterdatenmodell

Engl. raster data model; Datenmodell zur Verwaltung von räumlichen Daten (Geometriedaten) als eine Matrix von Zellen. Das Rastermodell spielt in der digitalen Bildverarbeitung eine zentrale Rolle. So wird die Geometrie in einem Rasterbild (z.B. in einem digitalen Satellitenbild oder nach der Erfassung eines Bildes mit einem Scanner) durch quadratische Bildelemente (Pixel, sog. picture elements) aufgelöst.

Die Rasterzelle (Pixel) dient als Träger der geometrischen und auch thematischen Information. Der Georaum unterliegt dabei einer regelmäßigen Unterteilung in Zeilen und Spalten. Das Raster benötigt lediglich Angaben bezüglich des Aufsatzpunkts, die Ausdehnung und die Richtung zur Georeferenzierung. Jedes Pixel erhält einen eindeutigen Wert, der als thematisches Attribut aufgefasst werden kann (z. B. die Höhe im Feld value eines digitalen Geländemodells). Alternativ kann dieser Wert auch als Schlüssel auf externe Daten verweisen. Auf diese Weise können Linien oder Flächen als Objekte gebildet werden, die aus einer Menge von Pixeln bestehen und diesen wiederum Sachdaten zugeordnet sind. In der Kartographie spielen Rasterdatenmodelle gegenüber den Vektordatenmodellen eher eine untergeordnete Rolle. In den meisten Fällen werden Rasterdaten als unstrukturierte Bilder durch das Scannen analoger Vorlagen (Karten, Luftbilder) gewonnen oder in Form von Satellitenbilddaten übernommen.

datenmodelle_sm Datenmodelle und Wirklichkeit

Die Perzeption und Interpretation der „realen Welt“ sowie die Entwicklung geeigneter Strategien für den praxistauglichen Umgang mit dieser Welt, findet mit dem Hilfsmittel der Abstraktion und Kommunikation ( = Modellbildung) statt.
In der Anwendung von GIS haben sich für die Modellierung räumlicher Daten zwei vollständig unterschiedliche Datenmodelle etabliert, die Raster- bzw. Vektordatenmodell genannt werden. Beide Datenmodelle sind prinzipiell sowohl für die kontinuierliche als auch die diskrete Raumrepräsentation verwendbar. In der Praxis werden jedoch kontinuierliche Daten gewöhnlich im Rasterdatenmodell und diskrete Daten im Vektordatenformat abgebildet. Beide Datenmodelle unterscheiden sich vorrangig in der Art der räumlichen Repräsentation ihrer Merkmale.

Zu größerer Darstellung auf Grafik klicken

Quelle: Universität Marburg Geographie
 

Als Grundprobleme des Rastermodells gelten: Die geometrische Form der Geoobjekte wird durch die Rasterung verändert, gebogene Linien werden durch treppenförmige Rasterstrukturen angenähert, Form und Größe der Geoobjekte werden vergröbert. Stets werden Flächen betrachtet. Punkte wie auch Linien werden durch flächige Pixel dargestellt. Im Rückschluss bedeutet dies, dass ein einzelnes oder auch mehrere benachbarte Pixel, die im Rastermodell eine Fläche markieren, in der realen Welt auch Einzelpunkte oder Linien bedeuten können. Diese Schwierigkeiten können verringert, aber prinzipiell nicht behoben werden, indem die Maschengröße verkleinert wird. Hierdurch erhöht sich die Auflösung, wobei gleichzeitig die Größe der Rastermatrix und dadurch der notwendige Speicherplatz erheblich ansteigen. Die Genauigkeit einer Koordinatenangabe im Vektormodell wird aber nicht erreicht.

Raumfahrt

Engl. spaceflight; Reisen oder Transporte in oder durch den Weltraum, nicht zu verwechseln mit der Luftfahrt, also dem Reisen durch die Erdatmosphäre. Diese klassische Trennung zwischen Luft- und Raumfahrt wird aber zunehmend durch die technische Entwicklung von suborbitalen Raumflugzeugen und Raketenflugzeugen aufgeweicht.
Man unterscheidet zwischen der bemannten Raumfahrt, bei der Menschen die Reise in den Weltraum antreten, und der unbemannten Raumfahrt, die lediglich Satelliten und Sonden in den Weltraum befördert.

In Deutschland wird Raumfahrt unter politischen Gesichtspunkten als infrastrukturelle Dienstleistung zur Erreichung gesellschaftlicher, wirtschaftlicher und wissenschaftlicher Ziele begriffen. Erderkundungsmissionen müssen entweder in eine definierte Wertschöpfungskette eingebettet sein oder auf die Beantwortung grundsätzlicher wissenschaftlicher Fragestellungen abzielen.

Aktuell sieht sich die europäische Raumfahrt in einem Wandel von einer den Regierungen einiger weniger Raumfahrtmächte vorbehaltenen Domäne in einen Bereich, in dem sich zunehmend eine Vielzahl verschiedener Akteure weltweit engagieren; u. a. gehört dazu das Aufstreben von privaten Unternehmen, die Beteiligung von wissenschaftlichen Instituten, Industrie und Bürgern, die Digitalisierung und weltweite Interaktion.

Das Konzept „Raumfahrt 4.0“ steht für die Weiterentwicklung des Raumfahrtsektors hin zu einer neuen Ära, die sich durch neue Gegebenheiten auszeichnet und mittels eines Zusammenspiels von Regierungen, Privatsektor, Gesellschaft und Politik eingeleitet wird. Das Konzept „Raumfahrt 4.0“ lehnt sich an das Konzept „Industrie 4.0“ an, mit dem es dicht verwoben ist und das in den Bereichen Fertigung und Dienstleistung die vierte industrielle Revolution einläutet.

Weitere Informationen:

Raumfahrt und Lehre

Raumfahrt und damit auch Fernerkundung besitzen vielfältige Verknüpfungen mit unterschiedlichsten Fachbereichen. Lehrstühle im In- und Ausland bieten auf ihren Webseiten profunde, frei zugängliche Tutorials an, nationale und internationale Raumfahrtagenturen haben für ihren Internetauftritt hervorragende Bildungsangebote entwickelt.
Ideen für einen Zugang zur Thematik bietet z.B. die ESA mit ihrer Mindmap zu den Verflechtungen von Technologien und Themen und mit ihrer Brainstorming-Zusammenstellung.

Raumfahrtagentur

Syn. Raumfahrtorganisation, engl. space agency; üblicherweise eine unter staatlicher oder halbstaatlicher nationaler wie auch transnatio-naler Kontrolle stehende Organisation zur Förderung und Nutzung der bemannten und unbemannten Raumfahrt.

Übliche Ziele von Raumfahrtagenturen sind:

  • Entwicklung und Anwendung von den Weltraum betreffenden Erkenntnissen für die nationale Bevölkerung wie auch der Menschheit
  • Entwicklung von Raumfahrttechnologie
  • zivile und / oder militärische Forschung
  • Nachwuchsförderung
  • Koordination nationaler bzw. transnationaler Raumfahrtaktivitäten

Weitere Informationen:

Raumfahrtmission

Engl. space mission; in der Raumfahrt der gesamte Ablauf von Planung, Bau, dem eigentlichen Flug und dessen Abwicklung eines Raumflugkörpers sowie die Auswertung der gewonnenen Daten.
Flüge von Objekten in die obere Atmosphäre, die als Experiment dienen, in Zusammenarbeit mit der Aeronomie diese untersuchen (etwa Höhenforschungsraketen) oder Grenzfälle zwischen Raum-, Luftfahrt und militärischer Raketentechnik werden nicht als Raumfahrtmissionen bezeichnet.

Raumfahrtmissionen werden nicht nur als nationale Projekte durchgeführt, sondern häufig durch multinationale Institutionen, wie die Europäische Weltraum-Agentur (ESA), oder vermehrt auch durch internationale Firmen realisiert.
Kooperationen zwischen Nationen sowie zwischen staatlichen und kommerziellen Einrichtungen gewinnen an Bedeutung. Solche öffentlich-industriellen Partnerschaften werden als Public Private Partnerships (PPP) bezeichnet. Ein Beispiel für ein PPP-Projekt ist die deutsche TerraSAR-X-Mission.

Ein übliches Raumfahrtsystem besteht aus drei, entsprechend dem Missionsziel aufeinander abgestimmten Systemsegmenten:

  • Das Raumsegment beinhaltet das Raumfahrzeug (Satellit) mit seiner Nutzlast, das sich auf einer Umlaufbahn befindet.
  • Das Transfersegment dient dem Transport des Satelliten mit dessen Nutzlast in den Weltraum durch einen Träger, typischerweise eine Rakete.
  • Das Bodensegment dient zur Steuerung und Überwachung des Satelliten und seiner Nutzlast sowie zur Verteilung und Verarbeitung der Nutzlastdaten.

Die drei Systemsegmente können weiter in in sogenannte Systemelemente untergliedert werden (s. Abb.).

TerraSAR-X-Systemelemente

Strukturierung eines Raumfahrtsystems in Systemelemente am Beispiel des deutschen Radarfernerkundungssystelliten
TerraSAR-X




(SAR = Synthetic Aperture Radar, LCT = Laser Communication Terminal, GPS = Global Positioning System)

Quelle: unbekannt
Raumfahrzeug

Engl. spacecraft; alle Fahrzeuge, die zur Fortbewegung im Weltraum geschaffen wurden. Der Hauptantrieb im luftleeren Raum erfolgt heute noch meistens durch konventionelle Raketentriebwerke.
Als Systemelement einer Raumfahrtmission können bei einem Raumfahrzeug folgende Subsysteme unterschieden werden:

  • Struktur und Mechanismen
  • Thermal-Subsystem
  • Datenprozessierung
  • Energieversorgung
  • Kommunikation
  • Lageregelung
  • Antrieb
  • Lebenserhaltungs-Subsystem (bei bemannten Missionen)

Raumflugkörper
und
ihre Nutzung


 

 

Zu größerer Darstellung auf Grafik klicken


Quelle:
Klaus Brieß, TU Berlin
Raumsegment

Engl. space segment; im engeren Sinne eine Sammelbezeichnung für Satelliten, Kapseln, Raumstationen oder ähnliches mit ihrer Nutzlast in einer Erdumlaufbahn als Teilsegment einer Raumfahrtmission. Genaugenommen fallen aber auch Raumsonden auf interplanetaren Bahnen oder auf Umlaufbahnen um andere Himmelskörper unter den Überbegriff Raumsegment. Ein sogenanntes "end-to-end Satellitensystem" besteht aus Transfersegment, Raum- und Bodensegment.
Das Raumsegment ist zu differenzieren in die Systemelemente Raumfahrzeug, Nutzlast, und Bahn.

Raumsonde

Engl. probe, unbemanntes Raumfahrzeug, das zu Erkundungszwecken ins Weltall geschickt wird. Im Gegensatz zu einem (Erd)Satelliten verlässt eine Raumsonde die Umlaufbahn der Erde und fliegt ein entferntes Ziel im Weltraum an, um dieses zu untersuchen (z. B. Mars, Asteoriden, Kometen, Jupitermonde). Wenige erforschen den interplanetaren Raum, was geringere Anforderungen an die Bahnberechnung stellt. Um der Erdanziehung zu entkommen muss die Geschwindigkeit der Sonde 11 km/s und mehr betragen. Manchmal wird eine Raumsonde später zu einem Satelliten eines anderen Himmelskörpers. Daneben werden auch Raumfahrzeuge - ohne Rücksicht auf die Missionsspezifikationen - in einem Halo-Orbit um einen der Lagrange-Punkte (auch: Librationspunkte) L 1 und L 2 zu den Raumsonden gezählt, da diese Fahrzeuge sich nicht mehr in einer Umlaufbahn um die Erde befinden.

Wegen der oft jahrelangen Dauer von Raumsondenmissionen werden an die technischen Einrichtungen von Raumsonden höchste Anforderungen gestellt. Ein großes Problem bei Raumsonden gegenüber erdumkreisenden Satelliten ist der große Erdabstand, der lange Laufzeiten der von der Bodenstation ausgesandten Steuerbefehle bewirkt. Aus diesem Grund müssen Raumsonden über Systeme verfügen, die sie in gewissem Umfang von Bodenstationen unabhängig machen.
Für Raumsondenmissionen muss der Einschusswinkel mit einer Genauigkeit von unter einer Bogensekunde festgelegt werden. Die Navigation von Raumsonden muss mit höchster Genauigkeit erfolgen. Sie erfolgt mit Hilfe des Dopplereffekts und der Signallaufzeiten. Auf diese Weise wird ihre Position mit einer Genauigkeit von unter einem Meter – unabhängig von ihrer Entfernung zur Erde – ermittelt.

Je nach Aufgabenstellung unterteilt man Raumsonden in:

  • Vorbeiflugsonden – Sonden, die nur einen Vorbeiflug an einem Himmelskörper durchführen.
  • Orbiter – Sonden, die eine Umlaufbahn um einen Himmelskörper einschlagen.
  • Lander – Sonden, die auf einem Himmelskörper landen. Hier ist eine weitere Unterteilung sinnvoll:
    • Hydrobot – eine Sonde, die selbständig die Tiefen unbekannter Gewässer erkunden kann.
    • Kryobot – eine Sonde, die sich durch Eis hindurch schmilzt, um dieses und darunterliegende Medien zu erkunden.
    • Penetrator – eine Raumsonde, die sich bei einer ungebremsten Landung bis zu einigen Metern in den zu untersuchenden Himmelskörper bohrt.
    • Rover – ein mobiles Landegerät, mit dem größere Regionen erkundet werden können.
  • Probenrückführung (sample return) – Sonden, die Proben eines Himmelskörpers oder im Weltraum eingesammelte Partikel zur Erde zurückführen. Zuvor könnte ggf. eine Landung auf dem Himmelskörper nötig sein.

Bekannte Raumsonden sind:

  • Voyager 1 und 2
  • Galileo, Start 1989, Missionsende 21. September 2003
  • SOHO, Weltraumobservatorium von ESA und NASA, Start 2. September 1995
  • Giotto, ESA-Mission zum den Kometen Halley und Grigg-Skjellerup 1985-1992
  • Liste (unvollständig) aller Raumsonden mit Missionsbeschreibungen
Rauschen

Engl. noise, franz. bruit d'image; unerwünschte, zufällige oder periodische Schwankungen eines Sensorsignals, die die Grundform des Signals unklar lassen und damit die Analyse und Interpretation erschweren können. Diese Überlagerungen sind wellenlängenspezifisch. Zufällige Schwankungen können auf die Leistung des Fernerkundungssystems während Aufnahme, Speicherung, Übertragung und besonders Empfang der Daten zurückgeführt werden. Dagegen wird periodisches Rauschen durch Interferenzen bzw. verschiedene Bestandteile des Systems der Fernerkundung hervorgerufen. Das Rauschen spielt bei Fernerkundungsanwendungen eine große Rolle, wenn es eine Überdeckung geringer Reflexionsdifferenzen, die jedoch objekttypisch sind, bewirkt. Eine Verringerung bzw. sogar Unterdrückung dieser Störungen kann im Rahmen der digitalen Bildverarbeitung mit Hilfe digitaler Filter erfolgen. Im eigentlichen Sinne ist Rauschen lediglich ein Maß für die Qualität eines Signals. Es wird dargestellt in Form des Signal-Rausch-Verhältnisses, das durch den Vergleich mit dem korrespondierenden Sensorsignal zu gewinnen ist.

Rayleigh-Streuung

Engl. Rayleigh scattering; nach Lord Rayleigh (1842-1919) benannte Streuung von elektromagnetischer Strahlung an kugelförmigen Teilchen, deren Radius sehr klein ist gegenüber der Wellenlänge der gestreuten Strahlen. In der Atmosphäre bedeutet dies in erster Linie die Streuung von Lichtstrahlen an den Luftmolekülen, deren Abmessungen (10-10 m) deutlich kleiner als die Lichtwellenlänge sind. Die Rayleigh-Streuung tritt vor allem in oberen Schichten der Atmosphäre auf.
Im Gegensatz zur Mie-Streuung ist die Rayleigh-Streuung stark wellenlängenabhängig. Die Rayleigh-Streuung ist umgekehrt proportional zur 4. Potenz der Wellenlänge (l-4), das heißt, kürzere Wellenlängen werden stärker gestreut als große Wellenlängen. Die kurzwelligen violetten und blauen Anteile des Sonnenlichts (Wellenlängen L= 0,38 bis 0,45 µm) werden stärker gestreut als das langwellige Licht (Orange und Rot, L=0,65 bis 0,75 µm). Bei hohem Sonnenstand ist die Strecke, die das Licht durch die Atmosphäre zurücklegen muss zu kurz, um nennenswerte Lichtanteile im langwelligen Spektralbereich zu streuen, während im kurzwelligen Bereich eine wesentliche Streuung stattfindet. Daher erscheint das Streulicht (und damit der Himmel) blau.
Bei niedrigem Sonnenstand ist die Strecke des Sonnenlichts durch die Erdatmosphäre groß genug, um auch nennenswerte Anteile des roten Lichts zu streuen. Während die blaue Intensität durch die stärkere Streuung über den gesamten Himmel verteilt wird, überwiegt der Rotanteil in der „Umgebung ” um die Sonne. Die gestreute Strahlung erreicht die Erdoberfläche aus allen Himmelsrichtungen.

Rayleigh-Streuung

The type of scattering is determined by the size of the particles relative to the wavelength of the EM waves. There are two types of scattering: molecular (also called Rayleigh), and aerosol.

Molecular scattering occurs when particles are much smaller than the wavelength of the incident radiation. This scattering becomes negligible compared to aerosol scattering for wavelengths greater than one micron. For our purposes, it affects visible light, not IR radiation. Light is scattered in all directions equally, but shorter wavelengths (blues) are scattered more than longer wavelengths (reds). The sky appears blue because blue photons coming from the sun are scattered much more than red photons.

Zur Animation auf Grafik klicken

Quelle: meted/ucar
real time

Engl. für dt. Jetztzeit, Echtzeit

real time-Daten

Daten, die erhoben und unmittelbar an die Bodenstation übermittelt werden, im Unterschied zu gespeicherten oder playback-Daten. Ein Verzögerungseffekt ist auf die Dauer der Übermittlung beschränkt.

Referenzellipsoid

Willkürliche Bezugsoberfläche, die eine grobe Annäherung an die Gestalt der Erde darstellt und die als Bezugsfläche für eine Landesver-messung dient. Den klassischen Landesvermessungen liegt zumeist ein konventionelles Ellipsoid oder ein lokal bestanschließendes Ellipsoid zugrunde. Für globale Aufgaben ist ein mittleres Erdellipsoid bzw. ein Niveauellipsoid vorzuziehen.

Vereinfacht ist die Erde eine an den Polen abgeplattete Kugel. Die Länge einer der Achsen am Äquator wird so gewählt, dass das Ellipsoid auf dieser Breite mit dem mittleren Meeresspiegel zusammenfällt. Beispielsweise hat das für die TOPEX/POSEIDON-Mission gewählte Ellipsoid einen Radius von 6378,1363 km und eine Abplattung von 1/298,257.

Reflektanz

Auch Reflexionsgrad, Reflexionsvermögen, Reflektivität; Verhältnis zwischen der von einem beleuchteten Körper zurückgestrahlten Lichtmenge und der Intensität der Quelle. Reflektanz besitzt die Bezeichnung R und ist ohne eigene Einheit, d.h. sie wird auf einer Skala von 0 und 1 angegeben oder in Prozent zwischen 0 und 100.

reflektanz_divers Spektrale Reflektanzwerte
verschiedener Arten von Landbedeckung im sichtbaren Spektralbereich

Jedes Pixel enthält Reflektanz-Informationen über die Charakteristik der dargestellten Objekte. Reflektanz erlaubt es uns, die verschiedenen Eigenschaften in einem Bild zu unterscheiden.
Reflektanz ist ein Maß für die Menge und die Art von Energie, die von einem Objekt reflektiert wird.


Zu größerer Darstellung auf Grafik klicken

Quelle: Purkis (verändert)
 
Reflexion

Engl. reflection, franz. réflexion; die Rückkehr von Licht- oder Schallwellen von einer Oberfläche ohne Änderung der Frequenz innerhalb der monochromatischen Strahlungsanteile.
DIN 18716 formuliert als Definition: "[Das] Zurückwerfen von Strahlung von einer Oberfläche oder einem Medium ohne Änderung der Frequenz seiner monochromatischen Komponenten".
Nach der Richtung der reflektierten Strahlung unterscheidet man gerichtete (spiegelnde) und/oder diffuse Reflexion. Reflexion an glatten Flächen ist gerichtete Reflexion, der Ausfallswinkel ist dabei gleich dem Einfallswinkel. Reflexion an rauhen Oberflächen ist diffus, je rauher eine Oberfläche, desto größer ist der Anteil diffuser Reflexion. Eine Lambertsche Fläche reflektiert alle auf sie fallende Strahlung vollkommen zerstreut und erscheint deshalb aus allen Richtungen gleich hell. Die meisten Materialien zeigen gemischte Reflexionscharakteristik. Das Reflexionsvermögen (Reflexionsgrad) entspricht dem Verhältnis des reflektierten zum auftreffenden elektromagnetischen Strahlungsfluss.

Reflexion ist von der Wellenlänge der betrachteten Strahlungsanteile abhängig. Wasserflächen, Sandflächen oder Schotterflächen, die im Mikrowellenspektrum glatt erscheinen, reflektieren im Bereich des sichtbaren Lichtes diffus. Intensität und spektrale Verteilung diffuser Reflexion beruhen auf Materialeigenschaften sowie der äußeren und inneren Struktur der reflektierenden Oberflächen (z.B. Blattwerk). Weiter besteht eine gewisse Richtungsabhängigkeit sowohl in Bezug auf die einfallende als auch die reflektierte Strahlung.

Die Aufzeichnung objektrelevanter Reflexionswerte durch photographische oder digitale Sensorsysteme ist wichtigste Grundlage der Informationsgewinnung, der visuellen Bildinterpretation und der digitalen Bildklassifikation in der Fernerkundung (Ausnahme: Systeme, die die Thermalstrahlung erfassen). Von Sensoren gemessene Strahlungsintensitäten sind somit von Wellenlänge und Richtung (Sonnenstand und Beobachtungsrichtung, spektrale und angulare Signatur), von der Lage des Objektes (räumliche Signatur), vom Zeitpunkt der Beobachtung (zeitliche Signatur) und - im Mikrowellenbereich - vom Polarisationsgrad (Polarisationssignatur) abhängig.

Die Gegenüberstellung von spektralen Reflexionsgraden unterschiedlicher Wellenlängenbereiche ermöglicht weitreichende Charakterisierung von Boden- und Vegetationsarten der Erdoberfläche (Vegetationsindex). Im Spektralbereich des sichtbaren Lichtes und des nahen Infrarots werden die spektralen Signaturen unterschiedlicher Gesteinsarten durch charakteristische Absorptionsbanden geprägt, die in Zusammenhang mit der Energie der Elektronen spezifischer Atome (Ionen von Metallen wie Fe, Ni, Cr, Co) und der Vibrationsenergie der Atome spezifischer Moleküle (Wassermolekül, Hydroxyl-Gruppe) stehen. Geeignete spektrale Ratios gestatten die teilweise Extraktion dieser Informationen. Schmale Absorptionsbanden in den spektralen Reflexionssignaturen können durch Nutzung von hyperspektralen Sensoren (hyperspektraler Scanner) exakter erkannt und analysiert werden.

Reflexionskurven für Schnee, Vegetation, Wasser und Fels

Die optischen Eigenschaften eines Materials haben Einfluss darauf, wie optische Strahlung beim Auftreffen auf die Materialoberfläche reagiert. Jedes Material hat eine eigene spektrale Signatur, die durch sein Vermögen zur Reflexion, Absorption und Transmission der eintreffenden Strahlung bei unterschiedlichen Wellenlängen bedingt ist.

Zu größerer Darstellung auf Grafik klicken

Quelle: Eduspace
 

Das Reflexionsverhalten wird in Reflexionskurven (syn. Signaturkurven) dargestellt, sie besitzen die Bedeutung von "spektralen Fingerabdrücken". Die Abbildung oben zeigt ausgewählte Reflexionskurven, an denen sich einige Reflexionsunterschiede verdeutlichen lassen.

Die Spektralsignaturen gesunder grüner Vegetation weisen neben dem Chlorophyll-Reflexionsmaximum im grünen Spektralbereich einen besonders erwähnenswerten steilen Anstieg der Reflexion im nahen Infrarot auf. Dieser rote Kante genannte Gradient besitzt große Bedeutung bei der Auswertung von Bilddaten für eine Vegetationsanalyse. Er kommt u.a. bei der Entwicklung von Vegetationsindizes zum Tragen, die z.B. zur Identifizierung des Vitalitätsgrades von Pflanzen ausgenutzt werden.

Der Anwendung von Reflexionskurven sind aber Grenzen gesetzt. So gibt es für eine jeweilige Oberflächenart keine allgemeingültigen Reflexionskurven. Die Signaturkurven von Objekten an der Erdoberfläche variieren vielmehr u.a. nach Beleuchtung, Jahreszeit, Beschaffenheit der Atmosphäre, Zustand des Oberflächenobjektes (z.B. Gesundheitszustand, Aggregatzustand, Feuchtegehalt) und Konfiguration des Aufnahmeinstrumentes. Beispielsweise verändert sich die Reflexion von Wasser u.a. mit dem Trübstoffanteil. Daher sind in den jeweiligen Untersuchungsgebieten sog. Trainingsgebiete notwendig, die eine aktuelle homogene Oberfläche aufweisen und eine Ableitung bzw. Kalibrierung von Signaturkurven erlauben.
Ein weiteres Problem stellen Mischformen dar. So lassen sich insbesondere Ausschnitte einer Kulturlandschaft (u.a. Bebauung mit Straßen, Industrieanlagen, Einzelhäuser in Gartenanlagen) nicht eindeutig aufgrund einer einzelnen Signaturkurve erfassen. Die Identifizierung ist vor allem von der geometrischen und spektralen Auflösung des Aufnahmesystems abhängig.

Reflexion bei drei Hauptkategorien von Oberflächen:

Bodenmaterialien - Die Reflexionscharakteristika von Böden und ähnlichen Materialien zeigen im sichtbaren Bereich und im nahen Infrarot ziemlich stabile Reflexion mit leicht positivem Zusammenhang zwischen Reflexion und Wellenlänge. Die größten Einflüsse haben Wassergehalt, Oberflächenrauigkeit, organische Bestandteile sowie der Anteil von Eisenoxid.
Vegetation - Die spektrale Reflexion von Vegetation hängt vornehmlich von Blattpigmenten, Zellstruktur und Wasserabsorption ab. Im sichtbaren Bereich wird die spektrale Reflexion durch Blattpigmente dominiert, vor allem Chlorophyll absorbiert blau und rot, so dass Blätter dem Auge grün erscheinen. Im nahen Infrarot zwischen ca. 0,7 und ca. 1,3 µm ist die Zellstruktur der Blätter ausschlaggebend. Nahe Infrarotstrahlung wird an den Zellwänden stark reflektiert. Dieser Effekt ist stark artenabhängig und auch von der Vitalität der Blätter. Gesunde Blätter zeigen starke Reflexion, für Blätter unter Stress nimmt die Reflexion immer mehr ab. Besonders wichtig ist der starke Anstieg der Reflexion beim Übergang vom Sichtbaren zum Nahen Infrarot (ca. 700 nm).
Im mittleren Infrarot (jenseits ca. 1,3 µm) wird die spektrale Reflexion grüner Vegetation durch die Wasserabsorptions-Bänder bei 1,4 und 1,9 µm dominiert.
Daten, die über Vegetationsgebieten aufgenommen werden, sind markant durch die Raumstruktur der Pflanzendecke beeinflusst. Sonnige und schattige Anteile sind in sehr komplexer Weise vermischt. Bei hohem Sonnenstand kann in Luftbildern ein schattenloser Fleck auftreten.
Wasserkörper - Auf die Reflexion von Wasserkörpern haben viele Faktoren Einfluss. Bedeutsam sind Wassertiefe, Schwebstoffe und Oberflächenrauigkeit. Daneben wird das erfasste Signal von den Raumwinkeln der Beleuchtung und der Beobachtung bestimmt.

Reflexionsgrad

Engl. degree of reflection, reflectance, franz. degré de réflexion; Maß r (auch R), welches aussagt, zu welchem Anteil einfallende elektromagnetische Strahlung an einer Oberfläche reflektiert wird.
Nach DIN 18716 das "Verhältnis der reflektierten Strahlung zu der einfallenden Strahlung".

Reihenmesskammer (RMK)

Zur Aufnahme von Senkrechtbildern von Flugzeugen aus, insbesondere zur systematischen Aufnahme größerer Flächen, werden im allgemeinen Reihenmesskammern benutzt. Der Begriff deutet an, dass mit diesen Kammern die systematische Aufnahme von Bildreihen möglich ist und die aufgenommenen Bilder für photogrammetrische (Mess-) Zwecke geeignet sind. Da Reihenmesskammern über automatische Auslösevorrichtungen und automatischen Filmtransport verfügen, können Aufnahmen in der von Flughöhe, Objektivbrennweite und Fluggeschwindigkeit abhängigen Zeitfolge aufgenommen werden. Unter der Objektivbrennweite f ist der Abstand zwischen Brennebene (durch das Negativ gegebene Ebene) und dem Projektionszentrum des Objektivs zu verstehen. Das verwendete Filmformat beträgt meist 23 × 23 cm², und die Filmlänge variiert je nach Stärke des Emulsionsträgers zwischen 120 und 210 Metern. Siehe auch Multispektralkammer

Rektifikation

Syn. Rektifizierung, engl. rectification; Entzerrung und Georeferenzierung räumlicher Datenbestände durch Korrektur von Bildverzeichnungen bei Fernerkundungsaufnahmen bzw. diversen geometrischen Fehlern bei digitalisierten Geodaten. Es ist der Prozess, mit dem ein Bild aus Bildkoordinaten in Weltkoordinaten konvertiert, d.h. entzerrt und umgerechnet wird.

relative Luftmasse

Engl. relative air mass; Begriff zur Beschreibung des Einflusses der Atmosphäre auf die Strahlung. Die relative Luftmasse gibt an, wie dick die atmosphärische Schicht ist, die die Sonnenstrahlung bei verschiedenen Zenitdistanzen durchläuft. Es ist eine relative Größe, die auf die Zenitrichtung bezogen wird. Wenn g die Zenitdistanz der Sonne bezeichnet und m die relative Luftmasse, dann ergeben sich für einen Ort in Meereshöhe folgende Beziehungen:

g
»
15°
30°
45°
60°
65°
70°
75°
80°
90°
m
»
1,00
1,04
1,15
1,41
2,00
2,36
2,90
3,82
5,60
39,7

Die Zunahme der relativen Luftmasse führt nicht nur zur Verringerung der Bestrahlungsstärke, sondern auch zu einer Veränderung der spektralen Zusammensetzung der Strahlung. Vornehmlich die kurzwelligen (blauen und grünen) Anteile werden überproportional geschwächt, so dass die langwelligen roten Anteile zunehmend überwiegen.

relative Referenzierung

Engl. image registration, franz. transformation relative entre images; nach DIN 18716 ein "Verfahren, durch das die Geometrie eines Bildes auf die eines anderen Bildes abgebildet wird".

Remission

Die diffuse Reflexion an rauhen Oberflächen; gerichtet auffallende Strahlen werden in viele Richtungen zerstreut zurückgestrahlt.

Remote Sensing Solutions GmbH (RSS)

Die Remote Sensing Solutions GmbH (RSS) ist in Deutschland einer der führenden Anbieter für Satellitenbildauswertung, Luftbildinterpretation und Photogrammetrie und Geo-Informatik. RSS entwickelt kundenspezifische Lösungen für Fragestellungen in der Agrar- und Forstwirtschaft, Umweltmonitoring, Naturgefahren und Naturschutz. Zu ihren Kunden zählen kommunale, nationale wie internationale Behörden ebenso wie Auftraggeber aus der Privatwirtschaft.

Weitere Informationen:

Resampling

Dt. Umrechnung, engl. resampling, franz. re-échantillonnage; in Photogrammetrie und Fernerkundung Verfahren zur Ableitung der Grauwertmatrix bei einer geometrischen Transformation digitaler Bilder. Wesentlicher Bestandteil des Resampling ist die Interpolation der diskreten Grauwerte der Matrix des transformierten Bildes zwischen benachbarten Pixeln des Ausgangsbildes. Die neue Matrix ist geometrisch durch das gewählte Bezugssystem definiert. Ihre Bildelemente sind - wie meist die des Eingabebildes - quadratisch, decken sich aber nicht vollständig mit diesen. Die neuen Bildelemente setzen sich aus Teilstücken von Bildelementen der Matrix des Eingabebildes zusammen. Es muß daher eine Regel eingeführt werden, nach der die Grauwertzuweisung erfolgen soll. Dazu sind drei Resamplingverfahren allgemein verbreitet, die der indirekten Methode zugerechnet werden:

  • das Nearest-Neighbour-Verfahren (nächste Nachbarschaft), wenn der nächstgelegene Grauwert im Eingabebild übernommen wird,
  • die bilineare Interpolation, wenn zwischen den vier benachbarten Grauwerten im Eingabenbild in Zeilen- und Spaltenrichtung linear interpoliert wird, sowie
  • die kubische Konvolution, wenn zwischen den vier mal vier umliegenden Grauwerten im Eingabebild mit Gleichungen dritten Grades interpoliert wird.

Lücken oder Doppelbelegungen, wie sie bei der direkten, umgekehrten Methode auftreten können (aus diesem Grund wird diese inzwischen nicht mehr verwendet), werden hierdurch vermieden.
Resampling wird notwendig im Zuge der Umrechnung eines Rasterdatensatzes auf ein Raster anderer Orientierung bzw. Auflösung.

RESOURCESAT-1 (IRS-P6)

2003 gestartete Mission der ISRO zu Aufgaben im Ressourcenmanagement, im Agrar- und Forstbereich. Der Satellit mit seiner sonnensynchronen Umlaufbahn in 817 km Höhe (Inklination 98,72°) besitzt eine Umlaufzeit von 102 min und einen Wiederholzyklus von 26 Tagen. Der Linear Imaging Self-Scanning Sensor - 4 arbeitet seit 2012 mit verminderter Leistung.

Resourcesat-2 folgte 2011 ins All.

Weitere Informationen:

RESOURCESAT-2

Indischer Erdbeobachtungssatellit aus der Indian-Remote-Sensing-Baureihe der ISRO. Er wurde am 20. April 2011 mit einer PSLV-Trägerrakete vom Satish Dhawan Space Centre zusammen mit den Kleinsatelliten YouthSat (Indisch-Russisch, 92 kg) und X-SAT (Singapur, 106 kg) in eine kreisförmige polare und sonnensynchrone Erdumlaufbahn mit einer Bahnneigung von rund 98,7 Grad gebracht. Die Abtrennung von der Rakete erfolgte nach einer Gesamtflugzeit von etwa 1.080 Sekunden in einer Höhe von etwas über 827 Kilometern. Er soll Wissenschaftler bei der Messung der Kontamination von Böden, der Überwachung von Wasserressourcen und der Landnutzung unterstützen, sowie Daten für die Sicherheitsbehörden liefern. Er trägt zusätzlich ein experimentelles Überwachungs und Identifizierungssystem (AIS = Automatic Identification System) für Schiffe, um deren Position, Geschwindigkeit und andere Informationen zu sammeln. Als Lebensdauer werden fünf Jahre erwartet.
Der Satellit trägt drei Kameras, die im sichtbaren und im Infrarotbereich arbeiten und eine maximale Auflösung von 5,8 Metern liefern. Sie sind weiterentwickelte Versionen der Kameras, die beim 2003 gestarteten Vorgänger ResourceSat-1 zum Einsatz kamen. So wurde beim hochauflösenden Zeilenscanner LISS-4 (Linear Imaging Self Scanner) die Schwadbreite von 23 auf 70 km erhöht.

Weitere Informationen:

RESURS-O1

Serie von russischen Fernerkundungssatelliten, deren Missionen inzwischen beendet sind. Die Satelliten operierten in polaren, sonnensynchronen Umlaufbahnen mit einer mittleren Orbithöhe von z.B. 678 km (01-N3) und 835 km (01-N4). Die wesentlichen Erdbeobachtungsinformationen werden mit Hilfe zweier Radiometer ermittelt: Der MSU-E-Sensor ist ein multispektraler optoelektronischer Radiometer mit hoher Auflösung, der etwa mit den Sensoren auf Landsat vergleichbar ist. Der MSU-SK-Sensor ist ein multispektraler optomechanisches Radiometer mittlerer Auflösung, das die große Lücke hinsichtlich Geländeerfassung und Detailgenauigkeit zwischen SPOT/Landsat TM und NOAA AVHRR schließt.

Resurs-O1

Resurs-O1 is a Russian/CIS (Commonwealth of Independent States) satellite series. The program was initiated by the USSR defense ministry in 1977 with the objective of observing and monitoring natural Earth resources (similar in function and objectives to the Landsat series of the USA). The very successful early Landsat program (with launches of LS-1 on July 23, 1972, LS-2 on Jan. 22, 1975, LS-3 on March 5, 1978) prompted this reaction of the Soviet Union.
Quelle: eoPortal

Weitere Informationen:

Resurs-DK1 (Resurs - High Resolution 1)

Russischer, hochauflösender Erdbeobachtungssatellit mit erfolgtem Start im Jahr 2006. Seine Arbeitsschwerpunkte liegen in den Bereichen Land- und Forstwirtschaft, Hydrologie, Umweltmonitoring, (Hydro-)meteorologie, Eis- und Schneebedeckung. Der Satellit wird die Erde auf einer kreisnahen, nicht-sonnensynchronen Bahn (Inklination 70,4°) in einer Höhe von 480 km umlaufen.

Weitere Informationen:

Retroreflektor

Reflektor, der Licht wieder in die Richtung zum Ausgangsort zurückleitet. Drei zueinander orthogonal stehende optische Flächen, realisiert durch Spiegel- oder Prismenflächen, lenken das Licht in die gleiche Richtung zurück. Satelliten, deren Entfernung mit Laserentfernungs-meßsystemen gemessen werden kann, müssen mit Retroreflektoren ausgestattet sein.

Revisitrate

Engl. für Wiederholrate, d.h. das Aufnahmeintervall von Satellitenbildern für gleiche Aufnahmepunkte, das sich aufgrund der Bewegung von umlaufenden Satelliten zwangsläufig ergibt, bzw. aufgrund technischer Zwänge bei geostationären Satelliten. Es beträgt z.B. bei den polarumlaufenden Wettersatelliten NOAA-15 bis -17 einen halben Tag, beim geostationären Meteosat-8 15 Minuten.

Rexus

Raketen-Experimente für Universitäts-Studenten. Das deutsch-schwedische Programm REXUS bietet Studenten die Möglichkeit, wissenschaftliche und technische Experimente auf Raketen unter speziellen Atmosphärenbedingungen durchzuführen.

Weitere Informationen: Rexus und Bexus (DLR)

RGB-Farbmodell

Engl. RGB colour model; Additives Farbsystem aufgebaut aus den Grundfarben Rot, Grün, Blau. Danach besteht ein Bild aus drei unabhängigen Ebenen in den o.g. Primärfarben. Diese Grundfarben sind reine Spektralfarben mit den Wellenlängen 700 nm (Rot), 546 nm (Grün) und 435 nm (Blau). Eine bestimmte Farbe wird durch die Anteile definiert, die von diesen drei Grundfarben enthalten sind. Ein geometrisches Modell dieses Farbsystems in Raumkoordinaten ist der Farbwürfel.

RGB-Farbmodell RGB-Farbmodell

Additives Farbsystem aufgebaut aus den Grundfarben Red, Green, Blue (Rot, Grün, Blau). Das RGB-Farbmodell ist heute das weit verbreiteteste Farbmodell, da es für die Bildschirmdarstellung genutzt wird. Die Farbe wird innerhalb eines Würfels durch Angabe von Koordinaten, d.h. den jeweiligen Farbanteilen bestimmt.

Quelle:
Universität Rostock Geoinformatik

Das RGB-Modell ist heute das weit verbreitetste Farbmodell, da es für die Bildschirmdarstellung verwendet wird. Gängige Farbbildschirme kombinieren diese drei Farbanteile (Kanäle) z.B. in 8 Bit, so dass 255 Farbabstufungen in der Grundfarbe entstehen. Jede Farbe wird durch einen 3-dimensionalen Vektor (z.B. 255/030/215) charakterisiert. Visualisiert wird die so charakterisierte Farbe durch eine additive Mischung der Grundfarben Rot, Grün und Blau (Lichtmischung). Beispielsweise entsteht durch Mischen von Rot und Grün die Farbe Gelb. Addiert man die Grundfarben in ihrer vollen Intensität, so ergeben sie Weiß. Auf einem 32Bit-Rechner lassen sich die Farbinformationen so in 3x8 Bit, also 24 Bit ablegen. Aus der Kombination dieser Farbkanäle entstehen über 16 Mio Farben.

Nach dem gleichen Prinzip werden Falschfarbenkomposite von multispektralen Fernerkundungsdaten mit Hilfe des RGB-Farbmodells erzeugt.

Das Komplementärsystem zum RGB-Modell arbeitet mit CMYK, es wird für Ausgabegeräte wie Plotter und Drucker, sowie in der Druckindustrie verwendet. Der Farbraum des RGB-Farbmodells umfasst wesentlich mehr Farben als der des CMYK-Farbmodells.

Weitere Informationen:
Multispectral Satellite Applications: RGB Products Explained (Overview of meteorological and environmental RGB products, namely, how they are constructed and how to use them; UCAR/COMET/MetEd).

Röntgenstrahlen

Kurze elektromagnetische Wellen mit Wellenlängen von 0,00001 bis 3.000 Ångström.

Rockot

Russische Trägerrakete für kleinere und mittelgroße Satelliten, entstanden durch die technisch hervorragende Konversion der ehemaligen Interkontinentalrakete SS-19 für die zivile, kommerzielle Nutzung. 

Die Gründung des deutsch-russischen Gemeinschaftsunternehmens Eurockot basiert auf dem russisch-amerikanischen START-Abkommen, das die Anzahl der Raketen und Atomsprengköpfe beider Seiten limitiert. Zu den zur Vernichtung bestimmten atomaren Mittelstreckenraketen gehören auf russischer Seite auch die Interkontinentalraketen des Typs UR-100NUTTCh (NATO-Kürzel SS-19). Alternativ zur Verschrottung wurde seinerzeit die Möglichkeit der zivilen oder kommerziellen Nutzung eingeräumt. Da Verschrotten Geld kostet, das Verschießen der Raketen mit Satelliten-Nutzlasten hingegen Geld einspielen kann, lag die Alternative auf der Hand. So gründeten die damalige DaimlerChrysler Aerospace AG (Dasa) und das russische Raumfahrtunternehmen Chrunitschew 1995 die Eurockot Launch Services GmbH mit Sitz in Bremen, um Startdienstleistungen mit der Rockot zu vermarkten.

Hinter der Rockot verbirgt sich die Nutzung der bewährten ersten und zweiten Antriebsstufe der Konversionsrakete SS-19, die mit einer erprobten russischen Oberstufe kombiniert wird. Die Oberstufe ist notwendig, um Satelliten in die gewünschte Umlaufbahn zu bringen. Als Treibstoff verwenden alle Stufen das kostengünstige und gut lagerfähige, jedoch giftige UDMH (unsymmetrisches Dimethylhydrazin) sowie N2O4 (Distickstofftetraoxid) als Oxidationsmittel. Die Rockot ist 29 Meter lang, hat einen maximalen Durchmesser von 2,5 Meter und eine Gesamtmasse von 107 Tonnen.  

Die hohe Leistungsfähigkeit des Trägersystems von nahezu 2 Tonnen Nutzlast basiert wesentlich auf der von Chrunitschew entwickelten Oberstufe Breeze-KM, die mit einem mehrfach wiederzündbaren Haupttriebwerk ausgestattet ist. Die genaue Manövrierbarkeit erlaubt, Satelliten in unterschiedlichen Umlaufbahnen zu platzieren. Nach erfolgter Satellitentrennung wird die Breeze-KM gezielt zum Wiedereintritt in die Erdatmosphäre manövriert, um dort zu verglühen.

Die Startrampe für die Rockot-Rakete erfuhr in den letzten Jahren mehrere Umbauten und Modernisierungen.

SMOS-PROBA2-ROCKOT-HR2a4_lres Trägerrakete Rockot


Künstlerische Darstellung der ROCKOT-Startrakete mit entfernter Nutzlastverkleidung, um den Hauptsatelliten SMOS darzustellen. Darunter befindet sich der kleinere Satellit Proba-2 innerhalb des doppelten Adapters. Proba steht für PRoject for OnBoard Autonomy. Die Proba-Satelliten gehören zu den kleinsten, je von der ESA geflogenen Raumfahrzeugen, aber sie haben als Experimentalmissionen eine große Bedeutung im Bereich der Raumfahrttechnik.

Zu größerer Darstellung auf Grafik klicken

Quelle: ROCKOT
 

Die kommerzielle Ära von Rockot begann mit dem Start des deutsch-amerikanischen Satellitenduos GRACE. Im Jahre 2003 entstand durch die Fusion von EADS Launch Vehicles und Astrium die EADS SPACE Transportation, die nunmehr 51 Prozent Anteile an Eurockot hält. Die restlichen 49 Prozent liegen unverändert bei Chrunitschew. Aus einem deutsch-russischen ist nunmehr ein europäisch-russisches Unternehmen geworden.

Eurockot hat bereits zahlreiche Starts für kommerzielle und institutionelle Kunden aus Europa, Nordamerika und Asien realisiert. 2009 hat Eurockot für die ESA drei Satelliten erfolgreich gestartet: GOCE, SMOSund Proba-2. Mit dem Start des japanischen Satelliten SERVIS-2 von Plesetsk 2010 fand der mittlerweile 10. Eurockot-Start, seit Aufnahme der Geschäftstätigkeit im Jahr 2000 statt. Nach einer weiteren Vereinbarung mit der Europäischen Weltraumagentur ESA wurde 2013 der Launch der drei SWARM-Satelliten durchgeführt. Es folgen die zum Copernicus-Programm der ESA gehörenden Erdbeobachtungssatelliten Sentinel-2A (2015), Sentinel-2B ((2016), Sentinel-3A (2015) und Sentinel-5P (2016).

Rohdaten

Zahlenwerte, die die direkten Beobachtungsergebnisse eines Messinstruments repräsentieren, und die in digitaler Form in der Reihenfolge, in der sie aufgenommen wurden, übermittelt werden.

ROSAT

Deutscher Röntgensatellit, dem 1990 die zu diesem Zeitpunkt besten Röntgenbilder des Universums gelangen. Als "Spin off" dieser Technik entwickelten Forscher ein Verfahren, mit dem Hautkrebs mit einer Verläßlichkeit von 90 % erkannt werden kann.

Rosetta

Am 2. März 2004 mit einer Ariane 5 G+ von Kourou aus gestartete Mission der ESA mit Beiträgen von ihren Mitgliedsstaaten und der NASA zur Erforschung des Kometen 67 P/Churyumov-Gerasimenko insbesondere seines Kerns und seiner Umwelt. Die Mission soll die Entstehung von Kometen, wie auch des Sonnensystems erklären helfen. Sie wurde wie vorgesehen am 30. September 2016 beendet.

Ziel der aus einer Sonde und einem Landeroboter (Lander) bestehenden Mission war ein Rendezvous mit dem ca. 3 x 4 km großen Kometen, der inzwischen von Beteiligten und seit etwa Mitte 2014 auch von den Medien oft in verniedlichender Kurzform Tschuri genannt wird. Der grob einem Quietsche-Entchen ähnelnde Komet hat einen Kern mit einem Volumen von ca. 25 km³ und umkreist die Sonne alle 6,6 Erdjahre in einer Entfernung von 186 Millionen bis 857 Millionen Kilometern.

Um ihr Ziel zu erreichen, musste die Rosetta-Sonde während ihrer ca. 7 Mrd. km langen Reise mit Hilfe von insgesamt vier Swing-by-Manövern in den Schwerkraftfeldern von Erde und Mars Schwung holen. Auf ihrem Weg passierte die Sonde Rosetta zusammen mit ihrem Landemodul Philae auf der 10-jährigen Reise in den Jahren 2008 bzw. 2010 die Asteroiden (2867) Šteins und (21) Lutetia. Nach Erreichen des Kometen 67 P am 6. August 2014 wurde Rosetta in 100 Kilometern Entfernung zu Tschuri auf relative Schrittgeschwindigkeit abgebremst. Die mit vielfältigen Sensoren ausgestattete Sonde umrundete seither den Kometen in wenigen Kilometern Höhe.

Rosetta_at_Comet

Rosetta beim Absetzen des Landers - nicht maßstabsgetreue Darstellung unter Verwendung einer Aufnahme von Tschuri mit der Navigationskamera auf Rosetta

rosetta_lander_lres

Rosetta Lander verankert sich auf dem Kometenkern - idealisierte Vorstellung

The milestones of Rosetta's journey through the Solar System

Rosetta

Rosetta ist die erste Mission mit dem Ziel, auf einem Kometen zu landen und ihn über längere Zeit aus der Nähe zu erkunden. Die Mission soll helfen,
mehr über den Ursprung und die Entwicklung unseres Sonnensystems und damit auch über unsere eigene Entstehungsgeschichte herauszufinden.

Zu größerer Darstellung auf Grafiken klicken

Quellen: ESA / ESA / ESA

Am 12. November 2014 gegen 9:35 UTC dockte der Lander Philae in 22,5 Kilometern Höhe von der Raumsonde Rosetta ab und sank auf den Kometen herunter, wo er zunächst um 16:33 UTC und dann nach zwei Sprüngen um 18:26 und 18:33 aufsetzte. Um ein Abprallen zu vermeiden, verfügt Philae über ein komplexes Landesystem mit Dämpfungsmechanismen, zusätzlich sollte sich Philae mit zwei Harpunen und drei Eisbohrern auf der Kometenoberfläche verankern. Dabei kam es zu Fehlfunktionen. Für seine wissenschaftliche Arbeit ist der Lander mit zehn wissenschaftlichen Instrumenten bestückt. Bereits während des Landeanflugs hatte Philae erste Daten gesammelt und via Rosetta über die große Entfernung von 490 Millionen Kilometer zur Erde übermittelt. Nach der Landung auf der Kometenoberfläche nahm Philae verschiedene physikalisch-chemische Messungen vor, unter anderem wird versucht, organische Verbindungen wie etwa Aminosäuren im Kometeneis zu detektieren.

Philae schaltete sich am 15. November 2014 um 1.15 Uhr ab, nachdem er etwa 60 Stunden auf dem Kometen in Betrieb war. Seit dem 12. März 2015 war immer wieder die Kommunikationseinheit auf dem Orbiter Rosetta eingeschaltet, um den Lander zu rufen und seine Antwort zu empfangen. Mitte Juni meldete sich der Lander für kurze Zeit aus seinem Winterschlaf zurück und sendete die ersten Daten zur Erde. Über 300 Datenpakete hat das Team des Lander-Kontrollzentrums des DLR ausgewertet. Man strebt nunmehr an, die Kommunikationsverbindung zu stabilisieren.

Nach vielen Monaten vergeblicher Versuche, mit Philae Kontakt aufzunehmen, ist nun die Mission des Landers beendet. Auch im Januar 2016 gelang es nicht, via Muttersonde Rosetta in Kontakt mit Philae zu treten. Nun hat sich der Komet 67P so weit von der Sonne entfernt, dass die am Landeplatz eintreffende Sonnenstrahlung nicht mehr ausreicht, die Batterien von Philae für einen Betrieb aufzuladen. Zuletzt war am 9. Juli 2015 für wenige Minuten ein Kontakt zu Philae gelungen, seitdem war nichts mehr zu hören. Philae wurde in der Folge aufgegeben. Erst spät wurde Philae wiedergefunden. Am 2. September 2016 nahm die OSIRIS-Kamera auf der Raumsonde Rosetta die entscheidenden Bilder von der Oberfläche des Kometen 67P/Churyumov-Gerasimenko auf. Sie zeigen den Lander schräg in einer Schlucht liegend, zwei der drei Landebeine deutlich sichtbar. Die Missionsleitung hatte sich inzwischen auf die Muttersonde Rosetta konzentriert. Man ging davon aus, dass sich im September 2016 der Komet so weit von der Sonne entfernt haben würde, dass auch Rosetta nicht mehr genug Energie hätte, ihre Instrumente zu betreiben. Daher plante die ESA, die Sonde im September möglichst sanft auf der Oberfläche des Kometenkerns aufsetzen zu lassen. Die leichte Hoffnung, dass die Sonde sogar die Landung überstehen würde, obwohl sie darauf nicht ausgelegt war, erfüllte sich nicht. Die Sonde funkte am 30. September 2016 um 13:19 Uhr mitteleuropäischer Sommerzeit ihr letztes Signal zur Erde - mit dem Aufprall auf dem Kometen Churyumov-Gerasimenko endete die ESA-Mission. Auf dem Kollisionskurs zum Kometen konnten aber sieben Instrumente noch Daten aufnehmen und zur Erde senden.

Die Kamera OSIRIS nahm bereits seit Sommer 2016 immer wieder Fotos bei nahen Überflügen auf. Auch beim langsamen Abstieg der Sonde in Richtung Kometenoberfläche hatten die Kamera und ihre Datenpakete eine hohe Priorität und zeigte den Kometen aus nur fünf Metern Entfernung. Für Instrument ROSINA, das die Zusammensetzung der Gase bestimmt, waren die Messungen in unmittelbarer Nähe von Churyumov-Gerasimenko ein zusätzlicher Schatz. Als drittes Instrument mit hoher Priorität war RPC (Rosetta Plasma Consortium) eingeschaltet, das die unmittelbare Plasma-Umgebung des Kometenkerns und dessen Wechselwirkung mit dem Sonnenwind erforscht. Darüber hinaus waren aber auch das Mikrowelleninstrument MIRO, das Instrument GAIDA zur Analyse der Staubkörner, das UV-Spektrometer ALICE sowie das RSI-Instrument zur Bestimmung des Gravitationsfeldes aktiv. Die Ergebnisse werden die Wissenschaftler wohl auch noch in den nächsten Jahren beschäftigen.

Rosetta und Philae sollten den Kometen während seiner aktiven Phase, in der er Koma und Schweif ausbildet, um die Sonne herum und auf seinem Weg zurück in Richtung Jupiterumlaufbahn begleiten. Seinen sonnennächsten Punkt wird der Komet im August 2015 erreichen. Die Forscher erhoffen sich Rückschlüsse auf die chemische und Isotopenzusammensetzung des frühen Sonnensystems.

Da die Beschaffenheit des Kometen vor Eintreffen der Sonde nicht bekannt war, hat Rosetta zunächst seine Oberfläche kartografiert und analysiert. So machte man eine geeignete Landestelle ausfindig, auch wenn im Vorfeld über ihre notwendige Beschaffenheit keine gesicherten Erkenntnisse vorlagen.

Die Sonde ist nach dem Rosetta-Stein benannt, jener Stele aus Granodiorit, die 1799 von einem französischen Soldaten aus Napoleons Armee nahe der Stadt Rosette oder Rosetta (arab. رشيد Raschīd) am Nil entdeckt wurde, und die eine Schlüsselrolle bei der Entzifferung der ägyptischen Hieroglyphen spielte. Entsprechend könnte die Rosetta-Mission der Schlüssel zur Aufdeckung der Rätsel um die Entstehung des irdischen Lebens sein. Philae wiederum ist nach einer inzwischen durch Staumaßnahmen überfluteten Insel im Nil bei Assuan benannt, deren Tempelanlagen des Isis-Heiligtums auf die benachbarte Insel Agilkia verlagert wurden. Dies ist auch der Name des Landeplatzes von Philae, ursprünglich als Site J bezeichnet.

Ursprünglich sollte Rosetta den etwas kleineren Kometen 46P/Wirtanen ansteuern. Wegen technischer Probleme mit der Ariane-Rakete verstrich das Startfenster, worauf die Missionsplaner 67 P/Churyumov-Gerasimenko als neues Ziel auswählten.

Airbus Defence and Space Deutschland war Hauptauftragnehmer für die Rosetta-Mission und verantwortlich für den Bau der Sonde. Philae wurde von einem internationalen Konsortium unter Leitung des Deutschen Zentrums für Luft- und Raumfahrt (DLR), MPS, CNES und ASI entwickelt und gebaut.

osirisbild_philae_abstieg

Zu größerer Darstellung auf Grafik klicken

Quelle: ESA / DLR
 

Philaes Abstieg auf den Kometen 67P/Churyumov–Gerasimenko, beobachtet von Rosettas Kamera OSIRIS

Als Lander Philae am 15. November 2014 um 1.36 Uhr in den Ruhezustand ging, hatte er mit Hilfe seiner Primärbatterie etliches geleistet: Über 500 Mio. km entfernt von der Erde hatte das Mini-Labor mit zehn Instrumenten an Bord nach der Atmosphäre geschnüffelt, gebohrt, gehämmert und den Kometen durchleuchtet. Dabei hatte er nach einer dreifachen Landung und einem neuen, ungeplanten Standort nicht die günstigsten Voraussetzungen. Mehr als 60 h arbeitete Philae dennoch kontinuierlich und schickte bei jeder Funkverbindung Daten.

Der wissenschaftliche Leiter des DLR-Projekts, Dr. Ekkehard Kührt, ist mit den bisherigen Ergebnissen sehr zufrieden. "Wir haben viele wertvolle Daten gesammelt, die man nur in direkter Berührung mit dem Kometen erhalten kann. Zusammen mit den Messungen der Rosetta-Sonde sind wir auf einem guten Weg, Kometen besser zu verstehen. Ihre Oberflächeneigenschaften scheinen ganz anders zu sein als bisher gedacht!"

 

Weitere Informationen:

ROSHYDROMET

Engl. Akronym für Russian Federal Service for Hydrometeorology and Environmental Monitoring; russisches Bundesamt für Niederschlagsmeteorologie und Umweltbeobachtung.

Weitere Informationen:

Roskosmos

Raumfahrtbehörde der russischen Föderation. Die Agentur ist für das zivile Raumfahrtprogramm des Landes zuständig und hat ihren Sitz im Sternenstädtchen nahe Moskau. Sie wurde 1992 nach der Auflösung der Sowjetunion und Gründung der russischen Föderation gegründet und hat die wesentlichen Ressourcen der sowjetischen Raumfahrt übernommen. Frühere Namen der Agentur sind RKA (Rossijskoje Kosmitscheskoje Agenstwo), RAKA (Rossiiskoje Awiazionno-Koswitscheskoje Agenstwo) und Rosaviakosmos.

Roskosmos benutzt aktuell zwei Raumfahrtbahnhöfe: Plessezk bei Archangelsk in Russland, das von der russischen Föderation langfristig zur Hauptbasis ausgebaut werden soll, sowie Baikonur in Kasachstan, die Hauptbasis der sowjetischen Raumfahrt. Für die Nutzung von Baikonur müssen auf Basis eines Pachtvertrages Gebühren an Kasachstan bezahlt werden. Als mögliche Alternative zu Baikonur wurde Swobodny im fernen Osten Russlands in Betracht gezogen. Eine Vielzahl von Raketenstarts erfolgte auch vom Startkomplex Kapustin Jar an der Wolga.

Lange Zeit unterhielt die russische Raumfahrtbehörde die Raumstation Mir, die sich trotz Finanzierungsschwierigkeiten sogar acht Jahre länger als vorgesehen im Dienst befand. Sie wurde schließlich am 23. März 2001 aufgegeben, da man sich auf die Internationale Raumstation (ISS) konzentrieren wollte.

Russland beteiligt sich jetzt maßgeblich an der ISS, zu deren Versorgung, insbesondere nach der Verzögerung und schließlich der Beendigung des Space-Shuttle-Programms, die Sojus-Rakete mit dem Sojus-Raumschiff und dem Progress-Raumtransporter eingesetzt werden.

Roskosmos ist inzwischen Vollmitglied des Consultative Committee for Space Data Systems (CCSDS), einer internationalen Organisation, in der sich die führenden Weltraumorganisationen zusammengefunden haben mit der Aufgabe gemeinsame Methoden des Datenverkehrs mit Raumfahrzeugen, vornehmlich von Forschungssonden auszuarbeiten.

Weitere Informationen:

Rotationsellipsoid

Engl. spheroid; Ellipsoid, das durch die Drehung einer Ellipse um eine ihrer Achsen entsteht. Im Gegensatz zu einem allgemeinen Ellipsoid sind zwei Achsen gleich lang. Man unterscheidet dabei je nach Länge der Drehachse das

  • abgeplattete (oblate) Ellipsoid bei Rotation um die kleine Achse und das
  • verlängerte (prolate) Ellipsoid bei Rotation um die große Achse.

Die meisten größeren Himmelskörper sind angenähert abgeplattete Rotationsellipsoide. Sie entstehen durch die Fliehkraft, die bewirkt, dass ein kugelförmiger Körper verformt wird. An den Polen, also den Durchstoßpunkten der Rotationsachse, werden diese Körper abgeplattet, am Äquator entsteht eine Ausbauchung. Besonders deutlich ist die Abplattung bei der Sonne und den großen Gasplaneten Jupiter und Saturn ausgeprägt, weil sie besonders schnell rotieren und nicht verfestigt sind. Aber auch die Erde und die anderen terrestrischen Planeten werden durch die bei der Rotation entstehenden Fliehkräfte zu Rotationsellipsoiden verformt. Der in zehn Stunden rotierende Jupiter ist um etwa 1/16 abgeplattet, die Erdabplattung beträgt 1/298.

Rotationsellipsoid und Massenverlagerung (rot)

Rotationsellipsoid und Massenverlagerung (rot)

oblates Rotationsellipsoid

oblates Rotationsellipsoid

prolates Rotationsellipsoid

prolates Rotationsellipsoid

Quelle: Wikipedia

In der Geodäsie, Kartographie und den anderen Geowissenschaften werden Rotationsellipsoide als geometrische Annäherung an das (physikalische) Geoid benutzt. Diese Rotationsellipsoide dienen dann als Referenzfläche, um die Lage bzw. Höhe von Objekten der Erdoberfläche anzugeben. Man spricht dann von einem Referenzellipsoid. Die Abweichungen zwischen Geoid und Rotationsellipsoid werden als Geoidundulationen bezeichnet. Beide dienen in der Geophysik als Grundlage für Berechnungen des Schwerefeld der Erde.

rote Kante

Engl. red edge; Bezeichnung für den raschen Anstieg des Reflexionsgrads von gesunder grüner Vegetation im Wellenlängenbereich von 690-730 nm. Ab diesem Bereich absorbieren die Blattpigmente nicht mehr.

Da die rote und die nahe infrarote Region benachbart sind (rot umfasst ca. 600 bis 700 nm und nahes Infrarot beginnt bei ca. 700 nm und endet bei ca. 1200 nm), wird die geringe Vegetationsreflexion des roten Bereichs direkt von einem starken Anstieg auf die hohe Reflexion im nahen Infrarot gefolgt.

Der Red Edge-Gradient besitzt große Bedeutung bei der Auswertung von Bilddaten für eine Vegetationsanalyse. Er kommt u.a. bei der Entwicklung von sog. Vegetationsindizes zum Tragen, die z.B. zur Identifizierung des Vitalitätsgrades von Pflanzen ausgenutzt werden.

Zu größerer Darstellung auf Grafik klicken

Quelle:SEOS
 

Rote Kante bei unterschiedlicher Chlorophyllkonzentration

Die Kurven bezeichnen die Reflexion drei ähnlicher Pflanzenkronen. Den Unterschied zwischen den Dreien bildet die Chlorophyllkonzentration. Die rote, die gelbe und die grüne Linie gehören zu Pflanzen, die eine geringe (rot), eine mittlere (gelb) und eine hohe (grün) Chlorophyllkonzentration besitzen. Je höher die Chlorophyllkonzentration, desto größer die Absorption im roten Bereich, und desto geringer die Reflexion. Zusätzlich gewinnt die Absorptionsmulde (die Fläche, in der die Absorption stattfindet) an Breite. Dies verschiebt die rote Kante zu höheren Wellenlängen (in Richtung des nahen Infrarot) und ihr Anstieg verliert an Steigung.

 
Rückstreukoeffizient

Engl. backscatter coefficient, radar cross section; ein Maß für die Eigenschaft eines Radarziels, Energie zu reflektieren.