Lexikon der Fernerkundung

Alle lexikalischen Einträge zu diesem Buchstaben

P-Band

Frequenzbereich zwischen 100 und 300 MHz (Wellenlänge 30 bis 100 cm) innerhalb des Mikrowellensegments des elektromagnetischen Spektrums. Das P-Band wird für SAR eingesetzt. Messungen mit P-Band werden nicht durch atmosphärische Effekte behindert. Es ist in der Lage, durch schwere Regenschauer hindurchzusehen. Die Durchdringungsfähigkeiten von P-Band-SAR besitzen große Bedeutung im Hinblick auf Untersuchungen von Vegetationsbedeckungen, Gletscher- und Meereis sowie Boden.

PACE

Siehe Plankton, Aerosol, Cloud, ocean Ecosystem (PACE)

Pacific Disaster Center (PDC)

Dem US-amerikanischen Verteidigungsministerium unterstellte zivile Behörde zur Katastrophenvorsorge und -hilfe im pazifischen Raum. Das PDC wird in organisatorischer und technologischer Hinsicht als Modell für globales, nationales und lokales Katastophenmanagement aufgebaut.

Panbildschärfung

Engl. pansharpening; die Fusion von panchromatischen Bilddaten mit hoher Auflösung mit gering aufgelösten Multispektraldaten in einem numerischen Verfahren. Im Ergebnis sind die hohe Auflösung und die multispektrale Farbinformation kombiniert. Das Verfahren ist in digitalen Luftbildkameras und Fernerkundungssatelliten gebräuchlich. Das Ziel der Pansharpening-Technologie in der Fernerkundung ist es, ein Höchstmaß an visueller Klarheit und Detailgenauigkeit eines Bildes zu erreichen.

Überblick

Ein panchromatisches (schwarz-weißes) Bild ist ein Bild mit hoher räumlicher Auflösung und geringer spektraler Auflösung. Multispektrale (farbige) Bilder hingegen haben eine niedrige räumliche Auflösung und eine hohe spektrale Auflösung.

Durch die Kombination dieser beiden Bilder lässt sich ein endgültiges Bild erstellen, das sowohl eine hohe räumliche als auch eine hohe spektrale Auflösung aufweist und somit eine detailliertere Darstellung der Erdoberfläche ermöglicht.

Beim Pansharpening wird ein mathematischer Algorithmus angewendet, damit die Zellen des panchromatischen Bildes die Informationen zur räumlichen Auflösung in den Zellen des multispektralen Bildes verbessern können.

Das Ergebnis des Pansharpening ist ein Bild, das die hohe Auflösung eines panchromatischen Bildes aufweist. Es enthält aber immer noch die Farbinformationen des multispektralen Bildes. Dies erleichtert die Identifizierung von Objekten in einer Szene, da die Merkmale leichter zu erkennen sind und ihnen Farbinformationen zugeordnet sind.

Vorteile und Nachteile der Panbildschärfung

  1. Erhöhte Detailgenauigkeit: Durch die Kombination der hohen räumlichen Auflösung von PAN-Bildern mit den spektralen Informationen von MS-Bildern ergibt das Pansharpening ein Ergebnis mit hoher spektraler und räumlicher Auflösung. Dies ermöglicht eine detailliertere Analyse als jede der beiden Bildtypen für sich allein liefern könnte.
  2. Verbesserte Visualisierung: Durch die höhere Detailgenauigkeit des geschärften Bildes können die Benutzer Objekte und Merkmale im Bild leichter erkennen. Dies kann für Aufgaben wie die Kartierung nützlich sein, bei denen es wichtig ist, einzelne Objekte innerhalb des Bildes zu unterscheiden.
  3. Leichtere Klassifizierung: Die größere Detailgenauigkeit und die Farbinformationen des geschärften Bildes ermöglichen eine genauere Identifizierung von Objekten und Merkmalen innerhalb des Bildes, so dass es einfacher ist, sie bestimmten Klassen zuzuordnen.
  4. Inkonsistente Spektralwerte: Ein Nachteil des Panoramaschärfens ist, dass es schwierig ist, die spektrale Integrität der Daten zu erhalten. So ist es beispielsweise nicht empfehlenswert, eine NDVI-Analyse auf einem nachbearbeiteten pansharpened Bild durchzuführen.
pansharpening_qb Panbildschärfung mit Bildern des Satelliten Quickbird

Das linke, panchromatische Bild hat eine räumliche Auflösung von 0,6 m, das mittlere Echtfarbenbild von 2,4 m.

Bei einer Kombination entsteht ein hochaufgelöstes Farbbild, hier mit Hilfe der Software HighView der Fa. Geosage.

Quellen:
DigitalGlobe / Geosage

Bildmaterial für Pansharpening

Solange ein panchromatisches Band vorhanden ist, ist es möglich, Pansharpening durchzuführen. Wenn man also Pansharpening anwenden will, muss man wissen, welche Satellitenbilder ein panchromatisches Band enthalten. Hier sind einige Beispiele für Fernerkundungsdaten mit einem panchromatischen Band:

Pansharpening-Software

Für das Pansharpening gibt es eine Reihe von verschiedenen Methoden und GIS-Software. Einige Softwarepakete, die für das Pansharpening entwickelt wurden, sind:

Anwendungen in Forschung und Wirtschaft

Pansharpening wird häufig in der wissenschaftlichen Fernerkundung und bei kommerziellen Anwendungen eingesetzt, bei denen hochauflösende Bilder benötigt werden. Da die Auflösung hoch ist, findet man sie normalerweise in Webkartenanwendungen wie Google Earth oder Apple Maps.

Weitere Informationen:

panchromatisch

Bezeichnung für die breitbandige spektrale Empfindlichkeit eines Sensors oder Filmmaterials. Panchromatisch heisst dabei, dass der Sensor über den gesamten Bereich des menschlichen Auges von etwa 400 nm (blau-violett) bis 780 nm (tiefrot) empfindlich ist. Die Abstufung der Grauwerte panchromatischer Daten ist damit typischen schwarz/weiss Bildern vergleichbar. Die HRV-Sensoren auf der Serie der SPOT-Satelliten können beispielsweise im panchromatischen Modus betrieben werden.

Die Hauptunterschiede zwischen der panchromatischen, multispektralen und hyperspektralen Datenerfassung sind die Breite und Anzahl der Aufnahmebänder. Während panchromatische Sensoren mit einem einzigen breiten Aufnahmeband arbeiten, besitzen Multi- und Hyperspektralinstrumente zur Steigerung der spektralen Auflösung eine größere Anzahl schmalerer Aufnahmekanäle. Hyperspektralsensoren können dabei bis zu mehreren hundert dicht nebeneinanderliegende Aufnahmebänder aufweisen.

Das Sammeln von Licht aus einem breiten Bereich von Wellenlängen ermöglicht das Sammeln von mehr Energie und damit hochauflösende Bilder (bis zu 30 cm Auflösung bei den besten kommerziell verfügbaren Satelliteninstrumenten).

Da panchromatische Filme alle Farben in angemessenen, dem Helligkeitsempfinden des menschlichen Auges entsprechenden Grautönen wiedergeben, sind sie für Luftbilder am weitesten verbreitet und dienen allgemein als Aufnahmematerial.

Typisch für panchromatische Filme ist eine etwas geringere Empfindlichkeit für Grün. Dies entspricht der Sensibilität des menschlichen Auges, für das grün – anders als die Alarmfarben rot und gelb – wegen dieser geringeren Empfindlichkeit eine beruhigende, schonende Wirkung besitzt. Auch wirken Abbildungen von panchromatischne Farb- oder Schwarzweissfilmen für das menschliche Auge natürlicher als Bilder im Infrarot. Ferner sind bei panchromatischen Filmen in schattenbedeckten Gebieten mehr Details erkennbar. Insbesondere in Gebieten mit steiler Topographie und/oder hohen dichten Wäldern und somit grossen beschatteten Flächen kommt dieser Vorteil zum Tragen. Beim besonders problematischen Schwarzweissinfrarotfilm werden beschattete Gebiete tiefschwarz dargestellt und lassen in diesen Bereichen keine Details mehr erkennen. Auch sind panchromatische Filme für unterhalb der Wasseroberfläche befindliche Objekte sensibel, und die Auflösung liegt normalerweise über derjenigen von Infrarotfilmen.

Panchromatische Bilder sind das Ergebnis der Messung der Lichtintensität über einen breiten Bereich des elektromagnetischen Spektrums. Durch die Erfassung von Licht aus einem breiten Wellenlängenbereich kann mehr Energie gesammelt werden, was zu hochauflösenden Bildern führt (bei den besten kommerziell erhältlichen Satelliteninstrumenten beträgt die Auflösung bis zu 30 cm).

Ein Standardbeispiel für eine panchromatische Messung ist die Messung der Lichtintensität, die von der beobachteten Szene im gesamten sichtbaren Spektrum ausgeht. Diese Messung deckt normalerweise Wellenlängen zwischen 0,47 und 0,83 μm ab. Das Ergebnis ist in der Regel ein Bild, das in Grautönen dargestellt wird, wie in folgender Abbildung zu sehen.

Havariertes Kreuzfahrtschiff Costa Concordia vor der Insel Giglio (Toskana) Havariertes Kreuzfahrtschiff Costa Concordia vor der Insel Giglio (Toskana)

Dieses panchromatische Bild wurde am 13.1.2012 aufgenommen von dem Satelliten WorldView-1. WorldView-1 ist ein leistungsfähiges, panchromatisches Bildgebungssystem mit einer Auflösung von 0,50 m. Der in 496 Kilometern Höhe operierende WorldView-1-Satellit hat eine durchschnittliche Umlaufzeit von 1,7 Tagen und kann pro Tag bis zu 750.000 Quadratkilometer an Halbmeter-Bildern erfassen.

WorldView-1 wurde am 18. September 2007 um 11:35 Uhr Pacific Daylight Time (PDT) von der Vandenberg Air Force Base in Kalifornien, USA, erfolgreich gestartet. Der Satellit war im August 2022 noch immer aktiv.

Quelle: Satimaging Corporation

Ein weiteres Beispiel für panchromatische Messungen sind thermische Infrarotsensoren bei Wellenlängen zwischen 10 und 12 μm. Die Intensität der IR-Strahlung, die den Satelliten erreicht, steht in direktem Zusammenhang mit der Temperatur des Objekts, das diese Strahlung aussendet. Regionen, in denen der Boden oder der Ozean warm ist, strahlen am intensivsten.

Da IR-Strahlung ständig von der Erde und von Wolken abgegeben wird, können IR-Satellitenbilder auch dann aufgenommen werden, wenn die Szene nicht von der Sonne beleuchtet wird. Im Gegensatz dazu können sichtbare Satellitenbilder, die sich auf das zum Satelliten reflektierte Sonnenlicht stützen, nur bei Tageslicht aufgenommen werden.

panchromatische Kamera

Kamera oder Sensor mit einer Empfindlichkeit im Bereich des sichtbaren Lichtes ohne Differenzierung einzelner Spektralbereiche, sie ist also für das gesamte Spektrum des sichtbaren Lichts gleichermaßen empfindlich. Das bedeutet, dass in panchromatischen Aufnahmen das von Objekten reflektierte sichtbare Licht in Graustufen wiedergegeben wird. Die Abstufungen entsprechen dabei dem menschlichen Helligkeitsempfinden. Farben können zwar nicht wiedergegeben werden, dafür können panchromatische Aufnahmen hohe räumliche Auflösungen erreichen und werden aus diesem Grund häufig für Kartierungszwecke eingesetzt.

panchromatischer Farbfilm

Panchromatische Farbfilme wurden in den 30er Jahren des 20. Jahrhunderts entwickelt. Zunächst wurden sie aufgrund der hohen Kosten und der geringen Auflösung für Luftbildaufnahmen nur selten eingesetzt. Durch Kostenreduktion, Erhöhung der Lichtempfindlichkeit, Verbesserung der Bildqualität und aufgrund der Tatsache, dass Farbbilder einen erhöhten Informationsgehalt aufweisen, wurden sie jedoch immer attraktiver.

Panchromatische Farbfilme bestehen aus drei photosensitiven Schichten, wobei jede Schicht für einen bestimmten Spektral- bzw. Farbbereich empfindlich ist. Die oberste Schicht besitzt eine blauempfindliche (0,4 bis 0,5 µm), die mittlere eine grünempfindliche (0,5 bis 0,6 µm) und die unterste eine rotempfindliche (0,6 bis 0,7 µm) Emulsion. Da die grün- und rotempfindliche Emulsion auch für Blaulicht empfindlich ist, muss ein blauabsorbierender Gelbfilter zwischen die erste und zweite Schicht eingeschaltet werden, der später bei der Entwicklung herausgelöst wird.

panchromatischer Schwarzweißfilm

Schwarzweißfilm, der für alle Farben des sichtbaren Spektrums und für ultraviolettes Licht empfindlich ist und diese in annähernd der Helligkeitsempfindung des menschlichen Auges entsprechende Grautöne umsetzt. Die starke atmosphärische Streuung der UV- und Blaustrahlung vermindert den Kontrast panchromatischer Schwarzweißbilder. Daher wird normalerweise ein kurzwellige Strahlung absorbierender Filter vor der Kameralinse angebracht. Panchromatische Schwarzweißfilme können auch zur Aufnahme ausgewählter Wellenlängenbereiche eingesetzt werden. Möchte man beispielsweise nur grünes Licht abbilden, so müssen Filter eingesetzt werden, welche das übrige sichtbare sowie ultraviolette Licht absorbieren.

Panoramaverzerrung

Engl. panoramic distortion, franz. distortion panoramique; nach DIN 18716 die "systematische Bildverzerrung, die auftritt, wenn mit speziellen opto-mechanischen Scannern aufgenommene Daten unmittelbar als Bilder wiedergegeben werden".

Durch zeilenweise Digitalisierung in konstantem Zeitintervall weisen mit optomechanischen Scannern oder mit entsprechenden Mikrowellenradiometern aufgenommene Bildelemente quer zur Flugrichtung eine Vergrößerung auf. Die Bildelemente werden jedoch in einheitlicher, der Projektion in Nadirrichtung entsprechender Größe dargestellt und damit gestaucht. Die Korrektur dieser Verzerrung (Panoramakorrektur) erfolgt durch Annahme gleichgroßer Bildelemente über die gesamte Streifenbreite und die Rückrechnung der Pixel-Position in das gestauchte Originalbild. Die entsprechenden Grauwerte werden durch eindimensionale Interpolation aus benachbarten Grauwerten (z.B. nearest neighbour) ermittelt.

Parallelepiped Klassifizierung

Syn. Quader- oder Box-Klassifizierung; Methode zur Bildklassifizierung, die eine Parallelepiped-Form nutzt, um Werte einer bestimmten Objektklasse zuzuweisen. Das Parallelepiped repräsentiert einen multi-dimensionalen Raum, definiert in Form von Werten für unterschiedliche Frequenzbänder. Für jeden Spektralkanal wird eine obere und eine untere Grauwertschwelle definiert, die im dreidimensionalen Raum zur Ausbildung von Quadern führen. Jedes Bildelement wird bei der Klassifikation dem Quader zugeordnet, der die Grauwertkombination des Elements in den verschiedenen Spektralkanälen enthält. Die Quader dürfen sich nicht überlappen, bzw. die Grauwerte der einzelnen Kanäle sollten keine starken Korrelationen aufweisen. Die Pixel eines Images werden dann klassifiziert, je nachdem, in welches Parallelepiped sie fallen. Pixel, die herausfallen, werden als unbekannt/nicht zuordenbar klassifiziert.

Unter den überwachten Klassifikationen ist das Verfahren der Parallelepiped-Bildung die einfachste und mit mäßigem Rechenaufwand verbundene Methode.

Parameter

Eine messbare oder abgeleitete Variable, die durch Daten repräsentiert wird, z.B. Meeresoberflächentemperatur, Eismächtigkeit, relative Luftfeuchte.

Das CEOS EO Handbook bietet eine in die Großgruppen Atmosphäre, Land, Ozean, Schnee und Eis sowie Schwerkraft- und Magnetfelder gegliederte Übersicht von mittels Satelliten beobachteten Parametern und diesbezüglichen Instrumenten. Deren Einsatzzeit ist mit Hilfe von Zeitleisten (Timelines) visualisiert.

PARASOL

Engl. Akronym für Polarization and Anisotropy of Reflectances for Atmospheric Science coupled with Observations from a LIDAR; Mission der CNES zur Bestimmung der mikrophysikalischen und der Strahlungseigenschaften von Wolken und Aerosol. Diese Informationen sind wichtig, um den Einfluss von Wolken und Aerosol auf den Strahlungshaushalt bestimmen und modellieren zu können. Hauptinstrument ist POLDER (Polarization and Directionality of the Earth's Reflectances), ein bildgebendes Radiometer/Polarimeter mit weitem Blickfeld. PARASOL ist die zweite Mission der Myriade-Mikrosatellitenserie.

Der Satellit, dessen nominelle Einsatzzeit auf zwei Jahre angesetzt war, befand sich seit Dezember 2004 auf einer sonnensynchronen Umlaufbahn in 700 km Höhe. Ein Umlauf dauert 98,8 min. Im November 2011 wurde PARASOL 9,5 km unter den A-Train abgesenkt und beobachtete aber weiterhin Wolken und Aerosole. PARASOL wurde Ende 2013 abgeschaltet.

Weitere Informationen:

PARIS

Engl. Akronym für Passive Reflectrometry and Interferometric System; in Entwicklung befindliche Instrumentennutzlast der ESA zur Erfassung der Oberflächenrauigkeit der Ozeanoberfläche unter Verwendung von GPS-/GNSS-Radiosignalen.

pass

Engl. für Satellitenbefliegung, Satellitenüberfliegung

passiver Sensor

Engl. passive sensor, franz. capteur passif; Aufnahmesystem der Fernerkundung, das die natürlich vorhandene oder schon künstlich, extern existierende Strahlung empfängt.

Passive Sensoren sind beispielsweise verschiedene Arten von Radiometern (Instrumente, die die Intensität elektromagnetischer Strahlung in ausgewählten Frequenzbändern quantitativ messen) und Spektrometern (Geräte, die dafür ausgelegt sind, den Spektralgehalt reflektierter elektromagnetischer Strahlung zu erfassen, zu messen und zu analysieren). Die meisten passiven Systeme, die bei Fernerkundungsanwendungen verwendet werden, arbeiten im sichtbaren, Infrarot-, thermischen Infrarot- und Mikrowellenbereich des elektromagnetischen Spektrums. Diese Sensoren messen Land- und Meeresoberflächentemperatur, Vegetationseigenschaften, Wolken- und Aerosoleigenschaften und andere physikalische Eigenschaften.

Die meisten passiven Sensoren können dichte Wolkendecke nicht durchdringen und haben daher Einschränkungen bei der Beobachtung von Gebieten wie den Tropen, wo dichte Bewölkung häufig ist.

Schema eines passiven Sensors im Vergleich zu einem aktiven Sensor
Schema eines passiven Sensors im Vergleich zu einem aktiven Sensor

 

Quelle: NASA

Liste von Typen passiver Fernerkundungssensoren:

Weitere Informationen:

passives (Fernerkundungs)System

Engl. passive remote sensing system, franz. système de télédétection passive; ein System, das im Gegensatz zu einem aktiven (Fernerkundungs)System nur für elektromagnetische Strahlung empfindlich ist, die

Die vom System empfangenen Strahlungswerte können dann mit teilweise aufwändigen Umrechnungsverfahren in geophysikalische Größen, z.B. Temperatur umgerechnet werden.

DIN 18716 definiert den Begriff knapp als "Aufnahmesystem, das die natürliche elektromagnetische Strahlung nutzt".

Abgesehen von technischen Lösungen ist das menschliche Sehvermögen bereits ein eindrucksvolles Fernerkundungssystem. Unsere Augen nehmen das von unserer Umgebung reflektierte sichtbare Licht (Spektralbereich 0,4-0,7 Mikrometer) auf, das dann vom Gehirn als Bild verstanden wird. Mental interpretieren wir die Farben, Strukturen, Umrisse und Größen von Objekten um daraus Informationen wie ihre Identität, ihr Zustand, ihre Geschwindigkeit und Bewegungsrichtung und andere Qualitäten abzuleiten. Allerdings hat unser Sehsystem Begrenzungen im Hinblick auf globale Erkundungsaufgaben. Unser Vermögen, Bilder zu speichern und wieder abzurufen, ist ungenau. Zudem können wir keine Informationen aufnehmen, die Wellenlängen benutzen, für die unser Auge nicht wahrnehmbar sind. Auch verschließen sich dem menschlichen Beobachter Gebiete die schwer zu erreichen oder gefährlich sind wie die Tiefsee, das Weltall und Gebiete mit hohen Temperaturen oder starker Strahlung. Flugzeug- und satellitengetragene Sensoren liefern eine Vielfalt von Umweltdaten von Flächen, die mit anderen Mitteln nicht zusammengetragen werden können.

Passive Systeme werden im Bereich von Sichtbar bis Infrarot eingesetzt. In diesem Bereich des elektromagnetischen Spektrums ist man auf einen wolkenfreien Himmel angewiesen. Die Sensoren dieser Systeme erfassen die Strahlung, die von Objekten und ihrer Umgebung emittiert oder reflektiert wird. In der Regel ist dies die reflektierte Sonnenstrahlung. Dabei gilt es zu berücksichtigen, dass in diesem Bereich des elektromagnetischen Spektrums jede Form von Strahlung auf ihrem Weg von der Sonne zum Objekt und schließlich zum Sensor durch die Atmosphäre auf verschiedenste Weise beeinflusst wird. Sowohl die Sonnenstrahlung als auch die von der Erde reflektierte Strahlung werden von Partikeln in der Atmosphäre gestreut, reflektiert oder absorbiert. Insbesondere Kohlendioxid, Ozon und Wasserdampf absorbieren stark. Für die Fernerkundung stellt die Reflexion von Wolken aber das größte Problem dar, da die Strahlung die Wolken in diesem Bereich des Spektrums nicht durchdringen kann.

Zwei Arten von Fernerkundung: Passiv und Aktiv Zwei Arten von Fernerkundung: Passiv und Aktiv

Passive Sensoren erfassen Strahlung, die vom Objekt oder der Umgebung emittiert oder reflektiert wird. Reflektiertes Sonnenlicht ist die häufigste Strahlungsquelle, die von passiven Sensoren gemessen wird. Beispiele für passive Fernsensoren sind Filmfotografie, Infrarot, ladungsgekoppelte Geräte und Radiometer.

Bei der aktiven Erfassung hingegen wird Energie ausgesandt, um Objekte und Bereiche abzutasten, woraufhin ein Sensor die vom Ziel reflektierte oder zurückgestreute Strahlung erfasst und misst. RADAR und LiDAR sind Beispiele für die aktive Fernerkundung, bei der die Zeitverzögerung zwischen Emission und Rückkehr gemessen wird, um den Standort, die Geschwindigkeit und die Richtung eines Objekts zu bestimmen.

Quelle: Wikipedia (e.)

Passive Sensoren sind z. B. auf den Satelliten der Sentinel-2-Mission, der Landsat-Serie und auf RapidEye (messen reflektierte Sonnenstrahlung) sowie auf Landsat 8 (misst emittierte Wärmestrahlung) verbaut. Passive und optische Sensoren nehmen die Strahlung vom sichtbaren Bereich des elektromagnetischen Spektrums bis in den infraroten Bereich nach Wellenlängen getrennt in sogenannten Spektralkanälen auf. Deshalb spricht man bei solchen Systemen auch von multispektraler Fernerkundung. Das Produkt eines Spektralkanals sind Grauwertbilder, die die Intensität der aufgenommenen Strahlung wiedergeben. Der Sensor nimmt also nur Helligkeitsunterschiede auf. Bei der optischen Auswertung der Multispektraldaten weist man den verschiedenen Spektralkanälen (Bändern) dann bestimmte Farben zu und kombiniert die Grauwertbilder miteinander.

Je mehr Kanäle ein Fernerkundungssensor hat, umso höher ist auch die spektrale Auflösung des Satelliten. Bei Sensoren, die mehr als 20 bis hin zu 200 oder gar mehr Spektralkanäle haben, spricht man von hyperspektralen Systemen.

Bei einem passiven Fernerkundungssystem lassen sich verkürzt folgende Vorgänge ausmachen:

Weitere Informationen:

passives Mikrowellensystem

Sensorsystem, das die von der Erdoberfläche ausgesandte natürliche Mikrowellenstrahlung erfasst, z.B. ein Limb-sondierender Mikrowellensensor.

Passpunkt (GCP)

Syn. Referenzpunkt, Festpunkt, Kontrollpunkt, engl. ground control point (GCP), franz. point d'amer, point de calage; in der Photogrammetrie und Fernerkundung ein Punkt in einem Bild oder photogrammetrischen Modell, dessen Objektkoordinaten mit geodätischen (i.d.R. mit GPS) oder photogrammetrischen Verfahren bestimmt oder aus Karten entnommen wurden. Passpunkte werden dazu benutzt, die exakte räumliche Position und Orientierung des Luft- oder Satellitenbildes zum Boden zu bestimmen und das Bild in ein vorgegebenes Koordinatensystem zu transformieren. Als Passpunkte eignen sich Objektpunkte, die in einem Bild identifiziert werden können (z.B. Gebäudeecken, einzelne Felsen) und deren Koordinaten im Objektraum bekannt sind. Wenn Passpunkte nicht mit ausreichender Sicherheit im Bild identifiziert werden können, ist eine Signalisierung der Geländepunkte vor dem Bildflug erforderlich.

Gewöhnlich unterscheidet man drei Arten von Passpunkten:

Passpunktbestimmung

Engl. measuring ground control points; Bestimmung der Objektkoordinaten aufgabenspezifisch ausgewählter Passpunkte des aufzunehmenden Objektes. Die Koordinatenbestimmung kann für eine begrenzte Anzahl von Punkten geodätisch und unter Verwendung der auf diesem Weg bestimmten Punkte in größerem Umfang photogrammetrisch erfolgen. Die geodätische Paßpunktbestimmung umfaßt die Koordinatenbestimmung, in der Regel mit GPS, die Kennzeichnung der Punkte im Luft- bzw. Satellitenbild und die Anfertigung einer Einmessungsskizze als Grundlage für eine sichere Identifizierung bei der photogrammetrischen Bildauswertung.

path

Engl. für Satellitenbefliegung, Satellitenumlauf

PAZ

Radarsatellitenmission der spanischen Fa. Hisdesat. Zusammen mit dem optischen Erdbeobachtungssatelliten INGENIO bildet PAZ das Programa Nacional de Observación de la Tierra por Satélite (PNOTS). PAZ startete am 22. Februar 2018 mit einer Falcon-9 Rakete von der Vandenberg Air Force Base in Kalifornien, INGENIO soll 2019 folgen. Der Satellit PAZ (spanisch für „Frieden“) wird sich auf demselben Orbit bewegen wie TerraSAR-X und TanDEM-X. PAZ wurde als Dual-Use-Mission entwickelt - vorrangig, um die Verteidigungs- und Sicherheitsbedürfnisse zu erfüllen, jedoch auch für zivile Anwendungen im Bereich der hochauflösenden Erdbeobachtung. Die Anwendungen sind vielfältig: Überwachung der Erdoberfläche, Grenzkontrolle, taktische Unterstützung von Missionen im Ausland, Krisenmanagement und Risikobewertung von Naturkatastrophen, Umweltüberwachung, die Überwachung der Meeresumwelt usw.

PAZ ist baugleich mit TerraSAR-X und wurde wie dieser am deutschen Astrium-Standort Immenstaad gebaut. PAZ benutzt Synthetic Aperture Radar im X-Band. Diese Instrumente sind von Astrium (heute Airbus Defence and Space) am Standort Barajas entwickelt und gebaut worden. Die Daten können an Bord in einem 256-GB-Speicher gehalten und dann mit einer Rate von 300 Mbit/s zur Erde gesendet werden. Hierbei wird ebenfalls das X-Band bei ca. 9,65 GHz verwendet. Damit die Downlink-Übertragung das Radarinstrument nicht beeinträchtigt, ist die Sendeantenne an einem Ausleger montiert, der erst im Weltraum aufgeklappt wird. Die Gesamtmasse des Satelliten beträgt etwa 1.200 kg, die elektrische Leistung der Solarkollektoren 850 W. Die für unterschiedliche Betriebsarten ausgelegte flache Phased-Array-Antenne des Instruments mit aufgedruckten Strahlern ist 4,8 m lang und 0,7 m breit und arbeitet mit unterschiedlichen Schwadbreiten und Auflösungen von bis zu einem Meter.

PAZ umkreist die Erde auf einem sonnensynchronen Polarorbit in einer Höhe von 514 km täglich 15-mal. Er wird durchschnittlich 200 Bilder pro Tag liefern und eine Fläche von rund 300.000 km² abtasten können.

Zur Verfügung stehende Auflösungen :

PAZ-Satellitenkonstellation PAZ-Satellitenkonstellation

Der im Februar 2018 gestartete spanische Erdbeobachtungssatellit PAZ ergänzt die Radarsatelliten-Konstellation aus TerraSAR-X und TanDEM-X. Mit dem dritten Satelliten im selben Orbit liefert die Konstellation künftig eine höhere Servicequalität und bietet Nutzern zahlreiche Vorteile:

  • Tägliche Wiederholrate – für Bildaufklärung oder überwachung mit bis zu 12 Stunden Wiederholfrequenz
  • Erfassung mit vier- oder siebentägiger Wiederholrate – für Interferometrie-Anwendungen, z. B. Überwachung von Oberflächenbewegungen oder Kohärenzveränderungen
  • Doppelt so hohe Erfassungskapazität – für mehr datenintensive Monitoring- und Mapping-Anwendungen
Quelle: Airbus

Die Bodenstation für Paz und Ingenio befindet sich in Torrejón de Ardoz bei Madrid. Als Ersatzstation fungiert Maspalomas auf den Kanarischen Inseln. Beide Stationen werden vom Instituto Nacional de Técnica Aeroespacial (INTA) betrieben. Das Bodensegment von PAZ baut auf Technologien auf, die vom IMF für die beiden Zwillingssatelliten entwickelt wurden. Eine Konstellation aus drei Satelliten kann in Zukunft somit schneller verfügbare Aufnahmen ermöglichen.

PAZ, wie auch die beiden in enger Formation fliegenden Satelliten TerraSAR-X und TanDEM-X, kann fast jede Szene auf der Erdoberfläche innerhalb von drei Tagen abbilden. Im Mittel können die Satelliten einen Ort innerhalb von 24 Stunden erfassen beziehungsweise eine Aufnahme wiederholen. Alle elf Tage überfliegen sie denselben Punkt am Boden mit der exakt gleichen Aufnahmegeometrie. Der zusätzliche Einsatz von PAZ ermöglicht künftig höhere Erfassungskapazitäten und kürzere Wiederholraten – Aufnahmen können somit schneller verfügbar gemacht werden. Die drei Radarsatelliten bieten dieselben Bildgebungsmodi und liefern identische Bildeigenschaften.

Die von PAZ erfassten Daten werden zudem in Copernicus, das Umweltüberwachungssystem der Europäischen Union, einfließen.

Weitere Informationen:

Pelican

Bezeichnung für eine künftige Flotte von Satelliten der Firma Planet mit sehr hoher Auflösung. Wenn die Pelican-Konstellation voll einsatzfähig ist, ergänzt und verbessert sie die bestehende hochauflösende SkySat-Flotte von Planet mit besserer Auflösung, häufigeren Bildwiederholungen und geringerer Reaktionszeit. Die Pelican-Konstellation wurde Planet-intern entworfen und wird im Planet-Hauptsitz in San Francisco gebaut.

Am 11. November 2023 wurde Pelican-1, der erste technische Demonstrationssatellit für die hochauflösende Pelican-Flotte der nächsten Generation mit der Transporter-9-Mission von SpaceX von der Vandenberg Space Force Base aus erfolgreich in die Umlaufbahn gebracht. Pelican-1 ist eine Technologiedemonstration, die gebaut wurde, um das integrierte Design von Pelican und die gemeinsame Busplattform von Planet zu testen. Diese gemeinsame Busplattform, die von Planet entwickelt und gebaut wurde, wird auch die künftige Hyperspektralmission Tanager des Unternehmens beherbergen. Die endgültige Konstellation wird aus bis zu 32 Satelliten bestehen.

Pelican wurde mit Blick auf die Zukunft entwickelt und soll Verbesserungen in Bezug auf Kapazität, Geschwindigkeit und Genauigkeit bieten. Von einer höheren Wiederholrate über eine höhere Auflösung bis hin zu einer ultraschnellen Erfassung soll Pelican einen großen Sprung nach vorn machen und Ihnen die Informationen liefern, die Sie brauchen, um angesichts des Wandels zuversichtlich zu handeln.

Die Pelican-Satelliten werden in der Lage sein, Bilder mit einer Auflösung von bis zu 30 Zentimetern aufzunehmen. Das bedeutet, dass jedes Pixel mehr Details zeigt als die 50-Zentimeter-Auflösung der 21 SkySat-Satelliten, die Planet derzeit in der Umlaufbahn hat.

Nach Angaben von Planet-CSO Robbie Schingler erreicht Pelican die höchste Auflösung, die heute auf dem Markt erhältlich ist. Der Unterschied liegt in der Anzahl der Satelliten und in der Echtzeit-Konnektivität - und dann auch in dem, was man mit Planet als unklassifizierte Quelle bekommt".

Die Anzahl der geplanten Pelican-Satelliten wird auch eine andere wichtige Kennzahl für Planet erhöhen: die Revisit-Fähigkeit seiner höherwertigen Bildgebungsprodukte. Revisit bedeutet im Wesentlichen, wie oft die Satelliten eines Unternehmens einen bestimmten Ort am Boden abbilden können.

Schingler zufolge wird die Pelican-Konstellation in der Lage sein, den größten Teil des Globus bis zu 10 Mal pro Tag zu überfliegen, in den mittleren Breitengraden - wo die meisten Menschen auf der Erde leben - sogar bis zu 30 Mal pro Tag. Zum Vergleich: Der Planet-Konkurrent Maxar wirbt für seine neuen WorldView Legion-Satelliten mit bis zu 15 Überflügen pro Tag.

Weitere Informationen:

Perigäum

Engl. perigee, franz. périgée; auf einer elliptischen Umlaufbahn der Punkt, an dem ein Satellit der Erde (Erdmittelpunkt) am nächsten ist. Zieht man von dieser Entfernung den Erdradius ab, so erhält man die Minimalhöhe der Satellitenbahn über der Erdoberfläche. (Ggs. Apogäum)

Apogäum und Perigäum eines Satellitenorbit Apogäum und Perigäum eines
Satellitenorbit



Quelle: mercat (R.o.)

Perihel

Der sonnennächste Punkt auf der Umlaufbahn eines Planeten oder eines die Sonne umkreisenden Satelliten.

Periodendauer

Zeit, die ein Satellit für einen Umlauf benötigt.

Perizentrum

Punkt auf dem elliptischen Orbit eines Raumschiffes, an dem dieses am geringsten von dem Körper entfernt ist, den es umläuft. Ist dieser Körper die Erde, wird der Begriff Perigäum verwendet, im Falle der Sonne der Begriff Perihel (Ggs. Apozentrum).

Permafrost und Fernerkundung

Permafrost-Regionen nehmen rund 25 Prozent der Erdoberfläche der Nordhemisphäre ein. In vielen dieser Regionen taut der Permafrost- bzw. Dauerfrostboden langsam und unaufhaltsam auf  – mit drastischen Konsequenzen für das Klima und die Erde. Vor allem die Inuits, eine in Kanada und Grönland beheimatete indigene Volksgruppe, sind von den Folgen betroffen. Ein Auftauen der Dauerfrostböden erschwert das Jagen und den Hausbau. Zudem können Straßen, Eisenbahnschienen, Landebahnen, Gebäude, und Öl- und Gas-Pipelines beschädigt werden, da der Boden schlammig und instabil wird.

In den Alpen, einem weiteren Verbreitungsgebiet von Permafrost, ist die Bodentemperatur im Dauerfrost innerhalb von 50 Jahren um 0,5 Grad gestiegen. In den vergangenen 100 Jahren hat sich die Permafrostgrenze um 100 bis 300 Höhenmeter nach oben verschoben. Diese stets gefrorenen Böden, die im Sommer nur oberflächlich abtauen, haben eine wichtige Funktion: Das Eis hält Felsgestein, Schutt, Steine und Boden zusammen. Permafrost in Felswänden oder steilen Hängen trägt massgeblich zur Hangstabilität bei: je kälter der Permafrost, desto höher ist die Hangstabilität. Mit einsetzender Erwärmung wird das Eis-Fels-Gemisch "weicher", d.h. das Gemisch beginnt sich plastisch zu deformieren und zu rutschen. Dies kann langsam, aber auch abrupt geschehen. Millionen Euro werden für den Katastrophenschutz ausgegeben. Siedlungen und Verkehrswege müssen mit Auffangdämmen vor Schnee- und Gerölllawinen geschützt werden.

In den sich rasch erwärmenden arktisch-borealen Regionen des hohen Nordens verstärkt sich die Dynamik der Permafrostlandschaft. Mit Feldstudien können eine Vielzahl von periglazialen Prozessen im Zusammenhang mit Permafrostbildung und -auftauen beobachtet und verstanden werden, aber für ein umfängliches, quantitatives Verständnis dieser Dynamik und ihrer Auswirkungen über lokale Untersuchungsflächen hinaus liefert die Fernerkundung sehr nützliche und zunehmend einzigartige Erkenntnisse. Darüber hinaus überbrückt die Fernerkundung oft die räumlichen und zeitlichen Lücken zwischen Feldmessungen und Modellierungen indem sie räumlich konsistente und/oder zeitlich kontinuierliche Zeitreihendaten über Landbedeckungsveränderungen, Permafrostlandschaftswandel, oder andere Umweltdynamiken liefert.

Permafrost(boden)

Von Permafrost(boden) oder Dauerfrostboden spricht man, sobald die Temperatur des Bodens in mindestens zwei aufeinanderfolgenden Jahren unter null Grad Celsius liegt. Der Untergrund kann dabei aus Gestein, Sedimenten oder Erde bestehen und unterschiedlich große Eismengen enthalten. In der Arktis gibt es Gebiete, in denen 70 Prozent des Untergrundes aus Eis bestehen – beispielsweise im nordöstlichen Sibirien. Dort gab es während der letzten Kaltzeit (115.000 bis 10.000 Jahre vor heute) besonders kalte und lange Winter. Gleichzeitig wurde der Boden dort nicht von einem Eisschild geschützt, so dass kalte Luft tief in den Boden eindringen konnte. Bis circa 1,6 Kilometer reicht der Dauerfrost in dieser Region heute ins Erdinnere.

Die meisten Permafrost-Landschaften sind an der typischen Musterung ihrer Oberfläche zu erkennen, zum Beispiel durch so genannte polygonale Netzstrukturen, die sich durch wiederholtes Gefrieren im Winter bilden. Die extrem kalten Wintertemperaturen der Arktis führen dazu, dass sich der gefrorene Boden über die Landschaftsoberfläche hinweg zusammenzieht. Hierdurch entsteht ein regelmäßiges Muster von Rissen, ganz ähnlich wie Bodenrisse nach einer Dürre. Während der Schneeschmelze im Frühjahr werden diese zentimeterweiten und metertiefen Risse mit Wasser gefüllt. Aufgrund der Kälte des Bodens gefriert dieses Wasser gleich wieder, wodurch sich vertikale Eisvenen bilden, die über Jahrzehnte und Jahrtausende zu Eiskeilen heranwachsen und an der Oberfläche die typischen Polygonmuster entstehen lassen.

Ein typischer Boden in einer Permafrostregion besteht aus zwei Schichten: einer so genannten aktiven und einer gefrorenen Schicht. Die aktive obere Schicht taut jeden Sommer um circa 15 bis 100 Zentimeter auf. In dieser dünnen Schicht spielt sich der Großteil der biologischen und biochemischen Aktivität in arktischen Böden ab.

Permafrost tritt viel häufiger auf, als allgemein vermutet wird – circa ein Viertel der Landfläche auf der Nordhalbkugel sind Permafrostböden. Der Großteil dieser Böden findet sich in den Polarregionen, aber auch in hohen Gebirgen. So gibt es sogar in Deutschland alpinen Permafrost, nämlich auf der Zugspitze.

Im Permafrost sind riesige Mengen abgestorbener Pflanzenreste gespeichert, Permafrostböden sind Kohlenstoffsenken. Schätzungen zufolge könnten dort 1.600 Milliarden Tonnen Kohlenstoff gespeichert sein. Im Gegensatz zu tropischen oder gemäßigten Klimazonen kann diese organische Materie im gefrorenen Boden nicht durch Mikroben abgebaut werden, da Bakterien erst aktiv werden, wenn der Permafrost taut.

Doch wenn sich das Klima weiter erwärmt, der Permafrost in der Folge taut, wird das organische Material der oberen Bodenschicht von Mikroorganismen zersetzt. Steht dabei Sauerstoff zur Verfügung, entsteht Kohlendioxid (CO2). Herrscht Sauerstoffmangel, weil Wasser auf der Oberfläche steht, entsteht durch Fäulnisprozesse Methan (CH4). Methan ist etwa 21-mal gefährlicher für das Klima als Kohlendioxid.

Neben dem schon jetzt vermehrt freigesetzten Methan lauert eine weitere Gefahr: Methanhydrate - große Kristalle mit eingelagerten Methanmolekülen. Sie lagern in großen Mengen eingeschlossen im vereisten Boden, aber auch in Meeressedimenten. Methanhydrate bilden sich bei hohem Druck und niedrigen Temperaturen. Sie sind brennbar und zersetzen sich an der Luft.

Quelle: AWI

Permafrost in der nördlichen Hemisphäre Permafrost in der nördlichen Hemisphäre

Der Permafrost taut auf und verändert sich schnell, was die arktische Region und den gesamten Planeten vor ernsthafte Herausforderungen stellt. Eine neue Karte, die im Rahmen des Nunataryuk-Projekts erstellt wurde, gibt ein aktuelles Bild der Ausdehnung des Permafrosts in der Arktis und den subarktischen Regionen, sowohl an Land als auch vor der Küste, und stellt eine wichtige Grundlage dar, von der aus Permafrostveränderungen in der Zukunft gemessen werden können.

Diese neue Karte spiegelt ein verbessertes Verständnis der Ausdehnung des Permafrosts sowohl an Land als auch unter Wasser wider. Sie veranschaulicht, wie sich der terrestrische Permafrost unter dem Arktischen Ozean ausbreitet, insbesondere in Nordsibirien und Alaska. Etwa 10 Prozent der gesamten Permafrostfläche in der nördlichen Hemisphäre befindet sich unter dem Meeresboden, und seine Dicke variiert stark. Submariner Permafrost ist noch viel weniger erforscht als terrestrischer Permafrost, und weitere Forschung ist notwendig, um das Ausmaß und die Auswirkungen des auftauenden Permafrosts besser zu verstehen, insbesondere in den Küstenregionen der Arktis.

Quelle: GRID Arendal 2021

Fernerkundliche Messungen ermöglichen mit ihrer großräumigen Abdeckungen und hohen räumlichen Auflösung ein genaues Monitoring von jahreszeitlich bedingten und langfristigen Änderungen, die durch in der aktiven Schicht des Permafrostes auftretende Auftau- und Gefrierprozesse hervorgerufen werden. Diese Informationen können in Kombination mit in-situ Beobachtungen genutzt werden, um die im aktiven Bereich des Permafrosts ablaufenden Prozesse und ihre Einflussfaktoren besser zu verstehen.

Wissenschaftler, z.B. des AWI konzentrieren sich mit ihren Fernerkundungsarbeiten insbesondere auf die Landschaftsmerkmale der Permafrostregion, die Veränderung der Bodenbedeckung, Oberflächenstörungen sowie Küstenprozesse mit einer breiten Palette von hoch bis moderat auflösenden Sensoren (optisch, hyperspektral, SAR, Lidar). Als Sensorträger kommen dabei sowohl Satellitenplattformen, wie auch die AWI-eigenen Boden- und Flugzeugplattformen zum Einsatz. Die Beobachtungsobjekte umfassen Thermokarst- und Thermoerosionsprozesse, Seen und Seeneis, Landbedeckungsänderungen, Frosthebungen und Tauabsenkungen, Süßwasser- und küstennahe aquatische Umgebungen sowie eine Vielzahl von periglazialen Landformen. Die Wissenschaftler verwenden die Informationen aus der Fernerkundung für die Analyse von räumlichen Verteilungen, Mustern und Morphometrien, die Quantifizierung von Prozessraten, Frequenzen und Größen, die Beurteilung von Veränderungen vom Plotmaßstab bis hin zu kontinentalen Regionen sowie die Skalierung von Felddaten wie zum Beispiel Kohlenstoffspeicher und -flüsse.

Weitere Informationen:

PerúSAT-1

Erdbeobachtungssatellit der peruanischen Raumfahrtbehörde CONIDA, gestartet mit einer Vega-Trägerrakete am 16. September 2016 vom europäischen Raumfahrtbahnhof Kourou in Französisch-Guayana.

Der dreiachsenstabilisierte PerúSAT-1 befindet sich auf einer sonnensynchronen polaren Umlaufbahn in einer Höhe von rund 695 km. Mithilfe seines hochmodernen Siliziumkarbid-Optikinstruments wird der Satellit Aufnahmen mit einer Auflösung von 70 cm (2 m Auflösung in Farbe mit vier Kanälen) liefern. Die Schwadbreite beträgt 20 km. Die Aufnahmen werden unter anderem eingesetzt in den Bereichen Landwirtschaft, Klimabeobachtung, Stadtplanung, Kartographie, Bergbau, Geologie, Hydrologie, Grenzkontrolle und Bekämpfung des Drogenhandels sowie zur Unterstützung des Managements humanitärer Hilfseinsätze und zur Auswertung von Naturkatastrophen. Die Datenübertragung zur Erde erfolgt im X-Band mit 180 bis 310 MBit/s. Die Telemetrie und Steuerung erfolgt im S-Band. PerúSAT-1 wird der leistungsstärkste Erdbeobachtungsatellit Lateinamerikas sein.

Tagebau der Kupfermine Cuajone (Südperu)

Das erste Bild von PerúSAT-1

PerúSAT-1 verfügt über ein Siliziumkarbid-Optikinstrument mit einer Auflösung von 70 cm und basiert auf der AstroBus-S-Plattform.

Die Bilddaten werden in vielen Bereichen eingesetzt, von der Landwirtschaft bis zur Katastrophenhilfe.
Der Satellit wird von der peruanischen Raumfahrtagentur CONIDA betrieben.

Quelle: Airbus D&S

Der von der von Airbus Defence and Space in einer Rekordzeit von weniger als 24 Monaten gebaute Satellit basiert auf der hoch flexiblen, kompakten AstroBus-S-Plattform. Der Satellit wurde in einen Mehrfachnutzlast-Dispenser integriert, der von ebenfalls von Airbus DS entwickelt und gebaut wurde, um mit einem einzigen Start mehrere Satelliten in den Weltraum zu bringen. Neben PerúSAT-1 befanden sich auch vier optische Mikrosatelliten der der Firma Terra Bella an Bord der Vega-Trägerrakete, die nacheinander in den Orbit gebracht wurden.

Weitere Informationen:

Phänologie

Disziplin, die den Einfluss des Klimas (hauptsächlich der Temperaturverhältnisse) auf die Biosphäre hinsichtlich des Eintritts bestimmter Entwicklungsstadien und Lebensäußerungen analysiert. Die Ergebnisse werden in phänologischen Karten ausgewertet und gestatten z.B. eine standortdifferenzierte Anbauplanung besonders von Sonderkulturen.

Für die Dokumentation und Optimierung der Pflanzenproduktion kann ein regelmäßiges Monitoring der Pflanzenentwicklung über die gesamte Vegetationsperiode wichtig sein. Häufig ist es nicht möglich, auf einem großen Gebiet mit einer großen Anzahl von Feldern Geländemessungen durchzuführen, um den Pflanzenbestand zu überprüfen. Durch den Einsatz von Satellitendaten, die mehrfach im Jahr zur Verfügung stehen, kann in der Vegetationsperiode für jeden Schlag der phänologische Verlauf beobachtet werden.

Pflanzenentwicklung Bestandsmonitoring

Mögliche Fragestellungen beim Bestandsmonitoring, die für Zuckerrüben-fabriken hilfreich sind, um die Kampagne zu planen und abzuschätzen:

  • Welches Feld reift schnell heran?
  • Gibt es Felder, die sich negativ im Pflanzenwachstum entwickeln?
  • Wann fängt das Abreifen des Bestandes an?
  • Was für eine Ernte ist zu erwarten?

Links eine Satellitenbildfolge mit Zuckerrübenschlägen und deren sichtbarer phänologischer Entwicklung über die Wachstumsphase.

Quelle: Vista-geo.de

Weitere Informationen:

Photodetektor

Engl. photodetector; syn. Lichtsensor, in der Fernerkundung eingesetzte Detektoren, die auf Änderungen des einfallenden Photonenflusses reagieren. Vom Ultraviolett bis zum nahen Infrarot (ca. 1 µm) werden Silikon-Photodioden benutzt. Zwischen 1 - 12 µm sind es Materialien wie PbS (Bleisulfid), InSB (Indium-Antimonid), HGCdTe (Quecksilber-Cadmium-Tellurid). Typische Photodetektoren werden photovoltaisch (PV = Spannungsänderungen) oder photokonduktiv (PC = Widerstandsänderungen) genutzt. Jeder Photodetektor reagiert auf Strahlung eines bestimmten Wellenbereichs. Photodetektoren für den nahen oder thermalen Infrarotbereich (> 1 µm) müssen zur Reduktion des Eigenrauschens gekühlt werden. Je länger die Wellenlängen, desto kälter muss der Detektor sein.

Photogeologie

Engl. photogeology, franz. photogéologie; Bezeichnung für die Methoden der geologischen Luftbild- und Satellitenbildauswertung im Rahmen der verschiedenen Aufgabenstellungen, insbesondere bei der regionalen und lokalen geologischen Kartierung, bei der Erz- und Erdölprospektion, bei hydrologischen und ingenieurgeologischen Projekten. Dabei hilft die Beschreibung und Interpretation der räumlichen Veränderungen der Erdoberfläche bezüglich Farbe, Grau- und Farbton, Geometrie, relatives Relief, Oberflächenstruktur, Ausbiss geologischer Schichten, Lineamente, Entwässerungssysteme, Vegetationsmuster usw. Dabei bedient man sich häufig der Methoden der digitalen Bildverarbeitung, indem man über Filter oder Farbtransformationen etc. diese Eindrücke verstärkt.

Da zwischen den Oberflächenformen der landschaftsgenetischen Formationen und dem geologischen Untergrund enge Zusammenhänge bestehen, können aus den in Luft- und Satellitenbildern sichtbaren Formen und Merkmalen vielfältige Schlussfolgerungen auf die Gesteinstypen und den tektonischen Aufbau einer Landschaft gezogen werden. Dies gilt in besonderem Maße für aride und semiaride Regionen, wo Oberflächenformen nicht durch die Vegetation verdeckt werden. Aufgrund der hohen praktischen Bedeutung hat sich die Photogeologie als Teildisziplin entwickelt. Auch bei der Konzeption der Satelliten und Sensorsysteme ist dies z. T. berücksichtigt (z.B. Kanal 7 des Landsat Thematic Mapper).

Photogrammetrie

Engl. photogrammetry, franz. photogrammétrie; Herstellung von Karten aus Luftbildern, Photographien oder Satellitenbildern als eigenständige Methodik der Geofernerkundung. Dabei wird in erster Linie geometrische Information (Form, Größe, Lage u.a.) aus den Bildern extrahiert zur genauen Erfassung der Topographie und quantifizierbaren Topologien. Mit Hilfe der Photogrammetrie werden vor allem Basisdaten für die Erstellung und Fortschreibung topographischer und thematischer Karten sowie die Weiterverarbeitung in Geographischen Informationssystemen gewonnen. Die Bildaufnahmeverfahren waren ursprünglich analog (Photographien), in zunehmendem Maße werden digitale Aufzeichnungen verwendet.

Wenn hochauflösende Fernerkundungsdaten, vor allem Luftbilder, verfügbar sind oder erstellt werden können, besitzen photogrammetrische Verfahren ein hohes Potential, an der Erdoberfläche sichtbare Erscheinungen zu interpretieren und ihre absolute Geometrie zu bestimmen. Dabei steht die Beobachtung dreidimensionaler Umgebungen und Prozesse im Mittelpunkt. Sensoren der Photogrammetrie sind analoge und digitale photographische Systeme aber auch Scanner.

Die Leistungsmerkmale der Photogrammetrie:

Die Nachteile der Photogrammetrie sind :

Bei digitalen Luftbildkammern kommen zusätzlich die aufwendige Kalibrierung der Kammer, die notwendigen großen Speicherkapazitäten an Bord der Sensorplattform (Flugzeug) und des 'back up' (Datensicherung) dazu.

Für die Geowisssenschaften ist besonders die Aerophotogrammetrie wichtig. In ihr werden Luftbilder analysiert (z.B. bewegter Sensor, Bildflug). Die Aufnahme kann genähert als Senkrechtaufnahme gelten. Ihr gegenüber steht die terrestrische Photogrammetrie. Sie analysiert terrestrische Bilder unter gleichbleibenden Aufnahmebedingungen, aber die Aufnahmegeometrie ist in der Regel weit von der "idealen" Senkrechtaufnahme entfernt.

Beim Blick auf die Historie der Photogrammetrie muss man in die Mitte des 19. Jahrhunderts zurückgehen, als die Theorie der Photogrammetrie in Frankreich und Preußen parallel zur aufkommenden Photographie entwickelt wurde. Am Anfang des 20. Jahrhunderts traf ein nationalstaatlich-planerischer und auch militärischer Bedarf an korrekten kartographischen Darstellungen auf eine fortschreitende Entwicklung von Flugzeugen und auf verbesserte Kameratechnik und Filmmaterial. Die damaligen analogen Aufnahmen wurden mit Hilfe optisch-mechanischer Verfahren in Karten umgesetzt. Stereo-optische Aufnahmen dienten dabei zur Vermessung der Höhe der Topographie und von Objekten.

Die ersten Erdvermessungssystem aus dem Weltraum basierten auch auf dem Prinzip der analogen Kameras und der nachfolgenden photogrammetrischen Auswertung (z.B. die europäische Metric Camera auf der Space Shuttle Mission von 1983). Die ersten zivilen elektronischen Systeme verfügten mit einer geometrischen Auflösung von 80 m (Landsat-1, 1972), später 30 m (Landsat-4, 1982) noch nicht über die geometrische Genauigkeit, um detailreiche Karten mit einem großen Maßstab anzufertigen. Erst der französische Satellit SPOT-1 (1986) mit seiner geometrischen Auflösung von 10 m und seinem schwenkbaren Sensor erlaubte erstmals die Erstellung dreidimensionaler Karten größeren Maßstabs. Außerdem konnte das bis dahin analoge photogrammetrische Verfahren auf neue digitale Algorithmen und Verfahren umgestellt werden.

Mit dem Ende der Ost-West-Konfrontation wurden auch Bilder mit geometrischen Auflösungen besser als 10 der zivilen Nutzung verfügbar gemacht. Neben ersten russischen Daten stellte der Start des zivilen US-Satelliten IKONOS (1999) den Beginn einer neuen Ära höchstauflösender Satelliten mit einer Auflösung von unter 1 m dar.

Die Sensoren dieser Satelliten sind ganz für den Zweck der raschen Kartierung ausgelegt. Die hohe geometrische Auflösung wird zumeist nur in einem panchromatischen Kanal (S/W-Bild) erreicht. Wenige weitere Kanäle mit einer etwas schlechteren geometrischen Auflösung lassen die Darstellung als Farbbild zu. Bedeutsam für die Anwendung als Kartengrundlage ist auch die Genauigkeit der Lageregelung des Sensors bzw. des Satelliten. Komplexe Regelsysteme lassen sowohl die schnelle als auch die präzise Ausrichtung zumeist des gesamten Satelliten zu. Zusätzlich gewährleistet eine Vielzahl von Orbit- und Lagebestimmungssensoren die Bestimmung der Lage eines Bildpunktes auf der Erde mit einer Genauigkeit von wenigen Metern. Eine weitere Verbesserung im Meter- und Sub-Meterbereich kann nur durch Verknüpfen mit bekannten terrestrischen Passpunkten, wie z.B. Straßenkreuzungen, erreicht werden. Die schnelle Änderung der Ausrichtung einiger Satelliten erlaubt es auch, eine Szene nochmals aus einer anderen Schrägsicht zu betrachten und somit ein Stereo-Bildpaar zur dreidimensionalen Analyse zu erhalten. Werden auf einem Satelliten gleich zwei Kameras mit unterschiedlicher Ausrichtung verwendet, so können derartige stereo-optischen Aufnahmen permanent erzeugt werden. Dies ist beispielsweise mit den Satelliten der indischen CARTOSAT-Serie möglich.

Außer der Erstellung und Nachführung topographischer Karten erlaubt die spektrale Information dieser Satellitensensoren auch eine detaillierte thematische Kartierung. Im zivilen Bereich werden damit planerische Grundlagen z.B. für Großbauwerke gelegt oder neue Straßen für Navigationssysteme erfasst. Hochaufgelöste Kartierungen der Feldfrüchte erlauben der Europäischen Kommission die Kontrolle von Subventionen für die Landwirtschaft und den Vereinten Nationen den Nachweis von illegalem Drogenanbau (UNODC and illicit crop monitoring). Die UN erhält mit Hilfe der spektralen Informationen auch Hinweise über Aktivitäten im Nuklearbereich.

Rasch umgesetzte Kartierungen auf der Basis hochauflösender Satellitendaten unterstützen auch zunehmend humanitäre Hilfsaktionen in Krisengebieten und nach Naturkatastrophen (Katastrophenmanagement). Durch den Vergleich mit älteren Daten können aktuelle Beobachtungen die Zerstörung von Infrastrukturen z.B. nach einem Erdbeben oder das Ausmaß von Überflutungen aufzeigen. Angesichts der Dringlichkeit solcher Informationen und wegen ihrer Unabhängigkeit von Wolken und Tageszeiten werden zunehmend geometrisch hochauflösende Radarsysteme (z.B. TerraSAR-X, COSMO-SkyMed) für diese Zwecke eingesetzt. In Deutschland obliegt diese Aufgabe dem Zentrum für satellitenbasierte Kriseninformation (ZKI) des DLR. Dabei ist das ZKI in europäische und weltweite Programme (z.B. Internationale Charta für Weltraum und Naturkatastrophen) eingebunden.

photogrammetrische Auswertung

Auswertungsvorgang bei Luft- und Satellitenbildern, bei denen die Bestimmung geometrischer Größen im Vordergrund steht. Die inhaltliche Interpretation der Bilder ist dabei nur insoweit betroffen als sie der Identifikation der zu messenden Größen gilt.

Die Bildauswertung besteht in der Ableitung von Objekteigenschaften aus den Bildern bzw. Bildfolgen. Dazu gehören die Geometrie (3D-Position), Größe, Form, bei bewegten Objekten auch der Bewegungspfad sowie die Bewegungsrichtung und Geschwindigkeit, jeweils als Funktion der Zeit), die Helligkeitsverteilung (Orthophotos und andere bildliche Visualisierungen, spektrale Signatur) sowie die semantische Information (Klasse, Attribute) der einzelnen abgebildeten Objekte. Auch gehören Beziehungen zwischen den Objekten zu den ableitbaren Eigenschaften.

Photographie

Engl. photography, photograph, franz. photographie; die Technik und Wissenschaft der Herstellung von dauerhaften Bildern durch sichtbare, ultraviolette und infrarote Strahlung mittels photochemischer Umsetzung in strahlungsempfindlichen Schichten, auch Bezeichnung für das Ergebnis eines solchen Prozesses (Lichtbild).

Die photographische Aufnahme ist ein passives Verfahren, das elektromagnetische Strahlung im Wellenlängenbereich von 0,3 bis 1,2 μm aufnimmt, also vom nahen Ultraviolett (UV) über das sichtbare Licht bis zum nahen Infrarot (IR). Unter den Aufnahmeverfahren der Fernerkundung nimmt die Photographie eine Sonderstellung ein. Sie ist das einzige Verfahren, bei dem das strahlungsempfindliche Material – die photographische Schicht – zugleich als Speichermedium dient. Sie erlaubt die gleichzeitige flächenhafte Aufnahme sowie die Speicherung sehr grosser Datenmengen auf kleinem Raum bei geringen Kosten. Diesem bedeutenden Vorteil stehen auch gewichtige Nachteile gegenüber. So ist beispielsweise die radiometrische Kalibrierung photographischer Systeme schwierig und unsicher, der photographisch erfassbare Spektralbereich ist ziemlich eng, und der photographische Prozess stellt einen unzweckmässigen Zwischenschritt dar, wenn die aufgenommenen Daten rechnerisch verarbeitet werden sollen.

Photographische Bilder enthalten die Informationen in analoger Form, also in physikalischen Größen. Ein Schwarzweißbild kann deshalb als kontinuierliche flächenhafte Bildfunktion verstanden werden, die jedem Punkt der Bildfläche einen Grauwert zuordnet. Man spricht deshalb von einem Grauwert- oder Intensitätsbild. Ein Farbbild enthält dagegen in jeder der photographischen Schichten entsprechende kontinuierliche Funktionen, die in ihrer Gesamtheit das Farbbild ergeben.

Wenn eine Photographie in digitaler Form widergegeben werden soll, wird das (SW-)Bild in kleine, gleich große und gleichförmige Flächen (Bildelemente) unterteilt, deren Helligkeitsmerkmale mit jeweils einem numerischen Wert bezeichnet werden. Der Computer stellt dann jeden digitalen Wert als unterschiedlichen Helligkeitswert dar. Demgegenüber speichern Sensoren, welche elektromagnetische Energie aufzeichnen, diese Strahlung als Zahlenmuster in digitaler Form von Beginn an.

Photographische Filme bestehen aus einem transparenten, weitgehend massbeständigen Schichtträger aus Polyester und einer bzw. mehrerer sich darauf befindlichen Photoschichten (Emulsionen). Die Emulsion ist aus lichtempfindlichen Silbersalzen aufgebaut, welche in eine Gelatineschicht eingebettet sind. Die Silbersalzkristalle kommen in unterschiedlichen Grössen vor. Je nach Mischungsverhältnis der verschiedenen Kristallgrössen erhält eine Emulsion bestimmte Eigenschaften. Somit ist die durchschnittliche Grösse von Silbersalzkristallen ein wichtiges Merkmal jedes photographischen Filmes. Zum einen hat sie bedeutenden Einfluss darauf, wieviel Licht für die Herstellung eines photographischen Bildes benötigt wird. Zum anderen bestimmt sie die Körnigkeit eines Films, welche ihrerseits das geometrische Auflösungsvermögen beeinflusst. Feinkörnige Emulsionen weisen eine geringe Lichtempfindlichkeit und ein grosses geometrisches Auflösungsvermögen auf. Grobkörnige Emulsionen hingegen sind sehr lichtempfindlich, haben aber ein geringes geometrisches Auflösungsvermögen.

analog zu digital Überführung einer analogen Photographie in ein digitales Bild

Ein Foto könnte auch in einem digitalen Format dargestellt und angezeigt werden, wobei das Bild in kleine gleich große und geformte Bereiche, die Bildelemente oder Pixel genannt werden, unterteilt und die Helligkeit jedes Bereichs mit einem numerischen Wert oder einer digitalen Zahl dargestellt wird. In der Tat ist genau dies mit dem Foto links getan worden. Tatsächlich handelt es sich dabei um ein digitales Bild des Originalfotos! Das Foto wurde gescannt und in Pixel unterteilt, wobei jedem Pixel eine digitale Zahl zugeordnet wurde, die seine relative Helligkeit darstellt. Der Computer zeigt jeden digitalen Wert als unterschiedliche Helligkeitsstufen an.

Quelle: Natural Resources Canada

photographische Systeme

In photographischen Systemen wird ein Bild des aufzunehmenden Objekts durch ein Objektiv für meist nur kurze Zeit auf eine lichtempfindliche Schicht projiziert, die dadurch so verändert wird, dass durch den photographischen Prozess ein dauerhaftes Bild entsteht.

Photographische Systeme sind passive Systeme, die die Strahlung im sichtbaren Licht und im nahen Infrarot (von ca. 0,4 bis 1,0 mm) aufnehmen.

Photometer

Ein Photometer ist ein Instrument, das die Stärke der elektromagnetische Strahlung im Bereich von Ultraviolett bis Infrarot und einschließlich des sichtbaren Spektrums misst. Die meisten Photometer wandeln Licht mit Hilfe eines Fotowiderstands, einer Fotodiode oder eines Fotomultipliers in elektrischen Strom um.

Die Photometrische Fernerkundung bezeichnet die Ableitung der Eigenschaften atmosphärischer Komponenten (z.B. Wasserdampf, Ozon, Aerosole) aus spektralen Messungen der direkten Strahlung (direkte Beobachtung) von der Sonne, dem Mond oder den Sternen.

Dazu werden folgende Parameter abgeleitet:

Weitere Informationen:

Photomosaik

Eine Sammlung von Luftbildern, die eng verbunden werden, um einen zusammenhängenden Überblick über ein beflogenes Gebiet zu ergeben.

photosynthetisch aktive Strahlung (PAR)

Engl. photosynthetically active radiation (PAR, PhAR); elektromagnetische Strahlung (380-780 nm), die von Pflanzen für biochemische Pflanzenprozesse, hauptsächlich für die Photosynthese verwendet wird. Dieser Bereich (380-780 nm) deckt sich weitgehend mit dem Bereich der für Menschen sichtbaren Strahlung (380-780 nm), welcher etwa 50 % der Globalstrahlung ausmacht. PAR wird von Chlorophyll und Pigmenten adsorbiert, die im roten und blauen Spektralbereich absorbieren, grün wird hingegen reflektiert. PAR wird meist von 400-700 nm in W/m² angegeben.

Da PAR die Primärproduktion und damit die Kohlenstofffixierung von terrestrischer und mariner Vegetation steuert, beeinflusst sie den Energie- und Wasseraustausch (Evapotranspiration) zwischen der Vegetation und der Atmosphäre. Im Bereich der Klimaforschung ist die photosynthetisch aktive Strahlung zur Berechnung der Kohlenstoffbilanzierung von terrestrischer und mariner Vegetation eine wichtige Größe.

PICARD

Französischer Sonnenforschungssatellit der CNES, der auf einer Dnepr-1 Trägerrakete am 15. Juni 2010 vom Raketenstartplatz Jasny aus zusammen mit zwei weiteren Satelliten in den Weltraum gebracht wurde.

PICARD war ein Kleinsatellit (Masse 150 kg) der MYRIADE-Serie zur Bestimmung der Sonnenstrahlung, des Durchmessers und der Gestalt der Sonne sowie des Aufbaus der Sonne mit helioseismischen Methoden. Der sonnensynchrone Orbit schwankte zwischen 730 km und 750 km Höhe.

Vorgesehen war eine Missionsdauer von mindestens 2 Jahren. Schließlich war der Satellit knapp vier Jahre lang in Betrieb. Während dieser Zeit hat der Satellit Picard mehr als 1 Million Bilder der Sonne aufgenommen und viele andere Messungen durchgeführt. Sie werden nun analysiert, um die Funktionsweise unseres Sterns und die Variabilität seiner Aktivität besser zu verstehen. Die Erkenntnisse sollen unsere Kenntnisse vom solaren Antrieb des irdischen Klimas verbessern sowie unser Wissen von der Physik der Sonne und ihrer inneren Struktur.

Die Nutzlast von Picard bestand aus einem bildgebenden Teleskop, 1 Radiometer und 3 Sonnenphotometern.

PICARD

Künstlerische Darstellung des Satelliten

Die PICARD-Mission ist nach dem französischen Astronomen Jean Picard benannt, der die erste genaue Messung des Sonnendurchmessers durchführte. Seine Messungen sind besonders wichtig, da sie während des Maunder-Minimums gemacht wurden. Diese Zeit war durch die Abwesenheit von Sonnenflecken und ein ausgeprägt kaltes Klima gekennzeichnet.

 

Quelle: CNES

Lithographie von Jean Picard (1620-1682)

Picard gilt als der Begründer der modernen Astronomie in Frankreich. Er führte neue Methoden ein, verbesserte die alten Instrumente und fügte neue Geräte hinzu, wie die Pendeluhr von Huygens zur Aufzeichnung von Zeiten und Zeitintervallen. Picard war auch der erste, der das Fernrohr für die genaue Messung kleiner Winkel einsetzte.

Er ist vor allem für seine genaue Messung der Größe der Erde bekannt, die auf einer sorgfältigen Vermessung eines Breitengrades entlang des Pariser Meridians beruht.

Quelle: CNES

Weitere Informationen:

PICASSO

Engl. Akronym für PICosatellite for Atmospheric and Space Science Observations, dt. Picosatellit für Beobachtungen der Atmosphäre und des Weltraums; PICASSO ist ein belgischer 3U CubeSat mit einer Masse von 4 kg, der die oberen Schichten der Erdatmosphäre untersuchen soll.

PICASSO wurde für das QB50-Projekt der ESA vom belgischen Institut für Weltraum-Aeronomie (BISA) in Zusammenarbeit mit dem VTT Finnland und dem britischen Unternehmen Clyde Space entwickelt. PICASSO wird die Ozonverteilung in der Stratosphäre messen und ein Profil der Temperatur der Mesosphäre sowie der Elektronendichte in der Ionosphäre erstellen.

PICASSO verfügt über einen miniaturisierten multispektralen Imager für die Sondierung der atmosphärischen Randbereiche mit der Sonne als Lichtquelle und eine Multineedle-Langmuir-Sonde (mNLP), die die Elektronendichte des sie umgebenden Raums misst.

Er sollte 2016 als Teil von QB50 gestartet werden, einem Netzwerk von 50 CubeSats, das weitgehend unerforschte Schichten der Erdatmosphäre erkunden soll. Er wurde aus dem QB50-Rahmenprogramm herausgenommen und wurde schließlich am 3. September 2020 mit einer Vega-Rakete gestartet. In 534 x 536 km Höhe umkreist er die Erde mit einer Bahnneigung von 97,52°.

spatial_resolution_lres PICASSO CubeSat

Der PICosatellite for Atmospheric and Space Science Observations (PICASSO) CubeSat untersucht die oberen Schichten der Erdatmosphäre.

Quelle: PICASSO CubeSat (ESA)

Weitere Informationen:

Pilotballon

Kleiner, mit Helium oder Wasserstoff gefüllter, üblicherweise roter Latex-Ballon ohne weitere Instrumente mit konstanter Steiggeschwindigkeit zur optischen Feststellung der Wolkenuntergrenze während der Tagesstunden. Der Ballon wird dazu derart befüllt, dass seine Aufstiegsgeschwindigkeit bekannt ist. Aus der Zeit vom Start bis zum Eintauchen in die Wolke kann die Höhe der Wolke über Grund ausgerechnet werden. Durch die Verfolgung der Flugbahn, früher mit einem Theodoliten, heute mittels Radar oder GPS, können Richtung und Geschwindigkeit von Höhenwinden bestimmt werden. Nachts kann der Ballon an seiner Unterseite mit einem Lämpchen bestückt werden.

Pixel

Kunstwort aus picture element; in Satellitenbildern Bezeichnung für einen einzelnen, gewöhnlich quadratischen, einer bestimmten Bodenfläche entsprechenden Bildpunkt, als kleinster Einheit der Aufnahme. Diese Entsprechung ist ein Maß für die Fähigkeit eines Sensors Objekt unterschiedlicher Größe zu erkennen. Je höher die Anzahl der Pixel pro Flächeneinheit ist, umso höher ist die Auflösung des Bildes. Die Gesamtheit aller Pixel bilden einen Datensatz, ein Bild.

Der Enhanced Thematic Mapper Plus des Landsat 7 besitzt eine maximale Auflösung von 15 m; insofern repräsentiert jedes Pixel eine Fläche von 15 x 15 m. Höher Auflösung (kleinere Pixelfläche) bedeutet, dass der Sensor kleinere Objekte zu unterscheiden vermag. Durch die Addition der Pixelzahl eines Bildes kann man die Fläche einer Szene berechnen. Oder, wenn man die Anzahl grüner Pixel in einem Falschfarbenbild berechnen lässt, kann man die Gesamtfläche ermitteln, die mit Vegetation bestanden ist.

spatial_resolution_lres Pixel und räumliche Auflösung

Die räumliche Auflösung beschreibt die Pixelgröße von
Satellitenaufnahmen, die die Erdoberfläche erfassen.

Hohe räumliche Auflösung: 0,41 - 4 m

Geringe räumliche Auflösung: 30 - > 1000 m

Quelle: RapidEye

Ein digitales Bild besteht aus einem rechteckigen Array aus Zahlen, aus denen ein Bild geformt wird. Es hat sowohl geometrische als auch radiometrische Eigenschaften. Jede Zahl im Array stellt ein Pixel dar. Ein Pixel in seiner Basisform ist danach eine Zahl in einem Array, die die Helligkeit und Farbe eines Bildes bei dessen Anzeige beschreibt. Die Physik dessen, woraus die Zahl im Array besteht, ist eine Funktion der Geometrie, des Wertes des Pixels und der Farbe, die es darstellt, und ist mit seiner Radiometrie verbunden.

Ein physisches Pixel auf der Brennebene eines Sensors absorbiert Photonen, die zu einer elektrischen Ladung werden. Diese Ladung wird in eine Zahl umgewandelt und in einem Array oder Raster-Format abgelegt. Da die Position und Höhe des Sensors in exakt dem Moment der Belichtung genau bekannt ist, ist auch die exakte Position des Pixels am Boden bekannt.

Bei multispektralen und hyperspektralen Bildern bilden die Pixelwerte in jedem der Bänder ein Spektralprofil für diese Position am Boden. Jeder Stoff, der abgebildet wird, wie zum Beispiel Art der Vegetation, Boden oder Baumaterial, hat ein eindeutiges Spektralprofil, das auch als Spektralsignatur bezeichnet wird. Es gibt viele Verfahren zum Normalisieren der Pixelgraustufen im Bild, um Konsistenz zu gewährleisten und die Analyse von Objekten und Materialien am Boden basierend auf Spektralanalysen zu erleichtern.

Der Wert eines Pixels ist ein Maß der erfassten Strahlung und wird mit einer bestimmten Position am Boden verknüpft. Bei der Fernerkundung werden diese Informationen zum Analysieren eines Objektes oder Phänomens an dieser Position verwendet.

Weitere Informationen:

Pixelgrafik

Engl. pixel graphics; aus einzelnen Pixeln aufgebaute Grafik, wobei jedes Pixel einen digitalen Wert repräsentiert. Dieser hängt von dem verwendeten Farbmodell und der Quantisierung ab.

Planck (Surveyer)

Europäische Satellitenmission zur Untersuchung der kosmischen Hintergrundstrahlung, sie ist inzwischen beendet. Plancks Detektoren sind so konstruiert, dass sie über einen weiten Frequenzbereich die kosmologischen Temperaturunterschiede, die erst auf der fünften, sechsten Nachkommastelle auftreten, in Abhängigkeit von der Winkelskala messen können. Das heißt, der Satellit ermittelt Temperaturfluktuationen der Hintergrundstrahlung im Bereich von einem Millionstel Grad.

Da die Strahlung vorher in Wechselwirkung mit der Materie (Protonen, Elektronen) stand, können Rückschlüsse auf die frühe Materieverteilung gezogen und die Parameter, die die kosmische Entwicklung beschreiben, mit großer Genauigkeit bestimmt werden.

Planck-build-up Planck - Aufbau des Raumfahrzeugs

Das Bild zeigt von oben links nach unten rechts den detaillierten Aufbau der Focal Plane Units (FPUs) des Hochfrequenzinstruments (HFI) und des Niederfrequenzinstruments (LFI) sowie des Planck-Kühlsystems und der Hauptkomponenten des Raumfahrzeugs, von der Nahaufnahme in der Brennebene bis hin zum gesamten Raumfahrzeug mit Teleskop, Baffle und Servicemodul.

Quelle: ESA

Zur Beobachtung der Strahlung besitzt der Satellit zwei verschiedene Instrumente, das "High Frequency Instrument" (HFI) für den höheren und das "Low Frequency Instrument" (LFI) für den niedrigeren Frequenzbereich. Nachdem die Instrumente kalibriert worden waren, fing das Teleskop am 13. August 2009 mit der regelmäßigen Beobachtung an. Die erste vollständige Aufnahme des Himmels wurde Juni 2010 fertiggestellt, um jedoch die volle Genauigkeit zu erreichen, war eine Nachbearbeitung nötig. Erste Ergebnisse wurden im Januar 2011 veröffentlicht.

Ziel von Planck war die Erfassung der schwächsten Reststrahlung des Urknalls, der sogenannten kosmischen Mikrowellen-Hintergrundstrahlung parallel bei neun Frequenzen zwischen 30 und 857 GHz. Diese Hintergrundstrahlung veranschaulicht das Universum in seinem Zustand rund 380 000 Jahre nach dem Urknall und liefert Einzelheiten zu den Ursprungsbedingungen, die zu dem Universum geführt haben, in dem wir heute leben.

Nur hat sich aufgrund der kosmischen Expansion die Energie der Photonen soweit verringert, dass sie heute im Mikrowellenbereich mit einer Temperatur von nur noch etwa 2,7 Kelvin empfangen werden. Diese Strahlung bietet aber auch heute noch ein getreues Bild des Universums, wie es vor etwa 13,4 Milliarden Jahren aussah – genau zu der Zeit, als es durchsichtig wurde. Mit Plancks Fähigkeit, die Temperatur der kältesten Staubteilchen zu messen, erhält man einen wichtigen Indikator für diese physikalischen Prozesse und auch ein besseres Verständnis der Sternentwicklung.

Die Winkelauflösung von Planck ist mit Werten zwischen 4 Bogenminuten für die höchsten und 33 Bogenminuten für die niedrigsten Frequenzen wesentlich besser als bei den vergleichbaren früheren Projekten COBE und WMAP.

Gleichzeitig werden Beobachtungen der Vordergrundstrahlung der Milchstraße und von Galaxien gewonnen. Diese Störeffekte müssen zum einen zur Ermittlung der Hintergrundstrahlung sehr gut bekannt sein, sind aber auch von eigenem wissenschaftlichem Interesse z. B. zum tieferen Verständnis der Sternentwicklung.

P545-P857-I100_410px Planck bildet ein galaktisches Netz kalten Staubes ab

Das Bild links zeigt einen Teil des Himmels, ca. 55° umfassend. Es ist ein Dreifarbenkomposit, hergestellt aus Plancks zwei höchsten Frequenzkanälen (557 und 857 GHz, entsprechend 540 und 350 µm Wellenlänge) und einem Bild mit kürzerer Wellenlänge (100 µm), aufgenommen mit dem Infrared Astronomical Satellite (IRAS).

Diese Kombination spürt auf effektive Weise dem Staub nach: rötliche Töne entsprechen Temperaturen von 13 Grad über dem absoluten Nullpunkt, und weiße Töne entsprechen deutlich wärmeren (Größenordnung einige Zehner von Grad) in Gebieten wo Riesensterne sich gerade bilden. Insgesamt zeigt das Bild lokale Staubstrukturen innerhalb einer Distanz von 500 Lichtjahren von der Sonne.

Quelle: ESA

Das 1921 kg schwere Planck-Teleskop wurde am 14. Mai 2009 zusammen mit dem Infrarotteleskop Herschel durch eine Ariane 5 ECA von Kourou aus in den Weltraum gebracht. Nach dem Brennschluss der Oberstufe wurden der Planck-Satellit um 13:40 UTC wenige Minuten nach dem Herschel-Teleskop auf einer hochelliptischen Erdumlaufbahn zwischen 270 und 1.197.080 km Höhe, die 5,99° zum Äquator geneigt ist, ausgesetzt, von der aus er mit einem kleinen Bahnmanöver seine Lissajous-Bahn um den Lagrange-Punkt L2 des Erde-Sonne-Systems erreichte.

Die ESA-Mitgliedstaaten hatten Schlüsseltechnologien wie den innovativen Kühlmechanismus bereitgestellt, der die ständige Kühlung der Missionsinstrumente auf lediglich ein Zehntel Grad über dem absoluten Nullpunkt des Universums von -273,15 °C ermöglichte, so dass die empfangenen Signale nicht durch die Eigenwärme des Satelliten verzerrt wurden. Auf diese Weise konnten in der kosmischen Mikrowellen-Hintergrundstrahlung Temperaturschwankungen von wenigen Millionstel Grad erfasst werden.

Die Kühlung von Instrumenten auf diese Extremtemperaturen kann jedoch nicht unbegrenzt fortgesetzt werden, und so ging denn auch der Flüssighelium-Kühlmittelvorrat des Hochfrequenzinstruments (HFI) wie erwartet im Januar 2012 zur Neige.

Am 14. August 2013 wurde das Teleskop nach 1554 Tagen Betrieb vom L2-Punkt abgezogen und in eine Bahn gebracht, die sicherstellt, dass es für die nächsten 300 Jahre nicht durch die Erde eingefangen wird. Am 23. Oktober wurde der letzte Befehl zu Planck geschickt.

Als ursprüngliches Ziel der Mission waren zwei vollständige Himmelsdurchmusterungen geplant. Tatsächlich konnten mit beiden Instrumenten fünf komplette Durchmusterungen vorgenommen werden, wobei das LFI Mitte August seine achte Durchmusterung des gesamten Himmels abgeschlossen hat.

Weitere Informationen:

Plancksches Strahlungsgesetz

Engl. Planck's radiation law, syn. Planck’s formula, franz. formule de Planck; nach Max Planck (1858-1947) benanntes Gesetz: Jeder Körper mit einer Temperatur größer als der absolute Nullpunkt (0 K / -273,15 °C) sendet elektromagnetische Strahlung aus, die in Relation zur Temperatur des Körpers und zur Wellenlänge steht:

,
h=6,626176•10-34 Js (Plancksches Wirkungsquantum),
=Frequenz,
c=Lichtgeschwindigkeit,
k=1,381•10-23 J/K (Boltzmann-Konstante),
T=Temperatur

Damit wird die spektrale Energieverteilung der Strahlung eines schwarzen Körpers beschrieben.

In der Fernerkundung ist das Plancksche Strahlungsgesetz (PSg) u.a. bei der Konzeption von Sensoren von Bedeutung. Es dient dabei zur Bestimmung der Energiemaxima strahlender Körper (Sonne, Erde), da passive Fernerkundungsverfahren lediglich die reflektierten Anteile dieser Strahlung aufzeichnen. Das Plancksche Strahlungsgesetz verdeutlicht, daß mit höheren Temperaturen das Maximum der spektralen Emission zu kürzeren Wellenlängen verschoben wird. Das Maximum der extraterrestrischen Sonnenstrahlung (T 5900 K) liegt demnach bei etwa 0,47 µm, während die Erde (T 290 K) ihr Strahlungsmaximum bei ca. 9,7 µm besitzt. Die Kurven der Schwarzkörperstrahlung in folgender Abbildung verdeutlichen dies.

Spektrale Strahlungsverteilung bei verschiedenen Oberflächentemperaturen

Jeder Körper mit einer Temperatur größer als der absolute Nullpunkt sendet elektromagnetische Strahlung aus, die in Relation zur Temperatur des Körpers und zur Wellenlänge steht.

In der Fernerkundung ist das Plancksche Strahlungsgesetz u.a. bei der Konzeption von Sensoren von Bedeutung.

Quelle: Lexikon der Geowissenschaften

DIN 18716 definiert das PSg wie folgt: "Energieverteilung der Strahlung auf die einzelnen Wellenlängen in Abhängigkeit von der Temperatur". Ergänzt wird: "Die Integration über den gesamten Wellenlängenbereich führt zum Stefan-Boltzmann-Gesetz".

Planet

Planet Labs, Inc. (vormals Cosmogia, Inc.) ist eine private amerikanische Firma im Bereich der Erdbeobachtung mit Hauptsitz in San Francisco und mit weiteren Büros in Berlin, Lethbridge, Kanada, Bellevue, Washington und Washington DC. Sie wurde 2010 von drei früheren NASA-Wissenschaftlern gegründet und hat 2019 ca. 430 Vollzeitmitarbeiter. Das Ziel von Planet ist es, die Gesamtheit des Planeten täglich zu erfassen, um Veränderungen zu beobachten und Trends zu erkennen.

Im Juni 2016 erfolgte eine Umbenennung von Planet Labs in Planet.

Die Doves

Mit dem Erwerb von BlackBridge (2015) hatte Planet Labs 87 Dove- und 5 RapidEye-Satelliten im All. Die Dove-Satelliten (dt. "Tauben") werden in der Regel in großen Chargen ins All geschossen, die Planet "Flocks" (dt. "Schwärme") nennt. Die ältesten Doves, die noch die Erde abbilden, wurden im Dezember 2015 an Bord der Atlas V ins All geschossen.

Im Februar 2017 startete Planet weitere 88 Dove-Satelliten. Im selben Jahr verkaufte Google seine Tochter Terra Bella und deren SkySat-Satellitenkonstellation an Planet. Als Teil der Übernahme sicherte sich Google eine Kapitalbeteiligung an Planet und traf eine Vereinbarung zum vieljährigen Erwerb von SkySat-Bilddaten. Im Oktober 2017 startete Planet 6 weitere SkySats (8-13) und 4 Doves (Flock 3m) auf sonnensynchrone Umlaufbahnen mit Hilfe einer Orbital-ATK Minotaur-C Rakete von der Vandenberg Air Force Base aus.

Planet entwirft und produziert sog. Triple-CubeSat-Miniatursatelliten (Größe: 10x10x30 cm, 3,3 kg), die wegen ihres schwarmartigen Einsatzes 'Doves' (dt. Tauben) genannt werden. Sie werden als Zuladung bei Starts anderer Satelliten ins All gebracht. Jeder Dove-Satellit scannt kontinuierlich die Erde und sendet die Daten beim Überflug zur Bodenstation.

Die Planet 3U CubeSat-Varianten 'Dove', 'Dove-R' und 'SuperDove' bilden zusammen die Konstellation "PlanetScope". PlanetScope erfasst die gesamte Landmasse der Erde und ihre Korallenriffe fast täglich mit einer Auflösung von 3 bis 5 Metern. Die Satelliten befinden sich auf einer 98° sonnensynchronen Umlaufbahn mit Überflugzeiten zwischen 9:30-11:30 Uhr.

Die Dove- und Dove-R-Satelliten sammeln Bilder in den RGB- und NIR-Bändern. SuperDoves, die derzeit den größten Teil der Konstellation ausmachen Konstellation ausmachen, erfassen 5-Band-Bilder im RGB-, Red Edge- und NIR. Künftig erfolgt eine Erweiterung auf 8 Bänder. Die Entwicklung von Dove zu SuperDove umfasst nicht nur mehr Spektralbänder, sondern auch erhebliche Verbesserungen bei der radiometrischen Kalibrierung, dem Dynamikumfang, der Spektralempfindlichkeit, der Bildschärfe und dem Bandabgleich mit den Satelliten Sentinel-2.

Durch die geringe Größe und niedrige Kosten kann die Firma nach Kundenbedürfnissen rasch neue Prototypen entwickeln und testen, wodurch sie im Falle eines Fehlstarts größere Verluste vermeidet. Die Dove-Bilder werden mit einer 'Open-data access policy' zur Verfügung gestellt. Sie liefern aktuelle Informationen, die für Klimamonitoring, Erntevorhersagen, Stadtplanung und Katastrophenhilfe von Bedeutung sind.

Die Anzahl der Satelliten, die Planet im Orbit hat, ändert sich oft. Einerseits startet Planet immer wieder eine Vielzahl neuer Satelliten, andererseits treten seine Satelliten bei ihrem Lebensende in die Atmosphäre ein und verglühen. Seit 2013 hat Planet 351 Exemplare erfolgreich eingesetzt. 2019 befanden sich bereits etwa 140 im Orbit, 120+ Doves, 15 SkySats und 5 RapidEye-Satelliten. Sie sammeln täglich über 250 Millionen Quadratkilometer an Bilddaten.

Im Januar 2022 wurden 44 SuperDove-Satelliten mit einer SpaceX Falcon 9-Rakete erfolgreich in die Umlaufbahn gebracht. Diese 44 Satelliten werden sich zur bestehenden Planet-Flotte von rund 200 Satelliten im Orbit gesellen. Mit dem jüngsten Zuwachs werden weiterhin Satellitendaten angeboten, die mit der neuesten und stärksten Technologie erfasst werden. Planet nutzt dazu Just-in-Time-Fertigung, um sicherzustellen, dass die Technologie an Bord der Satelliten vor dem Versand an den Startort kontinuierlich erneuert werden kann.

Im Januar 2023 wurden 36 weitere SuperDove-Satelliten, der Flock 4y, an Bord einer SpaceX Falcon 9-Rakete ins All gebracht! Dies ist der 32. erfolgreiche Start von Planet, womit die Firma seit ihrer Gründung insgesamt über 500 Satelliten gestartet hat. Für Planet ist es der achte Flug mit dem Startanbieter. Nach dem Einschwenken in die Umlaufbahn wurde der Kontakt zu den 36 SuperDoves hergestellt, womit Planet seine 100%ige Erfolgsquote bei der Kontaktaufnahme mit seinen Satelliten beibehält.

Diese 36 SuperDoves werden die derzeitige Flotte von rund 200 Satelliten in der Umlaufbahn ergänzen, die täglich die Erde scannen, um Veränderungen sichtbar, zugänglich und umsetzbar zu machen. Diese Daten fließen in die Arbeitsabläufe von über 800 Kunden auf der ganzen Welt und Tausenden von Nutzern in den Bereichen Landwirtschaft, Nachhaltigkeit, Behörden und anderen Bereichen ein, um die Entscheidungsfindung zu verbessern. Von der Messung der Ernteerträge über den Kampf gegen illegale Abholzung bis hin zur Unterstützung von Landrekultivierungsmaßnahmen - unsere Überwachungsfunktionen sind für die Nutzer weltweit von großem Nutzen.

Die Firma ist ein führender Anbieter von Geodaten für den Einsatz in der Landwirtschaft, staatlichen Aufgaben und der kommerziellen Kartierung. Sie betreut Kunden in den Bereichen Handel, Geopolitik, Energie und Infrastruktur, Umwelt und anderen wichtigen Märkten. Planet zielt künftig auf neue Märkte wie Versicherung, Rohstoffe und Finanzen ab.

Planet hat sich bewusst dafür entschieden, seine Satelliten in niedrigeren Höhen zu positionieren, um sowohl die überlasteten größeren Höhen zu vermeiden, als auch das rechtzeitige und sichere Deorbiting seiner Satelliten zu gewährleisten, wenn ihr Lebensende erreicht ist.

Neue Entwicklungen

Seit 2020 bietet Planet das Produkt Fusion Monitoring an, es vermag die täglichen, globalen PlanetScope-Überwachungsdaten mit zusätzlichen Datensätzen zu kombinieren, um einen konsistenten Informationsstrom über das Interessengebiet eines Kunden zu liefern. 2021 werden SAR-Daten von Sentinel-1 in die Fusion-Linie einbezogen, um Kunden im Agrarsektor eine bessere Erfassung zu ermöglichen. Dieser zusätzliche Datenstrom wird dazu beitragen, die Zuverlässigkeit agronomischer Modelle zu erhöhen, die Fusion-Daten verwenden, insbesondere in sehr bewölkten Regionen. SAR-Daten haben den Vorteil, dass sie durch Wolken und Wetter hindurch Bilder liefern, die optische Daten verdecken. Durch die Integration von SAR-Daten in das Fusion-Produkt kann Planet eine bessere kontinuierliche Überwachung des Zustands von Nutzpflanzen anbieten und wichtige Ereignisse wie die Ernte oder die Auswirkungen von Sturmschäden erfassen.

Im Oktober 2021 kündigte Planet Labs eine neue Reihe von Erdbeobachtungssatelliten mit dem Namen Pelican an und bereitete sich auf den Börsengang vor, der am 8.12.2021 umgesetzt wurde. Die Pelican-Satelliten sollen die bestehende Planet-Konstellation von 21 SkySat-Satelliten im Orbit erweitern und ab 2023 in Betrieb genommen werden. Da Pelicans von Planet "entworfen, gebaut und hergestellt" werden, können sie wie die Dove CubeSats, die ebenfalls im eigenen Haus produziert werden, kontinuierlich aufgerüstet werden.

Gleichzeitig wurden Pläne enthüllt, Synthetic-Aperture-Radar-Daten des Copernicus-Satelliten Sentinel-1 in den Planet Fusion Monitoring-Datenstrom einzubinden.

Seit Februar 2022 ist Planet mit seinen Konstellationen PlanetScope- und SkySat Teil des ESA-Programms für Drittmissionen. Die ESA bietet für die wissenschaftliche Forschung und die Entwicklung von Anwendungen Zugang zu den Daten der beiden Missionen, wenn ein Projektvorschlag eingereicht und angenommen wird.

Im März 2023 gaben Planet Labs ("Planet") und Sinergise Ltd. ("Sinergise") die Absicht von Planet bekannt, das Geschäftsvermögen von Sinergise, einschließlich Sentinel Hub, zu erwerben. Am 4. August 2023 wurde die Transaktion abgeschlossen und Planet wird Eigentümer und Betreiber von Sentinel Hub.

Der Kauf des Unternehmens Sinergise beschleunigt die Weiterentwicklung der Earth Data Platform von Planet und die Fähigkeit, EO-Daten effizient an Kunden zu liefern. Einfach zu nutzende EO-Daten haben das Potenzial, Unternehmen und der Gesellschaft neue Einsichten zu vermitteln, indem sie die Leistungsfähigkeit von Geodaten in die Hände von Nicht-Experten legen. Dies ermöglicht datengestützte Entscheidungen, ein besseres Management von Abläufen, ein besseres Verständnis des ökologischen und sozialen Wandels und eine erhöhte globale Transparenz.

Sinergise bringt in Planet die Technologie ein, die den preisgekrönten Sentinel Hub antreibt, eine fortschrittliche API-gesteuerte Cloud-Streaming-Plattform, die Kunden den Zugriff auf Multi-Source-EO-Daten zur Verarbeitung, Analyse und Gewinnung von Erkenntnissen ermöglicht. Planet ist bestrebt, die EO-Gemeinschaft mit wachsenden Fähigkeiten und einem offenen Standard zu unterstützen, der eine größere Interoperabilität zwischen den weltweiten Nutzern ermöglicht.

Planet wird weiterhin die Open-Source-Position von Sinergise unterstützen, einschließlich Projekten wie eo-learn, und mit  REDD+Carbon Mapper und The Allen Coral Atlas einen Beitrag zum digitalen Gemeinwohl leisten.

Weitere Informationen:

planetare Fernerkundung

Die planetare Fernerkundung befasst sich mit der Fernerkundung des Erdmondes, der Planeten, deren Monden sowie anderen Himmelskörpern unseres Sonnensystems wie z. B. Asteroiden. Ziel der planetaren Fernerkundung ist es, die reflektierte und emittierte elektromagnetische Strahlung des beobachteten Körpers zu erfassen und zu interpretieren, wobei Raumsonden, Orbiter und Landemodule als Plattformen eingesetzt werden. Die Ergebnisse dienen der Planetologie, die sich mit der Entstehung und Entwicklung unseres Planetensystems und seiner einzelnen Objekte beschäftigt.

Wie bei der Fernerkundung der Erde werden bei der planetaren Fernerkundung aktive und passive Sensoren eingesetzt. Die aktiven Systeme senden elektromagnetische Strahlung in Richtung des zu untersuchenden Körpers und empfangen den reflektiereten Anteil. Passive Sensoren wie Kameras und Spektrometer hingegenzeichnen die von der Oberfläche des Objektes reflektierte Sonneneinstrahlung in einem bestimmten Wellenbereich (mono- bzw. panchromatisch) oder in mehreren verschiedenen Wellenbereichen (RGB, multispektral, hyperspektral) des elektromagnetischen Spektrums auf. Die registrierten Wellenlängen reichen vom sichtbaren Licht über das nahe Infrarot bis zum mittleren Infrarot, wobei zum Teil auch thermische Infrarotstrahlung erfasst wird, die hauptsächlich aus der von der Oberfläche eines Objekts emittierte (Wärme-)Strahlung besteht. Gelegentlich kommen auch Kameras und abbildende Spektrometr zum Einsatz, die den UV-Bereich erfassen können.

Aus stereoskopischen Bildaufnahmen werden einzelne 3D-Punkte für geodätische Referenznetze bestimmt, bei flächenhafter Auswertung werden Digitale Geländemodelle (DGM) der Oberfläche generiert. Daraus abgeleitete Produkte sind Orthophotos und Orthophotomosaike, welche durch automatische oder manuelle Interpretation zu topographischen und thematischen Karten erweitert und in räumlichen Informationssystemen verwaltet werden. Die Datenprodukte haben unterschiedlichste Anwendungen in Geologie, Mineralogie, Vulkanologie, Geophysik, Erkundung von Landestellen usw. Photorealistische Visualisierungen statischer und dynamischer Art ergänzen die aus den Bildern abgeleiteten Produkte.

Weitere Informationen:

PlanetScope

Bezeichnung für eine Konstellation von kleinen Satelliten (Cubesats), die im Schwarm fliegen. Diese auch Dove-Satelliten genannten Satelliten der Firma Planet liefern jeden Tag ein komplettes Bild der Erde (außer bei Wolken) mit einer Auflösung von drei Metern pro Pixel.

Die PlanetScope-Satellitenkonstellation besteht aus mehreren Starts mit "Schwärmen" (engl. "flocks") von Dove-Satelliten. Die On-Orbit-Kapazität wird ständig in Bezug auf Kapazität und Quantität verbessert, wobei technologische Verbesserungen in schnellem Tempo umgesetzt werden. Jeder Satellit ist ein CubeSat mit 3U-Formfaktor (10 cm x 10 cm x 30 cm).

PlanetScope and SkySat infographic PlanetScope und SkySat Infographik

Die PlanetScope- und SkySat-Konstellationen bestehen aus über 200 hochauflösenden und sehr hochauflösenden Satelliten, die Eigentum von Planet sind.

Quelle: ESA

PlanetScope in Kürze

Einsatzbereiche

Weitere Informationen:

Plankton, Aerosol, Cloud, ocean Ecosystem (PACE)

Am 8. Februar 2024 gestartete Satellitenmission der NASA zur Untersuchung der Gewässerökologie und -chemie, sowie zum genaueren Verständnis der Rolle des Aerosols und der Wolken für das Klima. Der PACE-Sensor liefert den Wissenschaftlern die Ozeanfarben vom Ultraviolett bis zum nahen Infrarot. Sie erhalten dabei genaue Messungen über die biologischen und chemischen Ozeaneigenschaften wie beispielsweise der Biomasse des Phytoplanktons und die Zusammensetzung von Phytoplankton-Gemeinschaften. Die Mission hilft beim besseren Verständnis der Reaktion mariner Ressourcen auf den Klimawandel und der Rolle des marinen Phytoplanktons im globalen Kohlenstoffkreislauf.

Ferner wird PACE Messungen der Wolkendecke vornehmen, ebenso von kleinen Luftpartikeln wie Staub, Rauch und Aerosolen um Messungen von bereits existierenden NASA-Missionen zu ergänzen und fortzuführen.

Grundlegende wissenschaftliche Ziele

PACE PACE

Künstlerische Darstellung des Satelliten

Mit seinem Start im Februar 2024 werden die seit über 20 Jahren u.a. von der NASA durchgeführten Satellitenbeobachtungen der globalen Meeresbiologie, der Aerosole (winzige in der Atmosphäre schwebende Partikel) und der Wolken erweitert und verbessert.

Quelle: NASA
PACE Architektur PACE Architektur

Ein kommentiertes Diagramm des PACE-Raumfahrzeugs und der Instrumente, einschließlich der beiden Polarimeter HARP-2 und SPEXone. Das Hauptinstrument, das Ocean Color Instrument (OCI), befindet sich oben rechts und ist in Silber dargestellt.

Quelle: NASA

Wissenschaftliche Instrumente dieser ozeanökologischen Mission

PACE wird vom Goddard Space Flight Center der NASA in Greenbelt (Maryland) geleitet werden. Der Start der Mission erfolgte am 8. Februar 2024.

Weitere Informationen:

PLATO

Engl. Akronym für Planetary Transits and Oscillations of Stars (planetare Transite und Oszillationen von Sternen); eine mittelgroße Wissenschaftsmission im Rahmen des Programms Cosmic Vision 2015–2025 der ESA mit einem weltraumgestützten Observatorium zur Aufspürung von Exoplaneten in der Umlaufbahn fremder Sterne, die 2026 gestartet werden soll.

Die Mission wird sich mit zwei der wichtigsten Fragen des Programms Cosmic Vision auseinandersetzen: unter welchen Bedingungen bilden sich Planeten und entsteht Leben und wie funktioniert das Sonnensystem? PLATO wird relativ nahe gelegene Sterne erforschen und dabei nach winzigen, regelmäßigen Lichteinbußen suchen, die eintreten, wenn ihre Planeten an ihnen vorbeifliegen und dabei kurzzeitig einen kleinen Teil des Sternenlichts ausblenden.

Unter Einsatz von 34 eigenständigen kleinen Teleskopen und Kameras wird PLATO unter ca. einer Million Sternen, die sich über die Hälfte des Himmels erstrecken, nach Planeten Ausschau halten. Zudem wird die seismische Aktivität von Sternen untersucht, wodurch eine genaue Charakterisierung des Zentralgestirns jedes entdeckten Planeten, einschließlich Masse, Radius und Alter, ermöglicht werden soll. Gemeinsam mit bodengestützten Beobachtungen der Radialgeschwindigkeit werden die Messungen von PLATO die Berechnung von Masse und Radius eines Planeten und somit von dessen Dichte erlauben, was Rückschlüsse auf seine Zusammensetzung zulässt. Die Mission wird Tausende exoplanetare Systeme aufspüren und untersuchen, wobei sie sich auf die Entdeckung und Charakterisierung von Planeten erdähnlicher Größe und Supererden im bewohnbaren Bereich ihres Zentralgestirns – der Entfernung, bei der flüssiges Oberflächenwasser existieren könnte – konzentrieren wird.

Weitere Informationen:

Plattform

Syn. Fernerkundungsplattform, engl. platform, franz. plate-forme; statische oder bewegte Trägerkonstruktion, auf der ausschließlich oder unter anderem Sensorsysteme der Fernerkundung oder der Photogrammetrie installiert sind zur photographischen oder elektronischen Bildaufnahme, für Radaraufnahmen oder geophysikalische Aufnahmen eines Objektes. Im einfachsten Fall ist dies eine kleine, auf Fahrzeuge montierte Beobachtungsplattform; aber in der überwiegenden Mehrzahl der Fälle wird es sich um fliegende Plattformen handeln, angefangen von Ballonen über Drachen, Hängegleiter, Drohnen/UAVs unterschiedlicher Größe, Flugzeuge, Hubschrauber, Gyrokopter, Luftschiffen bis hin zu Raumschiffen und Satelliten.

fe_plattformen Plattformen für
Fernerkundungsinstrumente (Auswahl)

Weltraumbasiert:
Raketen, Satelliten, Raumfahrzeuge => von ca. 100 km bis 36.000 km
Space Shuttle (M. b.): 250-300 km
Space Station: 300-400 km
niedrig fliegende Satelliten: 700-1500 km
hoch fliegende Satelliten: ca. 36.000 km

Luftbasiert:
Flugzeuge, Helikopter, Luftschiffe, Ballone, Drachen, Hängegleiter,
UAVs/Drohnen => bis 50 km

Bodenbasiert:
Boden, Türme, Hebebühnen => up to 50 m

Quelle: Purkis (verändert)

Der Typus der Plattform wird dementsprechend auch von den spezifischen Parametern der Sensorsysteme bestimmt. Plattformen bei der Luftbildaufnahme sind in der Regel Flugzeuge sowie Hubschrauber in jüngerer Zeit auch Drohnen. Für Beobachtungen aus dem Weltall werden u.a. Satelliten, Raketen, Raumschiffe oder Raumstationen als Plattformen verwendet. In der terrestrischen Photogrammetrie ist die Plattform der Kamera im allgemeinen ein Stativ. Die Plattformgeschwindigkeit und die Flughöhe der Plattform sind wichtige Parameter bei der Erfüllung der Zeilenpassbedingung. Das Verhältnis dieser beiden Größen beeinflußt auch die rauschäquivalente Strahlungsleistung NEP (Noise Equivalent Power) der Detektoren.

Bodengebundene Plattformen können z.B. Geräte tragen, die nach dem SODAR- oder nach dem RADAR-Prinzip arbeiten und in der Meteorologie eingesetzt werden. Dem gleichen Einsatzbereich oder der Umweltüberwachung dienen Sensoren auf statischen Messmasten, von denen aus sowohl in situ-Messungen durchgeführt werden, wie auch Atmosphärenprofile erstellt werden können. Eine ähnliche Zwitterstellung besitzen Ballone.

Beobachtungsplattformen - Vereinfachte Übersicht
Geostationäre Satelliten Polarumlaufende Satelliten Flugzeug Boden
Pro
  • Beobachtung von schwer zugänglichen Gebieten
  • zeitliche Auflösung
  • globale Beobachtung
  • räumliche Auflösung
  • Beobachtung von schwer zugänglichen Gebieten
  • feine räumliche Auflösung
  • großräumige Beobachtung
  • Abstimmung auf spezielle Nutzerwünsche
  • Eichung
  • zeitliche Auflösung
  • Eichung / Genauigkeit
  • kontinuierliche und lange Zeitreihen
Kontra
  • nur bis max. 60° nördlicher und südlicher Breite
  • hohe Kosten
  • Beobachtung durch Wolken beeinflusst
  • Lebensdauer
  • Eichung/Kalibrierung
  • zeitliche Auflösung
  • hohe Kosten
  • Beobachtung durch Wolken beeinflusst
  • Lebensdauer
  • Eichung/Kalibrierung
  • Einzelmessungen
  • hohe Wartungskosten
  • Überflugsrechte
  • Vorschriften bezüglich Höhe
  • teuer bei häufigem Einsatz
  • lokale Betrachtung (fester Standort)
  • Beobachtung durch Sichtfeld beschränkt
Übliche
FE-Verfahren
  • Scanner und Radiometer
  • Photographische Systeme (veraltet)
  • Scanner und Radiometer
  • Impulsradar und Lidar
  • Photographische Systeme
  • Scanner und Radiometer
  • Impulsradar
  • Impulsradar und Dauerstrichradar
  • Lidar
  • Sodar
  • Radar-RASS, Sodar-RASS

Pléiades

Optisches Erdbeobachtungssystem bestehend aus zwei identischen Satelliten (Pléiades 1A und Pléiades 1B) mit einer Auflösung im 50 cm Bereich. Das Pléiades System verläuft auf einem Phasenorbit mit einem Winkelabstand der beiden Satelliten von 180° und verfügt über eine hohe Wiederholrate um jeden Punkt auf der Erde aufzuzeichnen.

PHR_01B_BR_lres Pléiades Satellit

Zwei identische Satelliten liefern sehr hochauflösende optische Datenprodukte in Rekordzeit und ermöglichen eine tägliche Neuerfassung jedes beliebigen Punktes auf der Erde. Das Pléiades-System wurde dazu entwickelt, Daten doppelt so schnell zur Verfügung zu stellen:

  • Datenerfassung überall auf der Erde in weniger als 24 Stunden im Fall von Krisen oder Naturkatastrophen
  • Regelmäßige - wenn notwendig tägliche - Überwachung
  • Drei Satelliten-Aufnahmepläne pro Tag ermöglichen eine einfache Berücksichtigung kurzfristig auftretender Anforderungen
  • Doppelte Abdeckung und verbesserte Wahrscheinlichkeit der wolkenfreien Aufnahme
Quelle: CNES / Airbus D&S

Die Satelliten sind die optische Komponente des sowohl für den zivilen als auch für den militärischen Einsatz gedachten italienisch-französischen Orfeo Systems und kleiner, preisgünstigerer und beweglicherer als ihre Vorgänger aus der SPOT-Satellitenserie, die seit 1986 einen ununterbrochenen Dienst bietet und deren Plattform derzeit auch in fast allen europäischen Erdbeobachtungsprogrammen im erdnahen Orbit (insbesondere ERS 1/2 (M.b.), Envisat (M.b.), MetOp und Helios) zum Einsatz kommt. Pléiades nutzt innovative Technologien, wie etwa die erstmals in der europäischen Raumfahrt genutzten Kreiselsystem-Aktuatoren (CMG), die an Bord der Satelliten für unübertroffene Leistungsfähigkeit sorgen.

Die beiden Pléiades-Satelliten werden zusammen mit SPOT 6 und SPOT 7, den Nachfolgern von SPOT 5, auf in Phasen aufgeteilten Orbits eingesetzt. Diese Konstellation aus vier Satelliten bietet eine ideale Kombination aus Genauigkeit und Abdeckung mit zweifachen täglichen Neuerfassungen jedes beliebigen Punktes auf der Erde.

Pléiades 1A wurde am 17. Dezember 2011 vom Centre Spatial Guyanais mit einer Sojus-ST-Rakete zusammen mit vier Elisa-Satelliten für das französische Militär und dem chilenischen Satelliten SSOT in eine sonnensynchrone Erdumlaufbahn gebracht. Die Elisa-Satelliten haben eine Masse von jeweils 120 kg und sollen bodengestützte Radarquellen und deren Charakteristik zur militärischen Aufklärung erfassen. Hauptauftragnehmer bei allen Satelliten war EADS Astrium (heute Airbus D&S). Pléiades 1B wurde am 2. Dezember 2012 ebenfalls vom Centre Spatial Guyanais aus mit einer Sojus-ST in dieselbe Umlaufbahn jedoch 180° versetzt gebracht.

Der Start von SPOT 6 erfolgte am 9. September 2012, der baugleiche SPOT 7 wurde am 30. Juni 2014 ins All gebracht. Von ihrer Bahnhöhe 695 km und der Bahnneigung von 98,2° (mit den beiden Pléiades-Satelliten auf demselben Orbit) liefern sie Aufnahmen mit einer Schwadbreite von 60 km und einer Auflösung von maximal 1,5 m.

Übersicht technische Details
Masse eines Satelliten 1 Tonne
Orbittyp: sonnensynchron
Höhe: 695 km
Nutzlast: Teleskop plus zugehöriger Elektronik
Bildkomprimierer
Massenspeicher
Verschlüsseler
Bildtelemetrie-Verbindung
Bildaufnahmekapazität: bis zu 500 Bilder täglich, pro Satellit
Bildabdeckungskapazität von 2.500.000 km² pro Jahr
Spektralbänder P: 470 – 830nm, Blue: 430 – 550nm, Green: 500 – 620nm,
Red: 590 – 710nm, Near-infrared: 740 – 940nm
Auflösung: 0.7 m im Nadir
Schwadbreite: 20 km Im Nadir

Dadurch bilden die Satelliten eine Konstellation, die täglich jeden Punkt der Erde erfassen kann. Von dieser täglichen Erfassung profitieren Anwender weltweit. In Situationen, in denen möglichst zeitnahe Reaktionen gefordert sind, ist die tägliche Erfassungskapazität entscheidend. Mit der Pléiades-Konstellation werden innerhalb weniger Stunden Aufnahmen von Konflikt- und Krisenbereichen oder Katastrophengebieten erstellt, die die Planung von Entlastungs- und Rettungsmaßnahmen unterstützen können.

Die tägliche Aufnahmekapazität ermöglicht auch eine tägliche Überwachung beispielsweise von Baumaßnahmen oder Bergbau sowie industrieller oder militärischer Aktivitäten. Außerdem sind die Pléiades-Satelliten dank der hohen Anzahl an Aufnahmemöglichkeiten eine ideale Datenquelle für die Kartierung größerer Gebiete in hoher Auflösung – die doppelte Anzahl an Akquisitionsmöglichkeiten erhöht die Chancen, wolkenfreie Aufnahmen zu erhalten.

Die dreiachsenstabilisierten Pléiades sind mit einer Kamera mit einem Primärspiegeldurchmesser von 65 cm ausgerüstet, die bei Farb- oder Schwarzweiß-Aufnahmen eine Auflösung von 50 cm und bei multispektralen Fotos eine Auflösung von 2 m erreichen. Die Aufnahmen erfolgen durch fünf Zeilensensoren mit 1500 Pixel Breite für multispektrale und fünf Zeilensensoren mit 6000 Pixel Breite für den panchromatischen Bereich. Die Satelliten und ihre Bahnen wurden so ausgelegt, das sie zusammen jedes Gebiet der Erde mindestens einmal am Tag aufnehmen können.

camargue

Pléiades Satellitenaufnahme
Salin-de-Giraud, Frankreich

  • Titel : Pléiades Satellitenaufnahme - Salin-de-Giraud, Frankreich
  • Ort: Camargue
  • Bildtyp: Optisch
  • Auflösung: 50 cm
  • Datum: 14/09/2012
  • Copyright: CNES 2012
  • Distribution Airbus DS
  • Aufnahmemodus: Pansharpened
Quelle: Airbus D&S

Mit den dreimal täglich von den drei Bodenstationen (Kerguelen Archipel, Kiruna und Toulouse) an die Satelliten hochgeladenen Programmierplänen können Datenanfragen bis zu zwei Stunden bevor der Satellit das Gebiet überfliegt verarbeitet werden. Die vollständig automatisierte Datenverarbeitung ist in der Lage, georeferenzierte Daten mit den Abmessungen 20 km x 20 km in nur 30 Minuten und ein 60 km x 60 km Single-Pass-Mosaik in weniger als zwei Stunden zu erstellen. Somit können Kunden innerhalb von weniger als 6 Stunden nach Ihrer Beauftragung, einschließlich Erfassungszeit, auf einsatzbereite Aufnahmen zugreifen.

Das Programm wurde unter der Verantwortung der französischen Raumfahrtbehörde CNES entwickelt. Astrium (heute Airbus D&S) war Hauptauftragnehmer für die Auslegung, Entwicklung, Fertigung und Auslieferung der beiden Satelliten.

Weitere Informationen:

Pléiades Neo

Konstellation von vier optischen Erdbeobachtungssatelliten, die als Nachfolgemission der bisherigen Pléiades-Satelliten von Airbus Defence and Space für zivile und militärische Zwecke entwickelt wurden. Ihre Bodenauflösung im panchromatischen Bereich beträgt 30 cm, gegenüber 70 cm der bisherigen Pléiades-Satelliten.

Die Satelliten sollten zwischen 2021 und 2022 mit einer Vega C-Startrakete von Kourou aus auf ihre sonnensynchronen Orbits in 620 km Höhe starten. Das erste Exemplar (Pléiades Neo 3) wurde am 29.4.2021 gestartet, Pléiades Neo 4 folgte am 16.8.2021. Die beiden anderen geplanten Orbiter, die Satelliten Pléiades Neo 5 und 6, sollten im Jahr 2022 mit demselben Vega C 20-Flug gestartet werden. Bei diesem ersten kommerziellen Start einer Vega-C-Rakete am 21. Dezember 2022 kam es 2,5 Minuten nach dem Abheben zu einer Fehlfunktion eines Triebwerks. Die Rakete kam vom Kurs ab und die Nutzlast, die beiden Pléiades-Neo-Satelliten, ging verloren.

Die Satelliten werden die Anzahl der täglichen Überflüge an jedem Ort der Erde verdoppeln und im Vergleich zu vorherigen Airbus-Konstellationen eine fünf Mal höhere Retasking-Rate bieten. Jeder Satellit wird das Leistungsangebot von Airbus pro Tag um Aufnahmen eines eine halbe Million Quadratkilometer großen Gebiets ergänzen. Diese Bilddaten fließen in die OneAtlas-Onlineplattform ein und bieten den Kunden sofortigen Datenzugriff, Analysefähigkeiten sowie eine Anbindung an das Optik- und Radardatenarchiv von Airbus.

Mit der Mission können zahlreiche Anwendungen unterstützt werden, darunter Krisenmanagement, Meeresüberwachung, Landwirtschaft, Stadtplanung, Forstwirtschaft und Umweltüberwachung.

Pléiades Neo 5&6 - Endmontage im Reinraum in Kourou (3.11.2022)

Pléiades Neo 5&6 - Endmontage im Reinraum in Kourou (3.11.2022)

Für diesen Doppelstart an Bord der Arianespace Vega-C haben sich die Raumfahrtingenieure von Airbus ein effizientes Design ohne Spender ausgedacht, bei dem die Satelliten übereinander gestapelt und nur durch ein Klemmband verbunden sind.

Die beiden Pléiades Neo-Satelliten wurden soeben auf dem Vega C-Adapter installiert. Die nächsten Schritte für die Zwillinge: Verkapselung in der Arianespace-Trägerraketenverkleidung.

Quelle: Airbus D&S

Technische Daten von Pléiades Neo:

Pléiades Neo nutzt das als SpaceDataHighway bekannte, weltraumgestützte Datenrelais-Kommunikationssystem, um höchste Systemreaktivität, sehr kurze Latenzzeiten und eine Übertragung großer Datenmengen sicherzustellen. Seine Lasertechnik erlaubt eine Übertragungsbandbreite von bis zu 1,8 Gigabit pro Sekunde. Im Zusammenspiel mit den im geostationären Orbit platzierten Relaissatelliten lassen sich damit künftig täglich bis zu 40 Terabyte nahezu in Echtzeit sicher zur Erde übertragen. Derzeit erfolgt die Übertragung noch häufig mit einer Verzögerung von mehreren Stunden. Die vier Satelliten sind mit reaktiven Ka-Band-Terminals ausgestattet, die Last-Minute-Tasking-Updates auch dann ermöglichen, wenn sie sich außerhalb der Sichtweite ihrer Bodenstationen befinden. Dies wird als großer Vorteil für Kunden gesehen, wenn es um die Einschätzung von Naturkatastrophen und Rettungseinsätze ziviler und militärischer Kräfte geht.

Überblick über die Mission Pléiades Neo

Überblick über die Mission Pléiades Neo

Quelle: ESA earth online

Pléiades Neo ist Teil des ESA-Programms "Third Party Missions", in dessen Rahmen die ESA eine Vereinbarung zur Förderung der kostenlosen Verfügbarkeit von Datenprodukten der Mission getroffen hat.

Weitere Informationen:

Plessezk (Plesetsk)

Russischer Weltraumbahnhof, 800 Kilometer nördlich von Moskau und 180 Kilometer südlich der Gebietshauptstadt Archangelsk am Polarkreis gelegen. Die Startkomplexe befinden sich inmitten dichter Nadelwälder (Taiga).

Plessezk war lange Zeit eine der geheimsten Raketenbasen der Sowjetunion. Anfang 1957, zehn Monate vor dem Start des ersten Sputniks der Welt, beschlossen die Militärs, im hohen Norden eine operative Raketenbasis – Deckname „Angara“ – zu errichten. Sie wollten für ihre mit Atombomben bestückten Interkontinentalraketen eine möglichst kurze Flugtrasse über den Nordpol in Richtung Nordamerika haben. Plesetsk galt hierzu ein idealer Standort. Auch für die zivile Nutzung mit Starts zu niedrigen, sonnensynchronen Umlaufbahnen mit starker Inklination ist der Startplatz ideal. Die hohe geographische Breite macht Plessezk nur für bestimmte Arten von Umlaufbahnen geeignet, vor allem für Molniya-Orbits.

Kosmodrom am Polarkreis Plesetsk_view_400Quellen: ESA

Am 17. März 1966 wurde von Plesetsk der erste Satellit gestartet. Eine Wostok-Trägerrakete beförderte einen Zenit-2-Fotoaufklärungssatelliten unter dem Namen Kosmos 112 in eine subpolare Erdumlaufbahn. Die hohe Bahnneigung von 72 Grad fiel westlichen Beobachtern sofort ins Auge. Sie bestimmten den Startort im Gebiet Archangelsk am Polarkreis und nannten ihn nach der einzigen größeren Siedlung in diesem Gebiet – Plessezk. Erst 17 Jahre später, 1983, bestätigte die Sowjetunion offiziell die Existenz von Plessetsk.

In den Folgejahren wurde Plesetsk der meistgenutzte Raketenstartplatz der Sowjetunion. Innerhalb von 35 Jahren wurden mehr als 1500 Trägerraketen, 1900 Satelliten und 500 ballistische Militärraketen gestartet. Trotzdem erhielt Plesetsk erst 1994 durch Präsidentenerlass den offiziellen Status eines Kosmodroms. Im Gegensatz zu Baikonur untersteht Plessetsk bis heute dem Verteidigungsministerium. Ein Teil des Geländes wird bis heute zur Erprobung der modernsten russischen Atomraketen genutzt.

Das Kosmodrom ist einige Dutzend Kilometer von der Stadt Mirny entfernt. Seine Längsausdehnung in West-Ost-Richtung beträgt 82 Kilometer, in Nord-Süd-Richtung 46 Kilometer. Über eine Fläche von 1762 km² verteilen sich neun Startrampen, sieben Montagehallen, eine Sauerstoff-Stickstoff-Fabrik und zwei Betankungsstationen.

In den letzten Jahren ist die Zahl der Einsätze drastisch gesunken. Fehlende Gelder zwingen auch Plessetsk, sich ausländischen Investoren zu öffnen. Den Anfang machte das deutsch-russische Gemeinschaftsunternehmen Eurockot. Die ESA-Satelliten Sentinel-3A (2016), Sentinel-5P (2017) und Sentinel-3B (2018) wurden im Rahmen des Erdbeobachtungsprogramms GMES (heute Copernicus) mit Rockot-Trägerraketen von Plessezk aus gestartet.

Die deutlich ausgeprägte Spezialisierung russischer Kosmodrome ist unter der Präsidentschaft von Wladimir Putin 2007 beschlossen worden. Danach soll Plessezk als wichtigstes Kosmodrom zum Start militärischer Nutzlasten und zum Test neuer militärischer Systeme weiter auf- und ausgebaut werden.

PO.DAAC

Engl. Akronym für Physical Oceanography Distributed Archive Center; Datenzentrum des JPL zur Archivierung und Distribution von Daten zum physikalischen Zustand der Ozeane. Zu den dokumentierten Parametern zählen: Topographie der Meeresoberfläche, ozeanische Windvektoren, Meeresoberflächentemperatur, Luftfeuchte, Wärmeströme u.w. Sie sind jeweils in Bezug gesetzt zu den relevanten Sensoren bzw. in situ-Messungen.

Weitere Informationen:

POES

Engl. Akronym für Polar-Orbiting Environmental Satellite (polarumlaufender Umweltsatellit); Bezeichnung für die früher unter dem Namen TIROS bekannten Wettersatelliten der NOAA.

Das Goddard Space Flight Center (GSFC) war für den Bau, die Integration und den Start der NOAA-Satelliten verantwortlich. Die operationelle Kontrolle über den Satelliten wird an die NOAA übergeben, nachdem er in der Umlaufbahn getestet wurde, normalerweise 21 Tage nach dem Start. Die NOAA-Satelliten tragen sieben wissenschaftliche Instrumente und zwei für Such- und Rettungszwecke. Alle NOAA-Satelliten, die im Rahmen des POES-Projekts gebaut wurden, sind bereits gestartet. Der letzte Satellit, NOAA-19, wurde im Februar 2009 ins All gebracht.

Die polarumlaufenden Satelliten, die unter den Bezeichnungen POES, S-NPP und JPSS-1 (jetzt NOAA-20) bekannt sind, ergänzen die geostationären Wettersatelliten. NOAA-20 ist der erste der JPSS-Serie. Satelliten in einer polaren Umlaufbahn umkreisen die Erde ständig in einer fast nord-südlichen Umlaufbahn, wobei sie nahe an beiden Polen vorbeifliegen.

Das POES-Satellitensystem bietet den Vorteil einer täglichen globalen Abdeckung, da es 14 Mal pro Tag in einer Höhe von etwa 520 Meilen über der Erdoberfläche eine nahezu polare Umlaufbahn durchläuft. Durch die Erdrotation erhält der Satellit bei jeder Umkreisung einen anderen Sichtbereich, so dass jeder Satellit täglich zwei vollständige Darstellungen des Wetters auf der ganzen Welt liefert.

Die Erdbeobachtungen von polaren Umlaufbahnen werden gemeinsam von EUMETSAT und dem US-amerikanischen Wetterdienst NOAA im Rahmen des Initial Joint Polar System (IJPS) durchgeführt. Das IJPS beinhaltet den Austausch von Instrumenten und Daten sowie die gegenseitige Unterstützung im Satellitendaten-Empfang.

Die NOAA arbeitet mit der Europäischen Organisation für die Nutzung meteorologischer Satelliten (EUMETSAT) zusammen, um ständig zwei polarumlaufende Satelliten zu betreiben - einen POES und einen europäischen polarumlaufenden Satelliten namens MetOp.

Zu den POES-Instrumenten gehören das Advanced Very High Resolution Radiometer (AVHRR) und die Advanced TIROS Operational Vertical Sounder (ATOVS) Suite. Das von EUMETSAT bereitgestellte Mikrowellen-Feuchtigkeitsmessgerät (Microwave Humidity Sounder, MHS) vervollständigt das ATOVS-Instrumentarium. AVHRR/ATOVS liefert Daten im sichtbaren, infraroten und Mikrowellenbereich, die für eine Vielzahl von Anwendungen wie Wolken- und Niederschlagsüberwachung, Bestimmung von Oberflächeneigenschaften und Feuchtigkeitsprofilen verwendet werden.

Die Daten der POES-Reihe unterstützen ein breites Spektrum von Umweltüberwachungsanwendungen, darunter Wetteranalyse und -vorhersage, Klimaforschung und -vorhersage, globale Messungen der Meeresoberflächentemperatur, atmosphärische Sondierungen von Temperatur und Luftfeuchtigkeit, Erforschung der Ozeandynamik, Überwachung von Vulkanausbrüchen, Erkennung von Waldbränden, globale Vegetationsanalyse, Such- und Rettungsdienste und viele andere Anwendungen.

Die Umlaufbahnen sind kreisförmig, mit einer Höhe zwischen 830 km (Morgenumlaufbahn) und 870 km (Nachmittagsumlaufbahn), und sind sonnensynchron. Ein Satellit überquert den Äquator um 7:30 Uhr Ortszeit, der andere um 13:40 Uhr Ortszeit. Die kreisförmige Umlaufbahn ermöglicht eine einheitliche Datenerfassung durch den Satelliten und eine effiziente Steuerung des Satelliten durch die NOAA Command and Data Acquisition (CDA)-Stationen in der Nähe von Fairbanks, Alaska und Wallops Island, Virginia. Durch den paarweisen Betrieb dieser Satelliten wird sichergestellt, dass die Daten für jede Region der Erde nicht älter als sechs Stunden sind.

Eine Reihe von Instrumenten ist in der Lage, zahlreiche Parameter der Erdatmosphäre, ihrer Oberfläche, der Wolkenbedeckung, der einfallenden Sonnenprotonen, der positiven Ionen, der Elektronenflussdichte und des Energiespektrums in der Höhe des Satelliten zu messen. Im Rahmen der Mission können die Satelliten Daten von Such- und Rettungsbakensendern sowie von automatischen Datenerfassungsplattformen an Land, an Meeresbojen oder an Bord von frei schwebenden Ballonen empfangen, verarbeiten und weiterübertragen.

Eine neue Serie polarer Orbiter mit verbesserten Instrumenten begann mit dem Start von Suomi-NPP im Mai 2011. Gegenwärtig (2023 / aktueller Status) betreibt die NOAA fünf polarumlaufende Satelliten (NOAA-15, -18, -19, -20 und -21). Dazu kommen zwei Exemplare des MetOp.

Weitere Informationen:

POET

Engl. Akronym für PO.DAAC Ocean ESIP TOOL; Werkzeug des Jet Propulsion Laboratory zur Online-Darstellung einer großen Zahl von PO.DAAC-Daten.

Pol-InSAR

Akronym für Polarimetrische SAR-Interferometrie, engl. Polarimetric SAR Interferometry; Fernerkundungsmethode, die eine Untersuchung der 3D-Struktur natürlicher Volumenstreuer erlaubt. Ein polarimetrisches Radar ist in der Lage, Wellen unterschiedlicher Polarisierung zu senden und zu empfangen. Aus der Polarisierung der empfangenen Wellen bzw. der Polarisationsänderung lassen sich weitere Informationen über das abgebildete Gelände gewinnen, die zum Beispiel die Unterscheidung zwischen Wald und Häusern erleichtern.

Funktionsweise:
Zu beobachtende interferometrische Objekte sind hochsensitiv gegen räumliche Variation vertikaler Strukturparameter und erlauben eine exakte 3D-Lokalisation des Streuzentrums. Andererseits ist die Rückstreupolarisation sensitiv gegenüber der Form, Orientierung und dielektrischen Eigenschaften von Rückstreuern und erlaubt die Identifikation und/oder Trennung von Rückstreumechanismen natürlicher Medien.

Pol-InSAR kombiniert beide Techniken kohärent miteinander, um eine Sensitivität zur vertikalen Verteilung der Streumechanismen herzustellen. Damit wird es möglich, die 3D-Struktur von Volumenstreuern zu untersuchen und Informationen über die zugrundeliegenden Streuprozesse zu extrahieren - und dies mit einem polarimetrischen Radarsensor in nur einer Trägerfrequenz.

Mit dem E-SAR-Sensor betreibt das DLR den Sensor, der zum ersten Mal flugzeuggetragene polarimetrische Repeatpass-Interferometrie in L- und P-Band demonstrierte und initiierte damit die Entwicklung der Pol-InSAR-Technologie in Europa und weltweit.

Bedeutende Anwendungen liegen in den Bereichen Forstwirtschaft, Landwirtschaft, Stadt-Gebiete, Schnee und Eis.

Die rasche Entwicklung von Pol-InSAR-Techniken kombiniert mit dem Interesse der ESA an der Koordination der europäischen Aktivitäten und der Gründung eines Forums zum wissenschaftlichen Austausch mündet letztlich in den POL-InSAR-Workshops organisiert durch die ESA am Standort ESRIN (http://earth.esa.int/polinsar/). Als direktes Ergebnis der auf dem ersten POL-InSAR Workshop gegebenen Vorschläge wurde POLSARPRO (Polarimetric SAR Data Processing and Educational Tool) entwickelt - unter ESA-Vertrag in einem Konsortium: University of Rennes 1, DLR und AEL Consultants. POLSARPRO soll den Zugang und die Auswertung multi-polarimetrischer SAR-Datensätze erleichtern. Alle Elemente des POLSARPRO-Projekts werden durch die ESA kostenfrei verteilt (http://earth.esa.int/polsarpro/index.html).

Weitere Informationen:

Polar Satellite Launch Vehicle

Indische Trägerrakete für leichte bis mittelschwere Nutzlasten. Die Rakete wird von der indischen Raumfahrtbehörde ISRO vom Weltraumbahnhof Satish Dhawan Space Centre auf Sriharikota (80 km nördlich Chennai) gestartet.

PSLV wurde entwickelt, um indische IRS-Erderkundungssatelliten mit eigenen Raketen starten zu können, da man dabei bisher auf die Sowjetunion bzw. Russland und ihre Träger angewiesen war. Der erste Start fand 1993 statt, war jedoch nicht erfolgreich. Obwohl die erste Stufe ohne Probleme arbeitete, trat in der zweiten und der dritten Stufe ein Fehler im Höhenkontrollsystem auf, was zu einem Absturz der Rakete führte. Bereits nach etwa einem Jahr startete erfolgreich die zweite PSLV. Seitdem brachte die PSLV erfolgreich mehrere sowohl indische, als auch zusätzliche kleinere ausländische Nutzlasten ins Weltall. Auch die erste indische Raumsonde Chandrayaan-1 wurde 2008 mit einer PSLV zum Mond gestartet.

PSLV ist eine vierstufige Rakete, bestehend aus zwei Feststoffstufen (erste und dritte Stufe) und zwei Flüssigtreibstoffstufen (zweite und vierte Stufe). Zusätzlich wird die erste Stufe in der Basisversion von sechs kleineren Feststoffboostern unterstützt.

Die Höhe der Rakete beträgt 44,4 m, die Startmasse 294 t (Daten für PSLV-C6). Seit dem Erststart 1993 wurde die Rakete ständig verstärkt und verbessert, so dass die heute eingesetzte Version über 1.600 kg in eine etwa 600 km hohe polare Umlaufbahn und etwa 1.000 kg in einen Geostationäre Transferbahn bringen kann. Die letzte Version (die PSLV-XL) verfügt über verbesserte Booster und kann sogar 1.800 kg in eine polare Umlaufbahn bringen. Zum Starten der Rakete verfügt das Satish Dhawan Space Centre über zwei Startanlagen, wobei die zweite (SLP – Second Launch Pad) erst 2005 mit dem Start der PSLV-C6-Rakete eingeweiht wurde.

Beim Start der PSLV-C17 wurde zum ersten Mal ein Computersystem eingesetzt, das ausschließlich indische Prozessoren vom Typ Vikram 1601 in beiden redundanten Steuerungscomputer verwendete. Diese hatte man 2009 beim Start der PSLV-C12 getestet, wo sie in einem der beiden Systeme benutzt wurden.

Weitere Informationen:

polare Umlaufbahn

Engl. polar orbit, franz. orbite polaire; Umlaufbahn eines Satelliten, die über die Polarregionen hinweg führt (nicht notwendigerweise direkt über die Pole) und damit eine starke Neigung gegenüber der Äquatorebene besitzt. Derartige Satelliten befinden sich in Höhen zwischen 700 und 900 km (Angaben schwankend). Beispielsweise verläuft die Umlaufbahn im Falle der meisten polarumlaufenden Wettersatelliten in Höhen von ca. 850 km über der Erde. Die Umlaufdauer beträgt dann ca. 100 Minuten, und pro Tag können 14 Umläufe durchgeführt werden. Während des Fluges von Pol zu Pol dreht sich die Erde unter dem Satelliten hinweg, es werden stets nur Streifen der Erdoberfläche beobachtet. Diese Streifen haben, je nach verwendeter Optik, Breiten von 30 bis 2.600 km (Schwadbreite, engl. swath width). Für die globale Erdbeobachtung müssen die einzelnen Beobachtungsstreifen aneinandergefügt werden.

Scanzeilen polarumlaufender Satelliten
Das Beispiel der US-amerikanischen NOAA (POES)- und DMSP-Satelliten

Die Bodenspur (scan swath) ist etwa 3.000 km breit. Der Orbit verläuft in Richtung NW. Die Satelliten überqueren nicht genau die Pole, sondern schaffen eine Orbit-Präzession, so dass sie bei jedem weiteren Umlauf einen weiter westlich gelegenen Streifen überfliegen. Zur Verkürzung der Beobachtungsintervalle werden zwei zeitlich versetzt umlaufende Satelliten eingesetzt.

Die Umlaufdauer beträgt ca. 98-102 Minuten. Somit vollzieht jeder Satellit ca. 14 Umläufe pro Tag.

Hier sieht man eine schematische Darstellung aller Umlaufbahnen eines polumlaufenden Satelliten an einem Tag. Zu beachten ist, dass es sich um eine globale Abdeckung, und um eine sonnensynchrone Umlaufbahn handelt.

Die Orbithöhen sind mit ca. 850 km viel niedriger als jene von geostationären Satelliten.

Quelle: Lyndon State College

Die Umlaufbahn der Wettersatelliten ist zusätzlich sonnensynchron, dabei werden alle Teile der Erde unter der gleichen Sonnenbeleuchtung, d.h. zur gleichen Ortszeit überflogen. Die Bildstreifen sind damit untereinander direkt vergleichbar. Dieser Orbit wird durch eine leichte Neigung (Inklination) gegenüber einer genauen Pol-zu-Pol-Umlaufbahn erzielt. Alle Satelliten mit einer hohen räumlichen Auflösung gehören zu diesem Typ.

Der nordwärtige Teil eines polarumlaufenden Orbits wird ascending pass (aufsteigender Durchgang) genannt, der südgerichtete descending pass (absteigender Durchgang). Ist der Orbit gleichzeitig sonnensynchron, so befindet sich der ascending pass höchstwahrscheinlich auf der Schattenseite der Erde, während der descending pass auf der sonnenbeschienenen Seite verläuft. Aktive Sensoren, die ihre Beobachtungsgebiete selbst "beleuchten" oder passive Sensoren die emittierte (z.B. thermale) Strahlung aufzeichnen, können auch im ascending pass die Erdoberfläche abbilden.

nearpolar

Polnahe Umlaufbahn

Sie ist so bezeichnet wegen der Neigung des Orbits in Bezug auf eine Linie, die Nord- und Südpol verbindet. Viele der Satelliten mit dieser Umlaufbahn sind bewegen sich gleichzeitig sonnensynchron, d.h. sie überfliegen jedes Gebiet der Erde immer zu einer konstanten Zeit (local sun time).

Dies garantiert gleichbleibende Beleuchtungsbedingungen, wichtig bei der Beobachtung von Veränderungen oder dem Zusammensetzen von benachbarten Bildern (mosaicking).

Quelle: Natural Resources Canada

Im Gegensatz zum niedrigen Erdorbit mit kleiner Inklination überstreicht ein Satellit in LEO mit einer Inklination von ca. 90° die gesamte Erde innerhalb von ein paar Tagen. Polare Bahnen und der Molniya-Orbit sind die einzigen Bahnformen, auf denen Satelliten direkt auf die Pole herunterschauen können. Die polaren Umlaufbahnen werden für Wettersatelliten, für die Kartographie und für Spionagesatelliten verwendet.

Die Vorteile polarumlaufender Satelliten liegen in der - im Vergleich mit geostationären Satelliten - höheren geometrischen Auflösung, und sie können den gesamten Globus abbilden, wenn auch nicht zeitgleich. Damit erfassen sie eben auch die Polarregionen, und sie bieten die Möglichkeit, Instrumente zum Einsatz zu bringen, die nicht effizient im geostationären Orbit eingesetzt werden können (z.B. derzeit die Mikrowellensondierung mit AMSU, MHS). Die globale Abdeckung macht sie ideal für Missionen zur Erdbeobachtung.

Der wesentlichste Nachteil polarumlaufender Satelliten liegt in ihrer Unfähigkeit, kontinuierliche Daten von einer bestimmten Region zu liefern, da sich die Erde unter der Satellitenbahn ständig weiterdreht. Höhe und Umlaufzeit der Bahn bestimmen die Häufigkeit, mit der jeder Punkt auf der Erdoberfläche überflogen wird.

Auf- und absteigende Bewegungsrichtung bei polarumlaufendem Orbit

Auf- und absteigende Bewegungsrichtung bei polarumlaufendem Orbit

Die meisten der heutigen Erbeobachtungssatelliten bewegen sich auf polnahen Umlaufbahnen, was bedeutet, dass die Satelliten auf der einen Seite der Erde sich nordwärts bewegen und dann in Richtung Südpol auf der zweiten Hälfte des Orbits. Dies bezeichnet man als aufsteigende bzw. absteigende Bewegungsrichtung.

Wenn der Orbit gleichzeitig sonnensynchron ist, überstreicht die aufsteigende Bahnhälfte höchstwahrscheinlich die dunkle Seite des Globus, wohingegen die absteigende Bahnhälfte die sonnenbeschienene Seite überfliegt.

Quelle: Natural Resources Canada

Typische polarumlaufende Satelliten sind, bzw. waren:

Weitere Informationen:

Polarimetrie

Verfahren der Radarfernerkundung, bei dem Mikrowellen verschiedener Polarisation ausgesandt und empfangen werden.

Unter der Polarisation einer elektromagnetischen Welle versteht man die Ebene, in der der Vektor der elektrischen Feldstärke schwingt. Reflexionen an Grenzflächen können zu einer Richtungsänderung führen. Dies macht man sich bei der Radarfernerkundung zunutze, wobei üblicherweise horizontal oder vertikal polarisierte Wellen betrachtet werden. Während in der Vergangenheit aus technischen Gründen häufig nur eine Polarisation verwendet wurde (z.B. ERS, M. b.), arbeiten moderne Systeme meist mit zwei Polarisationen (ENVISAT, M. b.) oder sogar vollpolarimetrisch (ALOS/DAICHI, Japan, 2006).

Weitere Informationen:

Polarisation

Engl. polarization, franz. polarisation; Polarisation beschreibt die Richtung des elektrischen Vektors in einer elektromagnetischen Welle. Eine Welle nennt man unpolarisiert, wenn der elektrische Vektor eine zufällige Orientierung hat, so dass seine Richtung nicht vorhergesagt werden kann.

DIN 18716 formuliert: Die "Vorzugsrichtung des elektrischen und magnetischen Vektors der transversalen elektromagnetischen Wellen" und macht die Anmerkung: "Die Polarisation kann linear, zirkular oder elliptisch sein. Bei partieller Polarisation ist ein Anteil der Strahlung polarisiert".

Bei digitalen photogrammetrischen Systemen ist Polarisation ein Betrachtungsprinzip, bei dem zur Erzeugung eines 3-D-Effektes leichte Polarisationsfilter eingesetzt werden. Diese trennen eine linke und eine rechte Projektion, was dazu führt, dass die zwei Bilder Polarisationen aufweisen, die lotrecht zueinander stehen. Zur Betrachtung ist eine spezielle Brille vonnöten, die im Wesentlichen wie die Anaglyphenbrille wirkt.

POLDER

Engl. Akronym für Polarization and Directionality of the Earth's Reflectances; von CNES entwickeltes, abbildendes Radiometer zum Einsatz auf ADEOS. POLDER liefert die ersten globalen und systematischen Messungen der vom System Erde/Atmosphäre reflektierten Sonnenstrahlung in Bezug auf deren Spektrum, Richtung und Polarisation.

Weitere Informationen:

Poseidon-4 SAR Radar Altimeter

Ein Radar-Höhenmesser (Poseidon-4) in Nadir-Sicht zur Messung der Entfernung zwischen dem Satelliten und der mittleren Meeresoberfläche, zur Bestimmung der signifikanten Wellenhöhe und Windgeschwindigkeit und zur Korrektur der Höhenmesser-Entfernungspfadverzögerung in der Ionosphäre durch Verwendung von Signalen mit zwei verschiedenen Frequenzen (Ku-Band und C-Band). Poseidon-4 ist auf dem Satelliten Sentinel-6 installiert.

Weitere Informationen:

Potsdamer Kartoffel

Populäre Bezeichnung für die auf einem Modell des GFZ Potsdam beruhende Darstellung der Erdgestalt. Auf Grund der Massenunterschiede im Erdinnern ist die massenabhängige Anziehungskraft nicht überall gleich.

Im linken Bild unten sind die Unregelmäßigkeiten im Schwerefeld der Erde in 15.000-facher Überhöhung dargestellt als Abweichungen vom Rotationsellipsoid. Erkennbar ist eine Absenkung des Meeresspiegels südlich von Indien. In diesem Bereich liegt der Meeresspiegel rd. 105 m unter dem Rotationsellipsoid. Die Geoid-Höhen sind über den Ozeanen von dunkelblau (-105 m) bis rot (+85 m) eingefärbt, grün/gelb markiert die Null-Linie. Zur besseren Orientierung sind die Kontinente grau dargestellt.

Die als „Potsdamer Schwerekartoffel“ bekannt gewordene Darstellung der irdischen Anziehungskraft erlaubt jetzt (2012) erstmals die Darstellung zeitlich veränderlicher Schweregrößen. Die jahreszeitlichen Schwankungen des Wasserhaushalts der Kontinente oder abschmelzende oder zunehmende Eismassen, also klimarelevante Größen, gehen jetzt in die Modellierung des Erdschwerefeldes ein. „EIGEN-6C“ nennt sich dieses neueste globale Schwerefeldmodell des GFZ. Es wurde in Potsdam in Zusammenarbeit mit der Groupe de Recherche de Géodésie Spaciale aus Toulouse berechnet. Diesem neuen Schwerefeldmodell liegen Messungen der Satelliten LAGEOS, GRACE und GOCE zugrunde. Diese wurden mit Schweremessungen am Boden und Messwerten der Satellitenaltimetrie kombiniert. EIGEN-6C besitzt eine räumliche Auflösung von etwa 12 Kilometern. Das ist gegenüber der letzten Ausgabe der Potsdamer Kartoffel eine vierfache Steigerung.

Geoidmodelle des GFZ Potsdamer Kartoffel (Geoid)

Gesteigerte räumliche Auflösung der am GFZ in den letzten Jahren berechneten Geoidmodelle: 1995 (rechts), 2005 (Mitte) und 2011 (links)

Quelle: GFZ Potsdam

Weitere Informationen:

PRARE

Engl. Akronym für Precise Range and Range Rate Equipment; in Deutschland entwickeltes Mikrowellensystem zur Bestimmung der Satellitenposition und zugleich ein wertvolles Werkzeug für die Geowissenschaften. Es war im von 1995 bis 2011 aktiven, europäischen Satelliten ERS-2 im Einsatz.

Die von PRARE gesammelten Daten erlauben eine genauere Bestimmung des Erdschwerefeldes. Ausserdem können durch exakte Ermittlung der Koordinaten der Bodenstationen und deren zeitlicher Änderung geophysikalische Prozesse wie die Kontinentaldrift oder die Gezeiten des festen Erdkörpers besser erfasst werden. Weiterhin können Ausbreitungseffekte der Mikrowellensignale, insbesondere mit Blick auf die ionosphärische Refraktion, genauer untersucht werden. Nicht zuletzt können auch Deformationen der Erdoberfläche im Bereich von Vulkanen oder in erdbebengefährdeten Gebieten kontinuierlich beobachtet und zentral überwacht werden.

Prare PRARE und Laser Retroreflector

PRARE ist ein Mikrowellen-Nachverfolgungssystem, das mit einer Genauigkeit im Zentimeterbereich arbeitet, um die Reichweite und die Reichweitenrate von Satelliten zum Boden zu messen.

Das Konzept basiert auf einem autonomen raumgestützten Zweiwege- und Zweifrequenz-Mikrowellenverfolgungssystem mit eigenen Telemetrie-, Fernsteuerungs-, Datenspeicher-, Zeit- und Datenübertragungsfähigkeiten. Dies ermöglicht die Datenanalyse auf globaler Basis innerhalb einer sehr kurzen Zeitverzögerung.

Quelle: ESA

PRARE hat gegenüber den bisher hauptsächlich verwendeten Lasersystemen mehrere Vorteile: als Mikrowellensystem ermöglicht es Allwetter- sowie Tag- und Nachtbetrieb bei annähernd vergleichbarer Genauigkeit. Dazu kommt, dass die Bodenstationen des Systems kostengünstig und mobil sind. Das gesamte System arbeitet vollautomatisch, die Daten inklusive der Korrekturdaten und der Wetterdaten von den Bodenstationen werden ohne menschlichen Eingriff über den Satelliten übertragen. Dadurch ist der Aufbau eines globalen Messnetzes technisch einfach und kosteneffektiv möglich.

Die Hardware für die PRARE-Bodenstation wurde entwickelt und gebaut von Dornier GmbH, heute Airbus Defence and Space, Immenstaad, für das Software-Design war das Deutsche Geodätische Forschungsinstitut (DGFI), München und später das Geoforschungszentrum (GFZ), Potsdam verantwortlich.

Precision Farming (PF) und Fernerkundung

Precision Farming ist die engl. Bezeichnung für Teilschlagbezogene Landwirtschaft, ein innovatives informationsgeleitetes Managementkonzept der Landbewirtschaftung, das auf modernster Sensorik und Geoinformationen und damit auch dem Einsatz von Fernerkundungsdaten basiert.

Dabei werden die Landbewirtschaftungsmaßnahmen an die Variabilität der Standort- und Bestandsparameter angepasst mit den ökonomischen Zielen der Einsparung von Betriebsmitteln, der Erhöhung der Ertragssicherheit und -qualität und der ökologischen Zielsetzung einer nachhaltigen, integrativen und umweltschonenden Landwirtschaft. Alternative Bezeichnungen sind im deutschen und internationalen Umfeld u.a Teilschlagbewirtschaftung, Computer-Aided Farming (CAF), Lokales Ressourcenmanagement.

Teilbereiche des Präzisen Ackerbaus (Precision Farming)

 

Quellen:
TAB
Srinivasan (2006)
Hilfsmittel zur Umsetzung von Precision Agriculture

prec_farm_elemente

Die Begriffe Precision Farming und Precision Agriculture (PA) werden vielfach synonym gebraucht, wobei im amerikanischen Sprachraum eher von PA im europäischen eher von PF gesprochen wird. Bei einer möglichen Differenzierung wäre PF für Maßnahmen im Pflanzenbau zu verwenden, PA könnte als übergeordnete Einheit gesehen werden, die neben dem Pflanzenbau auch die Bereiche Precision Livestock Farming (Tierhaltung), Precision Viticulture (Weinbau) usw. (z.B. Gartenbau, Forst) umfasst.

Derartige Konzepte sind seit Anfang der neunziger Jahre mit der Verfügbarkeit von Positionierungssystemen wie dem GPS und raumbezogenen Erfassungs- und Auswertesystemen wie GIS realisierbar. Sie spielen sich dann eher im mittleren bis großen Maßstabsbereich ab.

Betreiber kleiner und großer landwirtschaftlicher Betriebe, Kooperativen, Konzerne, die in Ländereien investieren, sowie Logistik- und Lieferkettenunternehmen benötigen homogene Instrumente und Programme zur Verwaltung des Pflanzenanbaus - sei es für ihre eigenen Feldern oder für entfernte Ländereien.

Fernerkundungsmethoden bieten die Möglichkeit, die Heterogenität mit zunehmend geringerem Aufwand flächenhaft abzubilden. Eine wesentliche Rolle spielen dabei schlaginterne Heterogenitäten in der spektralen Reflexion der Vegetation, die mit Hilfe der optischen Fernerkundungssensoren gemessen werden können. Ebenso können durch die kurzen Wiederholungsraten die Veränderungen der Landschaftsbedeckung erfasst werden. Über die Analyse der Veränderungen der Landbedeckung besteht die Möglichkeit, negative Tendenzen der Entwicklung, z.B. durch eine Pilzinfektion hervorgerufen, frühzeitig zu erkennen und in den Bewirtschaftungsprozess einfließen zu lassen.

Aufgaben der Fernerkundung innerhalb der teilflächenspezifischen Bewirtschaftung:

Gegenwärtig wird bereits intensiv modernste, z.T. berührungslose Sensorik an Bord landtechnischer Fahrzeuge so z.B. Bildsensoren (CCD-Sensor) zur Unkrauterkennung, Steuerungssensoren für Dünge- und Pflanzenschutzapplikation, Korndurchsatzmeßsensoren beim Mähdrusch usw. genutzt, die eine standortspezifische Düngezufuhr bzw. Ernteertragserhebung z.T. in Echtzeit ermöglichen. Die Kopplung mit Real-time-Kinematic-Differenzial-GPS-Empfängern (RTK-DGPS) erlaubt die exakte geodätische Positionierung des landwirtschaftlichen Sensors auf der Teilfläche. Genauigkeitsvorstellungen liegen üblicherweise im 1 m bis 5 m-Bereich.

Insgesamt finden sowohl klassische Fernerkundungssensoren auf Satelliten, Flugzeugen, Hubschraubern, als auch innovative Fernerkundungssensoren auf terrestrischen Plattformen Anwendung, z.B. auf Traktoren. Neue Entwicklungen betreffen UAVs als kostengünstige Sensorträger. Die Grenzen zwischen 'Fern'erkundung und 'Nah'erkundung mit z.T. nur wenigen Zentimetern Distanz sind dabei ließend und nur von akademischem Interesse. Gemeinsam ist aber diesen Verfahren die Berührungslosigkeit zwischen Sensor und Bestand bzw. Boden.

Anwendungsfelder des Precision Farming sind die Ertragskartierung, Pflanzenschutz- und Düngemittelapplikationen, Bodenprobenahme, Dokumentation für Agrarsubvention und die Entscheidungsunterstützung für durchzuführende Bewirtschaftungsmaßnahmen auch und gerade unter Berücksichtigung ökologischer Faktoren. Gerade für größere landwirtschaftliche Betriebe mit hoher Heterogenität in den Schlägen sowie bei Lohnunternehmen und Maschinenringen lohnt sich die Anwendung des Precision Farming. Einsparungspotenziale ergeben sich für den Betrieb durch geringere Dünge- und Pflanzenschutzmengen, aber auch in Form von Treibstoffeinsparungen durch GPS-gestützte Kontrolle der Maschinenlogistik. Der Übergang zur kompletten teilflächenspezifischen Bewirtschaftung dauert nach Experten jedoch noch einige Jahre, da das Zusammenspiel der technischen Individuallösungen mit der Betriebssoftware noch nicht zufriedenstellend gelöst ist.

Innerhalb des "Precision Farming" werden Fernerkundungsdaten zur Erfassung unterschiedlicher schlaginterner Variabilität eingesetzt.

Sechs Gruppen der Variabilität innerhalb landwirtschaftlicher Flächen:

Ein erfolgreicher Einsatz von Fernerkundungsdaten im "Precision Farming" hängt auch von der Wahl des richtigen Aufnahmezeitpunktes ab. In der folgenden Tabelle sind exemplarisch für einige spezifische Heterogenitäten die zugehörigen Zeitfenster dargestellt.

prec_farm_zeit_tabelle

Zeiträume und Anwendungsmöglichkeiten der Fernerkundung zur Erfassung teilschlagspezifischer Information

Quelle: Voß (2005)

Weitere Informationen:

Predator (General Atomics MQ-1)

Bezeichnung für ein ferngesteuertes unbemanntes Luftfahrzeug (UAV), das seit 1995 von der US-Luftwaffe als Aufklärungs- und Kampfdrohne eingesetzt wird. Ihre ursprüngliche Bezeichnung lautete RQ-1 Predator.

Sie ist inzwischen der wichtigste Bestandteil der taktischen Luftraumaufklärung der US-Streitkräfte. Die Predator kann ein Gebiet rund 24 Stunden lang mit Fernsehkameras für Tageslicht sowie Wärmebildkameras für Schlechtwetter- und Nachtsicht und einem Synthetic Aperture Radar aufklären. Dabei erfolgt die Steuerung über eine Bodenstation, die mittels 6,25 m Ku-Band-Satellitenverbindung und C-Band-Funk mit der Drohne in Verbindung steht. Die Standardmannschaft für einen 24-stündigen Einsatz des Systems umfasst 55 Personen, wobei für den eigentlichen Einsatz nur jeweils ein Pilot und zwei Sensoroperatoren benötigt werden.

PRIRODA

Fernerkundungsmodul an der inzwischen verglühten Raumstation MIR. Bei der PRIRODA-Mission wurde das gesamte verfügbare Strahlungsspektrum vom nahen Ultraviolett über das sichtbare Licht, Infrarot bis zum Mikrowellenbereich aufgenommen. Möglich wurde das durch eine Vielzahl der zum Einsatz kommenden Sensoren und Instrumente. An der Datennutzung sind auch deutsche Einrichtungen beteiligt.

Einige ihrer wissenschaftlichen Zielsetzungen:

PRISMA

Ital. Akronym für PRecursore IperSpettrale della Missione Applicativa; Erdbeobachtungssatellit der italienischen Raumfahrtbehörde ASI. Der Satellit wurde im März 2019 mit einer Vega-Trägerrakete vom Raumfahrtzentrum Kourou in eine polare, sonnensynchrone Umlaufbahn gebracht.

Bei PRISMA handelt es sich um den Technologiedemonstrator einer neuen Generation von Erdbeobachtungssatelliten. Der dreiachsenstabilisierte Satellit trägt eine neuartige elektro-optische Nutzlast. Sie besteht aus einer Hyperspektralkamera mit 210 mm Öffnung und 620 mm Brennweite und einer damit verbundenen panchromatischen Kamera ausgerüstet. Die Vorteile dieser Kombination liegen darin, dass zu der klassischen Beobachtungsmöglichkeit, die auf der Erkennung der geometrischen Merkmale der Szene beruht, diejenige der Hyperspektralsensoren hinzukommt, die die chemisch-physikalische Zusammensetzung der in der Szene vorhandenen Objekte bestimmen können. Dies bietet der wissenschaftlichen Gemeinschaft und den Anwendern zahlreiche Einsatzmöglichkeiten im Bereich der Umweltüberwachung, des Ressourcenmanagements, der Klassifizierung von Nutzpflanzen, des Umweltschutzes usw. Weitere Anwendungen sind sogar im Bereich der nationalen Sicherheit möglich.

Das Observationskonzept von PRISMA beruht auf dem Prinzip der Zeilenkamera (Pushbroom oder Along Track Scanning). Dabei tastet der Satellit das Gelände rechtwinklig zur Flugrichtung zeilenweise ab. Der Hyperspektralsensor der von PRISMA getragenen Nutzlast verfügt über 239 Aufnahmebänder mit einer spektralen Auflösung von unter 12 Nanometern im Bereich zwischen 400 und 2500 Nanometern (sichtbares Licht bis kurzwelliges Infrarot). Die räumliche Auflösung liegt bei 30 Metern mit einer Aufnahmebreite von 30 Kilometern. Bei den gleichzeitig erfassten panchromatischen Daten liegt die räumliche Auflösung bei 5 Metern.

Der Satellit wurde von der OHB Italia, dem italienischen Ableger der deutschen OHB System AG konstruiert und gebaut. Er besitzt eine geplante Lebensdauer von 5 Jahren.

Weitere Informationen:

Proba-1

Engl. Akronym für Project for On-Board Autonomy; 2001 gestarteter, experimenteller Technologiesatellit der ESA zur Erderkundung. Im Vordergrund steht die erhöhte Leistungsfähigkeit des waschmaschinengroßen Kleinsatelliten durch bordautonome Systeme sowie die Reduktion der Betriebsaufgaben im irdischen Kontrollzentrum. Proba-1 wiegt 94 kg und hat die Form eines Quaders mit 60, 60 und 80 cm Seitenlänge.

Der Satellit hält seinen Kurs mit Hilfe von GPS. Da er sich jedoch im Verhältnis zu den GPS-Satelliten mit hoher Geschwindigkeit bewegt, ist Proba zusätzlich mit dem Advanced Stellar Compass (ASC) ausgerüstet, der die genaue Position des Satelliten anhand von Sternenkarten berechnet.

Hauptinstrument ist ein hochauflösendes bilderzeugendes Spektrometer aus Großbritannien namens CHRIS (Compact High Resolution Imaging Spectrometer). CHRIS liefert Bilder mit einer Auflösung von bis zu 18 m pro Bildpunkt. Parallel zu den Spektrometerdaten liefern zwei im sichtbaren Bereich operierende Kamerasysteme aus Belgien benutzerfreundliche Aufnahmen der Erdoberfläche, die Wide Angle Camera (WAC) und die High Resolution Camera (HRC). Letztere mit einer Bodenauflösung von 10 m. Zur wissenschaftlichen Nutzlast gehören SREM und DEBIE, zwei Detektoren zur Messung der kosmischen Strahlung (Standard Radiation Environment Monitor) sowie zur Erfassung von Weltraum-Müll und Staubpartikeln (Debris In-Orbit Evaluator). Hinzu kommen diverse Untersysteme, wie beispielsweise ein neuentwickelter Sternensensor, ein GPS-Empfänger und vier Antennen.

Obwohl nur für eine Missionszeit von zwei Jahren gebaut, ist Proba-1 im Februar 2023 noch immer in Betrieb und wurde damit zur längsten ESA-Erdbeobachtungsmission.

Proba-1 im All

Proba

Quelle: ESA

Didaktische Hinweise von Robert Roseeu

Ätna-Ausbruch (30.10.2002) Ätna-Krater (30.10. 2002)

Aufnahme mit dem CHRIS-Spektrometer auf Proba

Quelle: ESA

Weitere Informationen:

Proba-2

Engl. Akronym für Project for On-Board Autonomy; zweiter Kleinsatellit der ESA, der entsprechend dem Konzept von Proba ( Projekt für Bordautonomie) autonom und kostengünstig operiert. Der Start des 130 kg schweren und 0,6 × 0,6 × 0,8 Meter großen boxförmigen Satelliten auf eine sonnensynchrone Umlaufbahn in 700 km Höhe erfolgte am 2. November 2009 zusammen mit dem SMOS-Satelliten an Bord einer Rockot-Rakete vom russischen Weltraumbahnhof Plessezk aus.

Proba-2 testet neue Lithium-Ionen-Batterien, eine verbesserte Datenerfassung und -verarbeitung, leichte Strukturelemente auf Basis von Aluminium und CFK, eine verbesserte Lageregelung durch neue Reaktionsräder in Verbindung mit GPS-Empfängern und Sternsensoren die auch bei der BepiColombo eingesetzt werden sollen, und mit Xenon und Stickstoff betriebene Resistojets für die Bahnregelung. Laserreflektoren ermöglichen die genaue Positionsbestimmung von der Erde aus.

Ferner untersucht Proba-2 mit je zwei Experimenten die Sonnenstrahlung und das vom Sonnenwind erzeugte Plasma in der Magnetosphäre der Erde (Weltraumwetter).
Insgesamt waren zehn europäische Länder und Kanada am Bau von Proba-2 beteiligt.

Proba-2 ist 2023 noch immer aktiv.

Weitere Informationen:

Proba-3

Engl. Akronym für Project for On-Board Autonomy; dritte, dieses Mal aus zwei Satelliten bestehende Kleinsatellitenmission der ESA, die entsprechend dem Konzept von Proba ( Projekt für Bordautonomie) autonom und kostengünstig operiert, und die sowohl wissenschaftliche Aufgaben hat, als auch zu Test- und Demonstrationszwecken neuer Technologien, z.B. Tandemflug, dient. Dementsprechend ist Proba-3 die erste ESA-Mission mit engem Formationsflug der zwei Satelliten (Abstanztoleranz von 1 mm). Dabei wird ein Satellit die Sonne für den nachfolgenden Satelliten verdecken, um diesem zu ermöglichen, die ansonsten nicht sichtbare Korona zu beobachten. Der Start ist für September 2024 vorgesehen.

Der Tandemflug der Proba-3-Satelliten hat einen stark elliptischen Orbit mit einem Apogäum von 60.524 km und einem Perigäum von 800 km. Die Beobachtung der Sonne nach dem Prinzip eines Koronographen basiert hier auf der Schaffung einer künstlichen Sonnenfinsternis zwischen den beiden Satelliten.

Die Experimente zum Formationsflug haben eine aktive Komponente auf dem Weg zum Apogäum, passiver Formationsflug findet in größerer Erdnähe statt. Diese Technologie erlaubt es möglicherweise, eines Tages Weltraumteleskope zu bauen, die Satelliten im Formationsflug als 'starre Struktur' verwenden, was mit einem einzelnen Raumflugkörper nicht realisierbar wäre.

Proba-3 im Formationsflug PROBA-3 Quelle: ESA

Weitere Informationen:

Proba-V

Engl. Akronym für Project for On-Board Autonomy Vegetation; vierte Kleinsatellitenmission der ESA, die abweichend vom bisherigen Konzept von Proba sowohl operationelle Aufgaben hat, als auch zu Experimentalzwecken dient, und damit die Bedürfnisse einer bestehenden Nutzergemeinde erfüllt. Das 'V' steht für 'Vegetation': Proba-V trägt eine zehnfach verkleinerte, aber leistungsfähigere Version des abbildenden Instruments Vegetation, das gegenwärtig an Bord der Spot-Satelliten seinen Dienst tut, und einen täglichen Überblick über das globale Vegetationswachstum liefert. Ziel der Mission ist, die Datenkontinuität auch nach dem Ende der SPOT-Missionen zu gewährleisten.

Zu den Aufgaben des Satelliten gehören Monitoring der Landnutzung, Vegetationsklassifizierung, Nutzpflanzenmonitoring, Hungervorhersagen, Nahrungsmittelsicherheit, Katastrophenmonitoring und Studien zur Biosphäre.

Künstlerische Darstellung von Proba-V im All Künstlerische Darstellung von Proba-V Quelle: ESA
Das Nil-Delta in Ägypten

Aufgenommen von Proba-V am 24. März 2014

The Nile Delta in Egypt, acquired by Proba-V on 24 March 2014

Siehe auch: Catching the World in a Box

Quelle ESA

Der Start von PROBA‑V erfolgte am 7. Mai 2013 mit einer VEGA-Rakete von Französisch-Guayana aus. Er fliegt auf derselben Umlaufbahn wie Spot‑5, um den alternden Satelliten bei dessen Außerbetriebnahme 2014 ablösen zu können. Bei „Vegetation“ handelt es sich um ein hochmodernes optisches Abbildungsgerät, das Bilder mit einer Auflösung von 350 m in vier Bereichen für sichtbares Licht und Infrarot erzeugen und mit einer Abtastbreite von 2250 km die tägliche Erfassung aller Gebiete zwischen 35° und 75° nördlicher Breite und zwischen 35° und 56° südlicher Breite ermöglicht. Diese Daten werden anschließend verarbeitet und einem großen Kreis internationaler Nutzer zugänglich gemacht, unter anderem der Europäischen Kommission.

Zusätzlich zu seiner Hauptnutzlast führt PROBA‑V auch eine Reihe von Technologienutzlasten mit, darunter ein Empfänger zur weltweiten Erfassung von Flugzeugen in der Luft, ein Kommunikationsverstärker auf der Grundlage der neuesten Galliumnitridtechnologie, zwei neuartige Strahlungsüberwachungsgeräte und ein Photonikexperiment zur Erprobung von Faseroptik im Weltraum.

Da der Copernicus-Satellit Sentinel-3 im Laufe des Jahres 2020 die Vegetationsbeobachtung übernimmt, steht Proba-V zur Verfügung, experimentelle Beobachtungen über Europa und Afrika durchzuführen - einschließlich gemeinsamer Beobachtungen mit neuen Begleitmissionen.

PROBA-V Infografik Proba-V Infografik

Die Mission PROBA-V beendete ihre Betriebsphase am 30. Juni 2020. Es wurde beschlossen, den Betrieb zu beenden, weil sich der Zenitwinkel der Sonne vergrößerte und sich dadurch die Äquatorüberquerungszeit aufgrund der Orbitaldrift des Satelliten änderte.

Da sich der Satellit noch in einem guten Zustand befand, beschloss die ESA allerdings, die Mission in einer experimentellen Phase fortzusetzen, anstatt sie ganz zu beenden.

Quelle: ESA

Die Testbeobachtungen über der afrikanischen Sahelzone sollen vor allem bei Dürrefrühwarnungen helfen. Der Satellit kann in dieser Phase nicht so viele Daten erfassen, aber die ESA hat die Gelegenheit genutzt, um andere Aktivitäten mit PROBA-V durchzuführen. Der Satellit führt täglich Mondmessungen und Giermanöver durch, um die Superauflösung zu testen. Dabei handelt es sich um eine Methode zur Verbesserung der Bildgenauigkeit durch die Kombination von Bildern mit geringerer Auflösung, die der Satellit über demselben Ort aufnimmt.

Die Testbeobachtungen über der afrikanischen Sahelzone sollen vor allem bei Dürrefrühwarnungen helfen. Der Satellit kann in dieser Phase nicht so viele Daten erfassen, aber die ESA hat die Gelegenheit genutzt, um andere Aktivitäten mit PROBA-V durchzuführen. Der Satellit führt täglich Mondmessungen und Giermanöver durch, um die Superauflösung zu testen. Dabei handelt es sich um eine Methode zur Verbesserung der Bildgenauigkeit durch die Kombination von Bildern mit geringerer Auflösung, die der Satellit über demselben Ort aufnimmt.

Dies bietet eine Möglichkeit, weiterhin Bilder für diese Vegetationsüberwachungsmission zu erfassen, wenn auch in begrenzterem Umfang und ohne die Anforderungen, die ein normaler Betrieb erfordern würde. Diese Akquisitionen werden die mehr als 1.800 Forschungsteams unterstützen, die die PROBA-V-Daten nutzen. Die 100-Meter-Bilder von PROBA-V dienen auch als Zwischenstation zwischen den Erfassungen von Copernicus Sentinel-2 und 3 und werden routinemäßig zum Abgleich mit anderen Produkten wie dem Copernicus Global Land Service verwendet.

Proba-V ist im Januar 2024 noch in Betrieb.

Weitere Informationen:

Produkte der Bildinterpretation

Engl. products of image interpretation, franz. résultats de l'interprétation d'images; nach DIN 18716 "interaktiv oder automatisiert ausgeführte Analysen und Klassifizierungen von Bildinhalten", verbunden mit zwei Anmerkungen zum Begriff:

  1. "Die Ergebnisse können in thematischen Karten, Plänen und GIS-Datenbeständen dargestellt und durch anwendungsspezifischen Text erläutert und ergänzt werden (z. B. über Umweltverträglichkeit geplanter Baumaßnahmen)."
  2. "Photogrammetrische Auswertungen setzen meist Bildinterpretation voraus, so dass die Ergebnisse dann auch in den Produkten der Bildtransformation und Bildmessung enthalten sind."

Produkte der Bildmessung

Engl. products of geometric evaluation, franz. produits de la restitution géométriques; nach DIN 18716 "numerische und/oder graphische Geodaten".

Projektionszentrum

Engl. projection centre; nach DIN 18716 "Punkt der Zentralperspektive, durch den alle geradlinigen Bildstrahlen verlaufen", versehen mit der Anmerkung: "Bei einem realen optischen System existiert sowohl ein objekt- als auch bildseitiges Projektionszentrum, das jeweils durch den Schnittpunkt von Eintritts- bzw. Austrittspupille mit der optischen Achse definiert ist".

Punktbildverschmierungsfunktion (PSF)

Engl. point spread function, franz. fonction d'étalement des points; nach DIN 18716 die "Reaktion eines (optischen) abbildenden Systems auf ein punktförmiges Objekt".

punktweise Operation

Engl. punctual operations, franz. opérations ponctuelles; nach DIN 18716 eine " pixelbezogene Bildverarbeitungsoperation".

Punktwolke

Syn. Punkthaufen oder Cluster, eine Punktmenge (eine Menge diskreter Werte), die vollständig – oder überwiegend – in einer definierten Umgebung liegt.

Punktwolken sind das Ergebnis von Laserscanning-Messungen (LiDAR), bei denen die Oberflächengeometrie des Geländes oder jene von Gegenständen mittels Laserstrahlen digital erfasst wird. Dabei entsteht eine diskrete Menge von dreidimensionalen Abtastpunkten, die aufgrund ihrer üblicherweise großen Anzahl als Punktwolke bezeichnet wird. Die Koordinaten der gemessenen Punkte werden dabei aus den Winkeln und der Entfernung in Bezug zum Ursprung (Gerätestandort) ermittelt.

Ein LiDAR ist ein Abtastwerkzeug, das über 160.000 Impulse pro Sekunde sendet. Jeder 1-Meter-Pixel enthält etwa 15 Lichtimpulse. Jeder Punkt speichert Informationen (Komponenten) mit mehreren Attributen, die jeden Punkt beschreiben. Auf der einfachsten Ebene umfassen die Attribute X-, Y- und Z-Koordinaten. Jeder Punkt wird mit GPS-Zeitstempeln und Trägheitsmaßeinheiten überprüft.

Punktwolken können aber auch Attributinformationen über die Intensität, die Farbe und die Zeit speichern. Wenn ein LiDAR-System den Boden abtastet, ist der gesamte Punktesatz im Hinblick darauf, was sie auf der Oberfläche getroffen haben, nicht klassifiziert.

Automatisierte Routinen helfen bei der Klassifizierung von Punktwolken. Die Klassen können zum Beispiel Boden, Vegetation (niedrig, mittel und hoch), Gebäude, Wasser usw. umfassen. Manchmal kann die Klassifizierung von Punkten in mehr als eine Kategorie fallen.

Pushbroom Scanner

Syn. Along-Track-Scanner; Bildaufnahmesystem nach dem "Kehrbesen-Prinzip", welches ein Bild aus mehreren simultan aufgenommenen Zeilensensoren (linear arrays) zusammensetzt.

Bei diesem Scannertyp tasten eine oder mehrere Sensorzeilen, die aus zahlreichen Einzeldetektoren bestehen, gleichzeitig einen Geländestreifen quer zur Flugrichtung ab. Als Sensoren werden meist sog. CCDs (charge coupled devices) verwendet. In kurzen Zeitabständen werden die elektrischen Signale sämtlicher Detektoren ausgelesen und gespeichert respektive an eine Empfangsstation übertragen. Die Auslenkung der Aufnahmerichtung quer zur Bewegungsrichtung der (Satelliten-)Plattform mittels eines neigbaren Spiegels bietet die Möglichkeit, stereoskopische Datengewinnung im Across Track-Modus zu gewährleisten (z. B. SPOT). Das schubweise Aufzeichnen ganzer Zeilen gestattet auch die Adaption von nach vorwärts oder rückwärts geneigten optischen Systemen, die stereoskopische Datengewinnung im along-track-Modus ermöglichen (z. B. MOMS).

Die erste Nutzung dieses Grundprinzips fand mit dem HRV-Sensor an Bord des SPOT-Satelliten 1986 statt.

pushbroom_2 Pushbroom Scanner

Er erfasst die Pixel einer gesamten Zeile gleichzeitig wie ein Kehrbesen und erstellt durch Aneinanderfügen der einzelnen Zeilen eine flächenhafte Szene.

Quelle: IGF