Bezeichnung für die Deutsche Gruppe zur Erdbeobachtung (D-GEO), die das Bundesministerium für Digitales und Verkehr (BMDV) zur Umsetzung des GEOSS in Deutschland als nationale Koordinationsstruktur eingerichtet hat. Unter der Federführung des BMDV beteiligen sich eine Reihe von Bundesbehörden und Forschungsorganisationen an den Arbeiten der D-GEO. Es erfolgt eine enge Zusammenarbeit mit dem Deutschen Wetterdienst, denn Meteorologie und Klimaüberwachung zählen zu den zentralen modernen Bestandteilen des GEOSS.
Ein zentrales Element zum Aufbau des GEOSS ist die Verbesserung der Interoperabilität von Beobachtungssystemen durch Entwicklung internationaler Datenstandards, Vereinbarung von Datenpolitiken und Bereitstellung einer Geodateninfrastruktur zum einfachen und umfassenden Datenzugang. Auf nationaler Ebene werden diese Themen im Rahmen des Aufbaus der Geodateninfrastruktur Deutschland (GDI-DE®) verfolgt. Eine enge Koordinierung von GDI-DE und nationalen GEOSS-Aktivitäten ist daher wichtig. Diese Zusammenarbeit erfolgt im Interministeriellen Ausschuss für das Geoinformationswesen (IMAGI), in dem auch die Harmonisierung mit den INSPIRE-Aktivitäten im Rahmen der EU erfolgt.
Ein nationales GEO Sekretariat ist beim DLR im Auftrag des BMDV eingerichtet. Hauptaufgaben sind die Koordination und administrative Unterstützung der deutschen GEO Delegation für die GEO Gremien und die europäischen Konsultationen in der EU GEO High Level Working Group (HLWG). Außerdem zählen die Bündelung und Verteilung relevanter Informationen, die Kommunikation mit dem GEO Sekretariat in Genf und die allgemeine Kontaktstelle für deutsche Interessenten und Beteiligte zu den Aufgaben. Weiterhin führt das D-GEO Sekretariat regelmäßige Treffen der D-GEO Arbeitsgruppe durch, veranstaltet Worksshops zu verschiedenen Themen und hält Kontakt zu den relevanten Datenzentren, Forschungseinrichtungen und Projektträgern in Deutschland.
Engl. Akronym für Distributed Active Archive Center, analog PO.DAAC für Physical Oceanography DAAC. Als Komponenten des EOS Data and Information System (EOSDIS), sind DAACs Institutionen, die EOS Standardprodukte herstellen und die Veranwortlichkeit der NASA für die Archivierung, den Vertrieb und die Verwaltung von Daten umsetzen.
Engl. Akronym für die Direct Access Facility (auch constellation Direct Access Facility, cDAF), eine Anlage zum Empfang hochauflösender Satellitenbildaten der Satelliten WorldView-1 und WorldView-2. Die Empfangsanlage steht beim DFD in Oberpfaffenhofen. Sie ermöglicht es Satellitenbildnutzern in Europa über eine direkte Datenverbindung zeitnah aktuelle Aufnahmen von WorldView-1- und WorldView-2-Satellitenbildern zu bestellen.
Die DAF ist eine Kooperation zwischen dem DLR und der European Space Imaging (EUSI), dem führenden Betreiber von hochauflösenden Satelliten in Europa und Nord-Afrika. Die Empfangsanlage ist Teil der sogenannten World View Global Alliance, einer kommerziellen Partnerschaft zwischen den Unternehmen EUSI, Space Imaging Middle East und DigitalGlobe.
Engl. Akronym für Developing Arctic Modelling and Observing Capabilities for Long-term Environmental Studies; EU-Projekt zum Aufbau eines integrierten Monitoring- und Vorhersage-Systems der Bereiche Eis, Atmosphäre und Ozean mit dem Ziel Klimaveränderungen in der Arktis zu beobachten, verstehen und zu quantifizieren.
Zugangsdienst für Copernicus-Informationen und -Daten. Um den Zugang zu Daten zu erleichtern und zu standardisieren, hat die Europäische Kommission den Einsatz von fünf Cloud-basierten Plattformen finanziert, die einen zentralen Zugang zu Copernicus-Daten und -Informationen sowie zu Verarbeitungswerkzeugen ermöglichen. Diese Plattformen werden als DIAS (Data and Information Access Services) bezeichnet.
Die fünf DIAS-Online-Plattformen ermöglichen es den Nutzern, Copernicus-Daten und -Informationen aufzufinden, zu handhaben, zu verarbeiten und herunterzuladen. Alle DIAS-Plattformen bieten Zugang zu den Daten von Copernicus Sentinel sowie zu den Informationsprodukten aus den sechs Betriebsdiensten von Copernicus sowie zu Cloud-basierten Tools (Open Source bzw. Pay-per-Use).
Jede der fünf konkurrierenden Plattformen bietet auch Zugang zu zusätzlichen kommerziellen Satelliten- oder Nicht-Weltraum-Datensätzen sowie Premium-Angeboten in Bezug auf Support oder Priorität. Dank eines einzigen Zugangspunktes für die gesamten Copernicus-Daten und -Informationen ermöglicht DIAS den Benutzern die Entwicklung und das Hosting ihrer eigenen Anwendungen in der Cloud, ohne dass voluminöse Dateien von mehreren Zugangspunkten heruntergeladen und lokal verarbeitet werden müssen.
Die Earthdata-Plattform Data Pathfinders der NASA bietet direkte Links zu häufig genutzten Datensätzen aus den geowissenschaftlichen Datensammlungen der NASA. Die Earthdata-Suche bietet direkten Zugang zu Datensätzen, unabhängig davon, wo sie archiviert sind, und ermöglicht den Zugriff auf alle Daten in Forschungsqualität für einen bestimmten Messtyp. Diese Pathfinder ergänzen die Suchfunktion, indem sie Datensätze über häufig verwendete Tools zur Verfügung stellen. Diese Tools bieten verschiedene Möglichkeiten zur Visualisierung der Daten, Optionen zur Unterteilung der Daten und Optionen zum Speichern der Daten in verschiedenen Dateiformaten.
Data Pathfinder soll seine Nutzer nicht zu Datenexperten machen. Sie sollen vielmehr die Nutzer mit den verschiedenen anwendbaren Datensätzen vertraut machen, z. B. mit Erläuterungen zu Fragen der verschiedenen Arten von Auflösungen (spektral, räumlich und zeitlich), und sie sollen direkte Links zu den Datenquellen bereitstellen. Nach den ersten Schritten gibt es zahlreiche NASA-Ressourcen, die helfen können, Fähigkeiten weiterzuentwickeln. Neueinsteigern in die Fernerkundung wird die Webseite "What is Remote Sensing?" empfohlen oder die Bearbeitung der Schulung Fundamentals of Remote Sensing.
Die Plattform enthält z. Z. (2022) folgende Themenschwerpunkte:
Allgemeiner Ausdruck zur Bezeichnung von Tatsachen, Zahlen, Buchstaben und Zeichen, die zu einem Objekt, einer Idee, einem Zustand, einer Situation oder anderen Faktoren gehören oder diese beschreiben. Er beinhaltet grundlegende Elemente von Informationen, die von einem Computer weiterverarbeitet, gespeichert und ausgegeben werden können. Ein erweitertes Verständnis von Zeichen schließt Bilder, Texte, Graphiken, Symbole usw. ein.
Eine Sammlung von Fakten, Begriffen oder Anweisungen in einer formalisierten Form, in der sie zur Kommunikation oder zur Weiterverarbeitung durch Menschen oder Computer geeignet sind. In GIS-Anwendungen sind sie oft Beobachtungen oder Messungen der natürlichen oder menschlichen Umwelt. Daten können in Dateien oder in Datenbanken (DBMS) verwaltet werden.
Durch Zeichen codierte Informationen, die als numerische oder alphanumerische Angaben zu Sachverhalten und Gegebenheiten gebildet werden.
Durch Zeichen oder kontinuierliche Funktionen aufgrund bekannter oder unterstellter Abmachungen zum Zwecke der Verarbeitung dargestellte Informationen (nach DIN).
Signale eines Sensors oder mehrerer Sensoren eines Orbital- oder Transportsystems und alle daraus abgeleiteten Produkte, unabhängig vom Grad ihrer Verarbeitung und der Art ihrer Speicherung oder Darstellung; Datum im Sinne des § 27 ist jede Einzelangabe. (Begriffsbestimmung nach dem Satellitendatensicherheitsgesetz - SatDSiG)
Die Synthese aus gemessenen Daten und Modellen. Ziel ist dabei, die Messungen besser zu verstehen, sie in einen größeren Zusammenhang zu stellen und so optimal auszunutzen. Es geht darum, Modelle näher an die Wirklichkeit zu führen und so die Prozesse z.B. im Ozean besser zu verstehen und gegebenenfalls auch vorherzusagen.
Die Datenbibliothek mit ihrem Archivierungs- und Katalogsystem gilt als zentraler Kern eines Nutzlast-Bodensegments. In ihm werden alle empfangenen Rohdaten und abgeleiteten höherwertigen Datenprodukte zur Langzeiterhaltung abgelegt, verwaltet und ein komfortabler Zugang zur Kataloginformation sowie zu den Datensätzen eingerichtet. Die Kataloginformation, welche jedes einzelne Produkt beschreibt, wird in Datenbanken verwaltet und ermöglicht so eine effektive Suche, verbunden mit einem schnellen Zugriff auf Millionen von Einzelinformationen. Die Bildinformation hingegen wird in automatisierten Archiven, bestehend aus Festplattensystemen für den Nahe-Echtzeit-Zugriff, verbunden mit robotgesteuerten Hintergrund-Magnetbandarchiven, gespeichert. Durch diese abgestufte Vorgehensweise wird erreicht, dass im Nahe-Echtzeit-Zugriff keine Verzögerungen durch den Zugriff auf die Magnetbänder entstehen.
Zum Beispiel stehen aus nationalen und internationalen Erdbeobachtungsmissionen, die das DLR seit den 1990er Jahren unterstützt hat, weltraumgestützte und flugzeuggetragene Radardaten, optische Satellitenbilddaten, und Atmosphärendaten im Deutschen Satellitendatenarchiv des EOC für die Nutzer bereit. Die Daten werden ergänzt durch eine große Anzahl fernerkundungsbasierter, höherwertiger Produkte aus wissenschaftlichen Projekten. Die Produktpalette schließt unter Anderem digitale Höhenmodelle der SRTM- und TanDEM-X-Missionen ein, aber auch aktuelle Radarbilddaten der TerraSAR-X-Mission, tagesaktuelle Ionosphärendaten, Ozonkarten und Feinstaubvorhersagen.
Auf Daten und Produkte des EOC lässt sich über die im EOC betriebenen Datenportale zugreifen. Neben EOWEB-NG, dem zentralen Portal des EOC zur Suche und Bestellung von Erdbeobachtungsdaten, stehen in zusätzlichen Portalen nutzergruppenspezifische Produkte bereit. Der EOC-Geoservice bietet OGC-konforme, nutzerfreundliche Katalog-, Darstellungs- und Downloaddienste. Der Großteil der EOC-Datenportale ist auf die Bedürfnisse wissenschaftlicher Nutzer ausgerichtet. Einige jedoch, wie z.B. die täglichen Wetterbilder, Temperatur- und Ozonkarten, wenden sich an eine interessierte Öffentlichkeit.
Als Forschungseinrichtung unterstützt das EOC mit seinen Erdbeobachtungsdaten und -produkten primär wissenschaftliche Nutzer. Die Daten stehen jedoch auch Nutzern aus öffentlichem Dienst und Industrie zur Verfügung, sofern die Datenpolitik eine derartige Nutzung nicht einschränkt.
Die Vielzahl der Erdbeobachtungsdaten und -produkte des EOC unterliegen keiner einheitlichen Datenpolitik. Missionen und Projekte definieren die Nutzungsbedingungen für die aus ihnen erstellten Daten und Produkte - im Hinblick auf eine möglichst uneingeschränkte Datennutzung. Deutsche hochauflösende Erdbeobachtungsdaten, wie die der nationalen Missionen Terra-SAR-X und TanDEM-X, unterliegen dem deutschen Satellitendatensicherheitsgesetz (SatDSiG), das die Nutzung regelt. Bei Missionen, die gemeinsam mit Partnerorganisationen durchgeführt werden berücksichtigt die Datenpolitik die Interessen aller Vertragspartner. So können z.B. über das EOC TerraSAR-X und TanDEM-X-Daten und -Produkte nur von wissenschaftlichen Nutzern bezogen werden.
Erdbeobachtungssatelliten können den von ihren Sensoren aufgezeichneten Datenstrom nur in sehr begrenztem Umfang an Bord speichern. Sie sind vielmehr auf Bodenstationen angewiesen, an die sie die Daten direkt übertragen können. Die erzeugten Datenraten und -mengen liegen aber erheblich jenseits der im Übertragungsband (X-Band, 8,025 … 8,4 GHz) zur Verfügung stehenden Bandbreite. Die Sensordaten werden deshalb im Satelliten zwischengespeichert, komprimiert und mit reduzierter Datenrate zur Erde gesendet. Das Datenvolumen und die begrenzt zur Verfügung stehenden Kontaktzeiten sowie eine gewünschte geringe Latenzzeit zwischen Datenaufnahme und Datenübertragung zu den Bodenstationen stellen einen Engpass für die wirkungsvolle Nutzung von Erdbeobachtungsdaten dar.
Der Aufbau von Bodenstationsnetzen lag daher von Anbeginn im Interesse von Erdbeobachtungsmissionen. Heute kann man zwischen zwei grundsätzlichen Einsatzprofilen für Bodenstationen unterscheiden. Die echtzeit-orientierten Bodenstationen, auch Direct-Access-Stationen genannt, wie sie z.B. in den regionalen Betriebszentren für den IKONOS-Satelliten konzipiert sind, haben die Aufgabe, den unmittelbaren Datenzugriff in den Regionen ihrer Aufstellung sichzustellen und eine zeitoptimierte Datenverarbeitung und Anwendung zu ermöglichen. Im Gegensatz dazu haben polare Daten-Dumping-Stationen durch ihre bevorzugte Lage an beiden Polen und die sich daraus ergebenden häufigen Überflüge die Aufgabe, den Transfer global aufgenommener und gespeicherter Daten zu Datenzentren mittels terrestrischer oder satellitengestützter Kommunikationsmethoden sicherzustellen. Die Koordination von international verteilten Stationsnetzen ist deshalb für die Durchführung von Erdbeobachtungsmissionen unabdingbar.
Beispielsweise betreibt das Deutsche Fernerkundungsdatenzentrum (DFD) als nationales Empfangszentrum ein Stationsnetzwerk zur Unterstützung von nationalen und europäischen Missionen, welches durch zusätzliche Partnerstaaten den jeweiligen Missionsanforderungen angepasst wird. Das für den Datenempfang erforderliche Bodensegment umfasst neben den Antennenanlagen in Neustrelitz und Oberpfaffenhofen ein internationales Netzwerk von Empfangsstationen. Zum einen werden der Datenempfang und die Archivierung für die wissenschaftliche Nutzung durchgeführt, zum anderen im Auftrag kommerzieller Betreiber und der europäischen Weltraumorganisation ESA.
Die zentralen Antennensysteme des DFD für hochratigen Datenempfang sind in Neustrelitz installiert. Sie zeichnen u.a. die Datenströme des deutschen Radarsatelliten TerraSAR-X, früher auch der europäischen Radarsatelliten ERS und ENVISAT sowie der indischen IRS-1C/1D und -P3 Missionen auf. Daneben werden die Daten der Missionen CHAMP, BIRD und GRACE empfangen und eine Referenz-Station zur Navigation und Positionierung der Systeme GPS und GLONASS betrieben. In Oberpfaffenhofen werden u.a. Daten der meteorologischen Satelliten der NOAA- und der Meteosat-Serien sowie des Instruments MODIS der amerikanischen Satelliten TERRA und AQUA aufgezeichnet. Der abgedeckte Empfangsbereich beider Standorte erstreckt sich über ganz Europa, den Nahen Osten und das nördliche Afrika. Im Auftrag kommerzieller Partner werden zudem Daten der hochauflösenden optischen Satelliten IKONOS und WorldView-2 empfangen.
Zudem ist ein weltweites Netzwerk von festen und mobilen Bodenstationen eingerichtet worden. Dort werden eine Vielzahl optischer und Radar-Satelliten unterschiedlicher Auflösungen sowohl systematisch als auch auf Bestellung empfangen. Derzeit werden an den jeweils angegebenen Standorten die Daten folgender Satelliten aufgezeichnet:
Ein neues und bereits in einigen Fällen erprobtes Konzept sieht in Zukunft die Übertragung der Daten vom Erdbeobachtungssatelliten zu einem geostationären Kommunikationssatelliten über eine schnelle Mikrowellenverbindung (ENVISAT) oder über eine optische Verbindungsstrecke vor. Dadurch werden sowohl die Kontaktzeiten zwischen dem Erdbeobachtungssensor und dem Datenzentrum erhöht und damit größere Datenmengen mit kurzer Latenzeit zugreifbar gemacht als auch die Übertragungsstrecke gegen Störeinflüsse gesichert.
Beispiel eines solchen Konzepts ist das europäische Datenrelaissatellitensystem (EDRS). Im Rahmen von EDRS wird ein Netz aus geostationären Laserkommunikationsnutzlasten für die stete Übermittlung von Satellitendaten in der erdnahen Umlaufbahn und eine beispiellos schnelle und sichere Weitergabe der Erdbeobachtungsdaten - z.B. der Sentinel-Satelliten als ersten Nutzern - über die Weltraum-Datenautobahn „SpaceDataHighway“ ermöglichen. Es wird eine zeitnahe Verfügbarkeit von Daten sicherstellen, insbesondere für zeitkritische Anwendung etwa im Bereich der Umweltbeobachtung, Katastrophen- und Sicherheits-Missionen.
Engl. data fusion; Verfahren zur Verknüpfung von Daten verschiedenen Ursprungs und verschiedener Informationen, um gemeinsame Datensätze zu gewinnen. Ziel von Datenfusion in der Fernerkundung ist die Erzeugung eines neuen Bildes mit anwendungsspezifisch höherer Qualität. Allgemein kann die Integration von räumlich und spektral komplementären Fernerkundungsdaten die visuelle und automatische Bildauswertung fördern.
Für die Datenfusion existieren viele Techniken. Die Daten müssen dabei immer in einem einheitlichen geometrischen Bezugssystem vorliegen. Zu den wichtigen Fusionsaufgaben gehören:
Sensoren-Fusion (sensor fusion) - Fusion von Daten verschiedener Sensoren. Häufig ist die Kombination von Radarbildern und optischen Bilddaten.
Klassifizierung (classification) - Multispektrale oder multisensorale Klassifizierung kann mit zusätzlichen Daten (z.B. DGM) wirksam unterstützt werden.
Erkennung von Veränderung (change detection) - Ableitung von Objektänderungen aus Daten verschiedener Aufnahmezeiten.
Fusion dreidimensionaler Daten (fusion of 3D data) - Spezielle Techniken zur Verknüpfung von geometrischen Daten, z.B. DGM oder Laserpunktwolken.
Engl. data latency; die Datenlatenz ist die Zeitspanne, um die notwendigen Daten zu erfassen und zur Analyse bereitzustellen. Mehrere Faktoren beeinflussen die Geschwindigkeit, mit der Daten verarbeitet und den Nutzern zur Verfügung gestellt werden.
Als Beispiel definiert das Earth Observing System Data and Information System (EOSDIS) der NASA definiert die Datenlatenz folgendermaßen:
"Die Datenlatenz ist definiert als die Gesamtzeit, die zwischen der Erfassung von Daten durch einen Satelliten, einen luftgestützten oder einen In-situ-Sensor und der Bereitstellung der Daten für den öffentlichen Zugang über das Internet vergeht." (What is Data latency?)
Bei Satellitendaten bezieht sich die Datenlatenz auf die Zeit zwischen der Satellitenbeobachtung und dem Zeitpunkt, zu dem die Daten den Nutzern zur Verfügung stehen. Das Fire Information for Resource Management System (FIRMS) der NASA verteilt beispielsweise aktive Branddaten nahezu in Echtzeit innerhalb von drei Stunden nach der Satellitenbeobachtung durch das Moderate Resolution Imaging Spectroradiometer (MODIS) der NASA an Bord der Satelliten Terra und Aqua sowie durch die gemeinsame NASA/NOAA Visible Infrared Imaging Radiometer Suite (VIIRS) an Bord der Satelliten Suomi National Polar-orbiting Partnership (Suomi NPP) und NOAA-20. Zwar ist es für die Einsatzkräfte wichtig, so schnell wie möglich über Daten zu verfügen, doch wird die Geschwindigkeit, mit der die Daten verarbeitet und den Nutzern zur Verfügung gestellt werden, durch mehrere Faktoren beeinflusst.
Die NASA und andere Anbieter geowissenschaftlicher Daten verwenden unterschiedliche Begriffe zur Beschreibung von Datenlatenzzeiten. Die Begriffe Near Realtime (NRT), Low Latency (geringe Latenz) und Expedited (beschleunigt) werden häufig synonym verwendet, um Daten zu bezeichnen, die schneller zur Verfügung gestellt werden, als es die Routineverarbeitung erlaubt.
Im Jahr 2016 fand im Langley Research Center der NASA in Hampton, Virginia, ein Workshop mit dem Titel "Time Sensitive Applications of NASA Data" statt, um Satellitendaten mit geringer Latenzzeit zu identifizieren, zu koordinieren und in den Mittelpunkt zu stellen. Auf diesem Workshop wurden die Begriffe für Latenz definiert und von den Teilnehmern aus der gesamten NASA für alle von EOSDIS im Namen der Earth Science Division der NASA verwalteten Daten vereinbart. Die folgende Tabelle fasst diese Begriffe zusammen.
Begriff (Term)
Latenz (Latency)
Einsatzbereich (Purpose)
Echtzeit (Real-time)
Weniger als eine Stunde
Diese Begriffe werden häufig verwendet, um Daten zu bezeichnen, die schneller zur Verfügung stehen, als es die Routineverarbeitung erlaubt. Sie werden für eine Reihe von angewandten Wissenschaften, zur Unterstützung von Entscheidungen und taktischen Maßnahmen sowie zur Überwachung und Frühwarnung vor Ereignissen verwendet.
Im Allgemeinen 8 - 10 Stunden, aber bis zu 2 Monate für einige komplexere Produkte
Standardprodukte bieten eine in sich konsistente, gut kalibrierte Aufzeichnung der geophysikalischen Eigenschaften der Erde zur Unterstützung der Wissenschaft.
Im Zusammenhang mit NASA-Daten unterscheiden sich Produkte mit niedriger Latenzzeit von Standarddatenprodukten dadurch, dass die Algorithmen für Produkte mit niedriger Latenzzeit geändert werden, um die Datenverfügbarkeit zu beschleunigen.
Ein Hauptunterschied zwischen einigen NRT- und Standardprodukten besteht darin, dass NRT-Daten vorläufige Bahninformationen für die Geolokalisierung verwenden und nicht endgültige Bahninformationen, die möglicherweise erst nach der Erstellung der NRT-Produkte verfügbar sind. Ein zweiter wesentlicher Unterschied betrifft NRT-Produkte, bei denen als Teil des Verarbeitungsalgorithmus Zusatzdaten aus anderen Quellen als dem Satelliten verwendet werden. Diese Zusatzdaten werden mit den Satellitendaten kombiniert, um höherwertige Produkte zu erstellen. Einige Algorithmen für NRT-Datenprodukte verwenden andere oder weniger genaue Zusatzdaten als Standardprodukte. Standardprodukte werden unter Verwendung einer definitiven Geolokalisierung und Instrumentenkalibrierung verarbeitet und liefern eine in sich konsistente, gut kalibrierte Aufzeichnung der geophysikalischen Eigenschaften der Erde zur Unterstützung der wissenschaftlichen Forschung. (Near Real-Time versus Standard Products)
Diese Standarddatenprodukte in wissenschaftlicher Qualität erfordern eine routinemäßige Verarbeitung, die Zeit in Anspruch nimmt. Sie werden in der Regel zwischen acht Stunden und zwei Monaten nach der Datenerfassung zur Verfügung gestellt. Wenn die Latenzzeit kein Hauptanliegen ist, sollten die Nutzer die wissenschaftlichen Standardprodukte verwenden.
Die EOSDIS-Datenprodukte werden auf verschiedenen Ebenen verarbeitet, von Ebene 0 bis Ebene 4. Produkte der Stufe 0 sind Rohdaten in voller Instrumentenauflösung. Auf höheren Ebenen werden die Daten in nützlichere Parameter und Formate umgewandelt. NRT-Daten werden häufig auf den Ebenen 0, 1 und 2 sowie einige Produkte der Ebene 3 bereitgestellt.
Level-Bezeichnung
Verarbeitungsstufe (Processing Level)
Level 0
Level 0-Datenprodukte sind rekonstruierte, unbearbeitete Instrumenten-/Nutzlastdaten in voller Auflösung; alle Kommunikationsartefakte, z. B. Synchronisationsrahmen, Kommunikationsheader, doppelte Daten, werden entfernt.
Level 1A
Bei den Datenprodukten der Ebene 1A handelt es sich um rekonstruierte, unbearbeitete Instrumentendaten mit voller Auflösung, zeitlich referenziert und mit Zusatzinformationen versehen, einschließlich radiometrischer und geometrischer Kalibrierungskoeffizienten und Georeferenzierungsparameter, z. B. Plattform-Ephemeriden, die berechnet und angehängt, aber nicht auf die Daten der Ebene 0 angewendet werden.
Level 1B
Daten der Ebene 1A, die zu Sensoreinheiten verarbeitet wurden (nicht alle Instrumente haben eine Entsprechung in Ebene 1B).
Level 2
Bei den Datenprodukten der Ebene 2 handelt es sich um abgeleitete geophysikalische Variablen mit der gleichen Auflösung und Lage wie die Quelldaten der Ebene 1.
Level 3
Bei den Datenprodukten der Ebene 3 handelt es sich um Variablen, die auf einheitlichen Raum-Zeit-Rastern abgebildet werden, in der Regel mit einer gewissen Vollständigkeit und Konsistenz.
Level 4
Bei den Datenprodukten der Ebene 4 handelt es sich um Modellausgaben oder Ergebnisse von Analysen von Daten der unteren Ebene, z. B. von Variablen, die aus mehreren Messungen abgeleitet wurden.
Das Datenmanagement hat im Nutzlast-Bodensegment einer Erdbeobachtungsmission die Aufgabe, den gesamten Fluss der Nutzlastdaten zu verwalten - vom Datenempfang über Prozessierung und Archivierung bis zum Datenzugang entsprechend der Nutzeranforderungen an Daten- und Informationsprodukte. Es stellt die reibungslose Abfolge von Bestellungen und Anfragen durch das Gesamtsystem sicher und ermöglicht ein systematisches Monitoring und die statistische Auswertung sämtlicher Vorgänge.
Folgende Dienste sind hier zu einer übergreifenden und umfassenden Funktionalität zusammengefasst:
Prozessierung zu höherwertigen Verarbeitungsstufen
Archivierung und Katalogisierung von empfangenen Rohdaten und aus ihnen abgeleiteten Informationsprodukten
Auftragsmanagement und die Verteilung der angeforderten Erdbeobachtungsprodukte an die Nutzer
Online-Zugang via Internet zu existierenden Datensätzen, wie auch die Beauftragung noch aufzunehmender neuer Datensätze
Überwachung und Steuerung der weitgehend automatisch und mit hoher Zuverlässigkeit ablaufenden Prozesse.
Der Multi-Missionsansatz eines Nutzlast-Bodensegments unterteilt dabei das System in missionsunabhängige, universal verwendbare Kernelemente, wie z.B. die Datenbibliothek, den Nutzerzugriff oder das Auftragsmanagement, sowie in missionsspezifische Elemente, wie z.B. die Sensordatenprozessoren, und in einen Konfigurationsteil, welcher die Kern- und die missionsspezifischen Elemente mit den jeweiligen Missionsanforderungen abgleicht.
In Deutschland werden beispielsweise im EOC des DLR die Erdbeobachtungsdaten der Missionen und wissenschaftlichen Projekte im deutschen Satellitendatenarchiv (D-SDA) verwaltet. Die Funktionen des D-SDA umfassen sämtliche Aspekte, die zur Verwaltung großvolumiger, jedoch höchst unterschiedlicher Datensätze notwendig sind. Archivierung, Datenadministration und Datenzugang sind die zentralen Aufgaben. Das D-SDA vereint Datenmanagement-Funktionen eines Nutzlastbodensegmentes mit denen eines Erdbeobachtungsdatenzentrums.
Als zentrale Archivinfrastruktur des EOC verwaltet das D-SDA - verteilt über die beiden Standorte Oberpfaffenhofen und Neustrelitz - momentan über 2,5 Petabyte an Erdbeobachtungsdaten und höherwertigen Geoinformationsprodukten.
Auf der Hardwareseite wird das Datenmanagement des D-SDA durch Bandroboter mit hoher Speicherkapazität sowie hochperformante Server unterstützt. Mit einer Speicherkapazität von 50 Petabyte sind die Bandroboter des D-SDA gut gerüstet, um die großen Datenmengen derzeitiger und zukünftiger Satellitenmission zu verarbeiten. Zusätzlich sorgen ca. 170 Terabyte an Festplattenspeicher für einen schnellen Datentransfer zwischen Archiv und Prozessierungssystemen.
Die Umsetzung von Rohdaten in höherwertige Informationsprodukte. Fernerkundungsdaten, die von Instrumenten an Bord von Satelliten erfasst werden, müssen verarbeitet werden, bevor die Daten von den meisten Forschern und Nutzern aus der angewandten Wissenschaft genutzt werden können. So können beispielsweise Windvektoren über dem Meer aus der Antwort eines radiometrischen Signals nach der Reflexion an der Meeresoberfläche abgeleitet werden.
Zur Datenverarbeitung werden innerhalb eines Nutzlast-Bodensegments Prozessierungssysteme eingesetzt. Entsprechend dem Sensor (SAR-, Multi- oder Hyperspektralsensor) und der gewünschten Verarbeitungsstufe werden spezifische Verarbeitungsalgorithmen auf zugeordneten Rechnerplattformen benutzt. Diese sogenannten (Sensor)Prozessoren werden über Module, welche ein vereinheitlichtes und harmonisiertes Management der Prozessoren sicherstellen, in die informationstechnische Umgebung des Multi-Missions-Bodensegments integriert. Unterschiedliche Kategorien von Prozessabläufen regeln die Datenflüsse im Bodensegment. So werden mit dem Prozessablauf Ingestion (Aufnahme) die Rohdaten von eigenen oder externen Bodenstationen erfasst und zugehörige Metadaten, entsprechend der Anforderungen des Archivs, extrahiert, z.B. durch die Ermittlung der Eckkoordinaten, des Wolkenbedeckungsgrads oder durch die Ableitung typischer Verarbeitungsparameter wie z.B. der Pulse Repetition Frequency (PRF) des SAR-Sensors.
Unabhängig davon können in systematischen datengetriebenen Prozessabläufen einzelne Datensätze mittels vordefinierter Parameter und ohne weitere externe Anforderung automatisch in Endprodukte gewandelt werden oder auch mehrjährige Archivdatensätze auf der Basis neuer Algorithmen reprozessiert oder in definierten Zeitabständen durch Kopieren auf neue Medien aufgefrischt werden. Im Gegensatz zum systematischen Datenfluss steht der nutzergetriebene Prozessablauf. Dabei werden individuelle, durch den Nutzer definierte Datenaufnahmen eingeleitet und ‚maßgeschneiderte‘ Informationsprodukte erstellt.
Obwohl jeder Datenanbieter, jede Mission und jedes Instrument seine eigenen Konventionen haben kann, basieren die folgenden Verarbeitungsstufen auf der CEOS-Konvention und sind repräsentativ für die allgemein verfügbaren Datenverarbeitungsstufen (processing level):
Rohdaten: Daten in ihren Originalformaten, wie sie von einem Satelliten empfangen wurden.
Level 0: Rekonstruierte, unverarbeitete Instrumentendaten in voller Raum-Zeit-Auflösung mit allen verfügbaren Zusatzinformationen, die bei der nachfolgenden Verarbeitung verwendet werden können (z. B. Ephemeriden, Zustand und Sicherheit).
Ebene 1: Ungepackte, neu formatierte Daten der Ebene 0, mit allen Zusatzinformationen, die bei der nachfolgenden Verarbeitung verwendet werden sollen, im Anhang. Optionale radiometrische und geometrische Korrektur (d. h. Orthorektifizierung), um Parameter in physikalischen Einheiten zu erzeugen. Die Daten werden im Allgemeinen in voller Raum/Zeit-Auflösung dargestellt. Eine große Vielfalt von Unterebenen Produkte sind möglich.
Ebene 2: Abgerufene Umweltvariablen (z. B. Meereswellenhöhe, Bodenfeuchte, Eiskonzentration) mit derselben Auflösung und am selben Ort wie die Quelldaten der Ebene 1.
Ebene 3: Daten oder abgerufene Umweltvariablen, die räumlich und/oder zeitlich neu abgetastet wurden (d. h. von Produkten der Ebenen 1 oder 2 abgeleitet wurden). Eine solche Neuabtastung kann Mittelwertbildung und Zusammenstellung umfassen.
Jede Ebene stellt einen Schritt im Prozess der Umwandlung physikalischer Informationen (Rohdaten, Ebene 0, Ebene 1) in relevante geophysikalische Informationen (Ebene 2, Ebene 3) dar.
Die meisten Rohdaten von Erdbeobachtungssatelliten der NASA (Ebene 0, siehe Datenverarbeitungsebenen) werden in SIPS-Anlagen (Science Investigator-led Processing Systems) verarbeitet. Alle Daten werden mindestens auf Stufe 1 verarbeitet, aber die meisten haben zugehörige Produkte der Stufe 2 (abgeleitete geophysikalische Variablen) und Stufe 3 (Variablen, die auf einheitlichen Raum-Zeit-Rasterskalen abgebildet werden). Viele haben sogar Level-4-Produkte. Die geowissenschaftlichen Daten der NASA werden in einem der Distributed Active Archive Centers (DAACs) archiviert.
Sobald die Daten verarbeitet sind, können sie in einer Vielzahl von Anwendungen verwendet werden, von der Landwirtschaft über Wasserressourcen bis hin zu Gesundheit und Luftqualität. Ein einzelner Sensor kann nicht alle Forschungsfragen innerhalb einer bestimmten Anwendung abdecken. Benutzer müssen oft mehrere Sensoren und Datenprodukte einsetzen, um ihre Fragestellung zu bearbeiten, wobei sie die Grenzen der Daten berücksichtigen müssen, die durch unterschiedliche spektrale, räumliche und zeitliche Auflösungen bereitgestellt werden.
Eine logisch-sinnvolle Gruppierung oder Sammlung von ähnlichen oder miteinander in Bezug stehenden Daten. Die Ähnlichkeit der Daten kann in ihrer gemeinsamen Quelle oder Quellenart, ihrem Verarbeitungsgrad, ihrem Algorithmus u.a. bestehen.
Engl. data processing levels; die Datenprodukte des Earth Observing System Data and Information System (EOSDIS) der NASA werden auf verschiedenen Ebenen verarbeitet, die von Level 0 bis Level 4 reichen. Produkte der Stufe 0 sind Rohdaten in voller Instrumentenauflösung. Auf höheren Ebenen werden die Daten in nützlichere Parameter und Formate umgewandelt. Alle EOS-Instrumente müssen über Standarddatenprodukte (SDP) der Stufe 1 verfügen; die meisten haben SDP der Stufen 2 und 3, und viele haben SDP der Stufe 4. Einige interdisziplinäre wissenschaftliche EOS-Untersuchungen haben auch Level-4-SDPs erzeugt. Die Spezifikationen für die zu erstellenden SDP werden vom Earth Observing System Project Science Office (EOSPSO) und dem NASA-Hauptquartier überprüft, um Vollständigkeit und Konsistenz bei der Bereitstellung einer umfassenden wissenschaftlichen Datenausgabe für EOS zu gewährleisten. Die Standarddatenprodukte werden in den Distributed Active Archive Centers (DAACs) oder den Science Investigator-led Processing Systems (SIPS) der NASA erstellt. (EARTHDATA)
Datenverarbeitungsstufen - Beispiel NASA (2021)
Datenebene
Beschreibung
Ebene 0
Rekonstruierte, unverarbeitete Instrumenten- und Nutzlastdaten in voller Auflösung, wobei alle Kommunikationsartefakte (z. B. Synchronisationsrahmen, Kommunikationsheader, doppelte Daten) entfernt werden. (In den meisten Fällen stellt das EOS Data and Operations System [EDOS] der NASA den DAACs diese Daten als Produktionsdatensätze zur Verarbeitung durch das Science Data Processing Segment [SDPS] oder eines der SIPS zur Verfügung, um höherwertige Produkte zu erzeugen).
Ebene 1A
Daten der Ebene 1A (L1A) sind rekonstruierte, unbearbeitete Instrumentendaten mit voller Auflösung, zeitlich referenziert und mit Zusatzinformationen versehen, einschließlich radiometrischer und geometrischer Kalibrierungskoeffizienten und Georeferenzierungsparameter (z. B. Plattform-Ephemeriden), die berechnet und angehängt, aber nicht auf L0-Daten angewandt werden.
Ebene 1B
L1B-Daten sind L1A-Daten, die zu Sensoreinheiten verarbeitet wurden (nicht alle Instrumente haben L1B-Quelldaten).
Ebene 1C
L1C-Daten sind L1B-Daten, die neue Variablen zur Beschreibung der Spektren enthalten. Anhand dieser Variablen kann der Benutzer erkennen, welche L1C-Kanäle direkt aus L1B kopiert wurden und welche aus L1B synthetisiert wurden und warum.
Ebene 2
Abgeleitete geophysikalische Variablen mit der gleichen Auflösung und Lage wie die L1-Quelldaten.
Ebene 2A
L2A-Daten enthalten Informationen, die aus den geolokalisierten Sensordaten abgeleitet wurden, wie z. B. die Bodenhöhe, die höchsten und niedrigsten Rücklaufhöhen der Oberfläche, die Energiequantilhöhen ("relative Höhe") und andere von der Wellenform abgeleitete Informationen zur Beschreibung der erfassten Oberfläche.
Ebene 2B
L2B-Daten sind L2A-Daten, die zu Sensoreinheiten verarbeitet wurden (nicht alle Instrumente haben ein L2B-Äquivalent).
Ebene 3
Variablen, die auf einheitlichen Raum-Zeit-Gittern abgebildet werden, in der Regel mit einer gewissen Vollständigkeit und Konsistenz.
Ebene 3A
L3A-Daten sind im Allgemeinen periodische Zusammenfassungen (wöchentlich, zehntägig, monatlich) von L2-Produkten.
Ebene 4
Modelloutput oder Ergebnisse von Analysen von Daten auf niedrigerer Ebene (z. B. Variablen, die aus mehreren Messungen abgeleitet wurden).
Die von der NASA verwendeten Datenverarbeitungsebenen wurden von einer Reihe von Agenturen über die gemeinsame Verbindung des Committee on Earth Observation Satellites (CEOS) entwickelt. Es gibt Datenverarbeitungsebenen, die ähnlich, aber nicht genau gleich sind, zwischen mehreren Raumfahrtbehörden, die Mitglieder des CEOS sind. Wenn man also die NASA-Tabelle als Referenz verwenden würde, würde man etwas verwenden, das so etwas wie ein Standard für alle Weltraumorganisationen ist.
Dawn (engl. für Morgendämmerung) ist eine 2007 vom WeltraumbahnhofCape Canaveral gestartete Raumsonde des Discovery-Programms der NASA, die den Asteroiden Vesta und den Zwergplaneten Ceres nacheinander umkreisen und erforschen. Sie ist die erste Sonde, die den Besuch von Objekten des Asteroidengürtels zur Hauptaufgabe hat und dient – wie ihr Name anklingen lässt – mit der Erkundung der als noch sehr ursprünglich angesehenen Körper dem Aufschluss über die Frühgeschichte des Sonnensystems.
Ziel 1 war der Asteroid Vesta mit etwa 500 Kilometer Durchmesser, Ziel 2 der Zwergplanet Ceres, mit knapp 1.000 km Durchmesser der größte Körper im Asteroidengürtel. Die Erwartungen an die Mission längst erfüllt und übertroffen. Die Mission war ursprünglich auf neun Jahre angelegt und wurde mehrfach verlängert. Anfang November 2018 wurde sie für beendet erklärt, nachdem wegen Treibstoffmangels kein Kontakt mehr hergestellt werden konnte.
Die Sonde, deren Kamerasystem an wissenschaftlichen Einrichtungen unter anderem in Göttingen, Berlin und Braunschweig entwickelt und gebaut wurde, kann nun nicht mehr mit den Forschern auf der Erde kommunizieren. Sie wird aber absehbar noch Jahrzehnte in ihrer derzeitigen Umlaufbahn um den Zwergplaneten Ceres bleiben.
Auf Dawn sind drei wissenschaftliche Instrumente integriert:
Framing Camera (FC) Dawn verfügt aus Gründen der Redundanz über zwei identische Kameras, welche primär zur Kartierung der Asteroiden eingesetzt werden. Durch die multispektralen Aufnahmen der Kameras kann auch die geologische Zusammensetzung der Oberfläche studiert werden. Ein weiteres Einsatzgebiet der Kameras ist die optische Navigation der Sonde anhand von Sternenfeldern. Jede Kamera wiegt etwa fünf Kilogramm und benötigt etwa 18 Watt Leistung. Die Kameras wurden vom MPI für Sonnensystemforschung in Kooperation mit dem DLR sowie dem Institut für Datentechnik und Kommunikationsnetze (IDA) an der TU Braunschweig gebaut.
Visible and IR Spectrometer (Mapping Spectrometer (MS), intern 'VIR') VIR ist ein Spektrometer, der im sichtbaren und infraroten Licht arbeitet. VIR basiert auf dem VIRTIS-Instrument der Venus-Express-Mission und wurde von der italienischen Raumfahrtagentur ASI bereitgestellt.
Gamma Ray/Neutron Spectrometer (GR/NS, intern 'GRAND') Das Gammastrahlen/Neutronen-Spektrometer soll das Vorkommen von Hauptelementen wie Sauerstoff, Silicium, Eisen, Titan, Magnesium, Aluminium, Calcium sowie Spurenelementen wie Uran, Thorium, Kalium, Wasserstoff, Gadolinium und Samarium kartieren. Zudem soll das Gamma Ray/Neutron Spectrometer das Vorhandensein von Wasserstoff entdecken können, um das Niveau der Hydration der Asteroidenoberfläche zu bestimmen. Das Instrument wurde vom Los Alamos National Laboratory entwickelt.
Inzwischen beendetes Verbundvorhaben zur Entwicklung von Methoden zur Aktualisierung und Erweiterung bestehender Landbedeckungsinformationen. Als nationales Schnittstellenprojekt zu den europäischen Aktivitäten innerhalb GMES (heute Copernicus ) wurden in DeCOVER angepasste Verfahren für den Informationsbedarf nationaler und regionaler Fachbehörden erarbeitet. Schwerpunkte der bis Mitte 2012 laufenden DeCOVER Phase 2 waren die optimierte Integration fernerkundungsgestützter Aktualisierungsverfahren in bestehende Fachprozesse, sowie die Unterstützung von Fachinventaren aus den Bereichen Landwirtschaft und Naturschutz.
Aktuelle Landbedeckungsdaten sind für viele öffentliche Aufgaben von Bund, Ländern und Kommunen eine wichtige Informationsgrundlage. Die in Deutschland vorhandenen Daten zur Landbedeckung mussten im Hinblick auf Aktualität und Qualität noch deutlich verbessert werden. Hierbei handelt es sich um das Amtliche Topographisch-Kartographische Informationssystem (ATKIS®), die Biotop- und Nutzungstypenkartierung (BNTK) als Datengrundlage aus dem Bereich Umwelt und Naturschutz sowie die europäische Landbedeckungsdatenbasis CORINE (CLC). Internationale Berichtspflichten gegenüber der Europäischen Kommission und den Vereinten Nationen waren damit nicht effizient zu erfüllen.
Methodische Innovationen des Vorhabens waren:
die gemeinsame Auswertung optischer und Radardaten (RapidEye und TerraSAR-X),
die flexible Fortschreibung von Landbedeckungsdaten.
Durch die gemeinsame Auswertung von optischen und Radardaten lassen sich zuverlässigere Landbedeckungsdaten gewinnen. Während optische Daten eine höhere Objekterkennbarkeit aufweisen, bieten Radardaten den Vorteil der Tageslicht- und Wetterunabhängigkeit, da auch bei Nacht und Wolkenbedeckung Daten aufgenommen werden können. Beide Vorteile wurden im DeCOVER-Vorhaben zusammengeführt, um eine regelmäßige Erhebung aktueller und zuverlässiger Landbedeckungsdaten zu ermöglichen.
Eine flexible Aktualisierung von Landbedeckungsdaten sollten durch automatisierte Interpretation von Satellitendaten erreicht werden, wodurch sich der Erhebungsaufwand und damit die Kosten reduzieren. ATKIS®-Daten gewährleisten den Fortbestand vielfältiger Informationen, die aus Fernerkundungsdaten nicht gewonnen werden können, wie z.B. Nutzungsarten von Gebäuden, Verkehrsinformationen oder auch geographische Namen.
2005 gestartete NASA-Mission des Discovery-Programms zum Kometen Tempel 1, der innerhalb von fünfeinhalb Jahren die Sonne umkreist und sich der Erde bis auf 133 Mio km nähert. Die Mission ist ein Gemeinschaftsprojekt der University of Maryland, des JPL und Ball Aerospace. Deep Impact bestand ursprünglich aus zwei Komponenten: der Vorbeiflugsonde, die sich zunächst auf einer Umlaufbahn um die Sonne befand, und dem Impaktor, der am 4. Juli 2005 auf dem Kometen aufschlug und dabei zerstört wurde.
Die folgende spektakuläre Aufnahme des Kometen Tempel 1 wurde aufgenommen 67 Sekunden nach dem Einschlag des Impaktors auf der sichtabgewandten Seite. Das Bild wurde von der hochauflösenden Kamera der Vorbeiflugsonde gemacht. Gestreutes Licht als Folge der Kollision drang in den Detektor der Kamera und erzeugte den hellen Lichtblitz. Lineare Lichtbündel strahlen weg von der Einschlagstelle, während reflektiertes Sonnenlicht einen Großteile der Kometenoberfläche beleuchtet. Das Bild enthüllt topographische Einzelheiten, z.B. Rücken, gebogene Kanten und vermutlich Einschlagkrater hohen Alters.
Das Hauptmissionsziel von Deep Impact war die Erforschung des Inneren des Kometen Tempel 1. Dazu wurde der 372 kg schwere Impaktor in die Flugbahn des Kometen gebracht, der auf dem Kometen einschlug. Das herausgeschleuderte Material wurde mit den Instrumenten der Sonde sowie mit weiteren Teleskopen auf der Erde und im Weltraum untersucht. Erstmals bestand so die Möglichkeit, den Blick auf das Innere eines Kometen freizugeben und das sich im Kometen befindliche Urmaterial des Sonnensystems freizusetzen. Wissenschaftler hoffen, durch diese neue Sicht nicht nur die Kometen besser verstehen, sondern auch die Rolle der Kometen in der frühen Geschichte des Sonnensystems besser nachvollziehen zu können.
Nach Abschluss der Primärmission wurde die Mission der voll einsatzbereiten Vorbeiflugsonde verlängert. Unter dem Missionsnamen EPOXI (Extrasolar Planet Observation and Deep Impact Extended Investigation) verfolgte die Sonde danach zwei neue Ziele. Bei einem Vorbeiflug am 4. November 2010 wurden aus nur 700 Kilometern Entfernung Bilder des Kometen 103P/Hartley gemacht, um diesen näher zu erforschen. Außerdem wurde das HRI-Teleskop (High Resolution Imager) der Sonde dazu genutzt, nach erdähnlichen Exoplaneten zu suchen. Am 8. August 2013 gab es den letzten Kontakt mit der Sonde und am 20. September 2013 erklärte die NASA die Mission für beendet.
Netzwerk von Radioantennen, die zur Kommunikation mit Raumsonden und Satelliten sowie radio- und radarastronomischen Forschungszwecken dienen. Das Jet Propulsion Laboratory betreibt für die US-amerikanische Raumfahrtbehörde NASA derzeit drei große Stationen:
Goldstone Deep Space Communications Complex (GDSCC), Goldstone in der Mojave-Wüste, Kalifornien, USA
Madrid Deep Space Communications Complex (MDSCC), Robledo bei Madrid, Spanien
Canberra Deep Space Communication Complex (CDSCC), Tidbinbilla bei Canberra,
Alle drei Anlagen befinden sich in hügeligem, beckenförmigen Gelände, um Störungen durch Radiofrequenzen zu minimieren. Die strategische Platzierung – die Stationen sind jeweils rund 120° Längengrade oder ein Drittel des Erdumfangs voneinander entfernt – ermöglicht trotz der Erdrotation die konstante Überwachung von Raumfahrzeugen. Jede Station hat neben kleineren Antennen mindestens eine 26 m-, zwei 34 m- und eine 70 m-Antenne. Die ersten großen Aufgaben für die Deep Space Stationen der NASA bestanden in der Kommunikation mit interplanetaren Raumsonden wie Mariner, Pioneer oder Voyager.
Ein meteorologisches Satellitenprogramm der U.S. Air Force, zur weltweiten Sammlung und Verbreitung von Daten zu Atmosphäre, Ozean, Sonnen- und Geophysik sowie zur Wolkenbedeckung auf täglicher Basis. Die Aufnahme der Bilder erfolgt im sichtbaren bis infrarotnahen Band (0,4 bis 1,1 Mikrometer) sowie im thermisch-infrarotenBand (ca. 8 bis 13 Mikrometer) bei einer Auflösung von etwa 3 km. Die Daten sind zu einem großen Teil auch zivilen Nutzern zugänglich. Instrument für die zivile Nutzung an Bord der DMSP-Satelliten ist neben anderen das abbildende Mikrowelleninstrument (Special Sensor Microwave Imager, SSM/I).
Das Programm wird vom Space Command der Luftwaffe verwaltet, wobei die National Oceanic and Atmospheric Administration die Operationen im Orbit durchführt. Die (ursprünglich als geheim eingestufte) Mission der Satelliten wurde im März 1973 enthüllt. Sie liefern Wolkenbedeckungsbilder aus polaren, sonnensynchronen Umlaufbahnen mit einer Höhe von 830 km.
Gegenwärtig sind DMSP F-16 bis F-18 aktiv. Ihnen sind folgende Orbit-Daten gemein: sonnensynchron, 833 km Bahnhöhe, 101 min Umlaufdauer, 98,7° (F-13) bzw. 98,9° (F-15/16) Inklination.
F-19 fiel 2016 nach nur 2-jähriger Betriebsdauer wegen defekter Stromversorgung aus. Vorübergehende Pläne, das DMSP durch das NPOESS-System zu ersetzen, sind überholt. Künftig sollen getrennte zivile und militärische Produktlinien entwickelt werden.
DMSP sollte durch das Defense Weather Satellite System (DWSS) ersetzt werden, das jedoch 2012 eingestellt wurde. Im Jahr 2017 erhielt die Luftwaffe den Auftrag zum Bau des ersten der neuen Verteidigungswettersatelliten, des Weather System Follow-on Microwave (WSF-M) Satelliten.
Dt. Verteidigungs-Unterstützungs-Programm; Bezeichnung für ein militärisches Satellitenprogramm der U.S. Air Force zur Frühwarnung vor Angriffen mit ballistischen Raketen. Es bildet die Hauptkomponente der US-amerikanischen Frühwarn-Einrichtungen.
Die Satelliten verfügen über ein Infrarot-Teleskop um startende Raketen aufzuspüren sowie über Sensoren, die nukleare Explosionen entdecken können. Während der Operation Desert Storm waren die DSP Satelliten in der Lage, Starts der irakischen Scud-Raketen zu lokalisieren und somit Vorwarnungen für Zivilisten und militärische Einheiten in Israel und Saudi-Arabien zu liefern.
Die DSP-Frühwarnsatelliten sind alle in einer geostationären Umlaufbahn (GEO) positioniert und mit Breitband-IR-Sensoren für zwei Wellenlängenbereiche ausgestattet; ihre Hauptaufgabe ist die Entdeckung von Raketenstarts. Die Empfindlichkeit der IR-Sensoren ermöglicht auch die Detektion von Flugzeugen, die mit eingeschalteten Nachbrennern fliegen, oder von Raumfahrzeugen in tieferen Orbits. Auch größere terrestrische Explosionen oder Brände werden registriert. Die Masse der Satelliten hat im Laufe der Zeit von anfänglich 900 kg auf 2.400 kg zugenommen. Die Abmessungen im Orbit sind 10 m Höhe und 6,7 m im Durchmesser. Auch die von Solarzellen zur Verfügung zu stellende elektrische Leistung wurde ständig gesteigert bis auf derzeit 1,5 kW. Alle Generationen der DSP-Satelliten wurden von TRW (seit 2002 Northrop Grumman) entwickelt und gebaut.
Verformung der Erde aufgrund innerer (endogener) und äußerer (exogener) Kräfte. Die Deformationen lassen sich nach ihrer räumlichen Ausdehnung in globale, regionale und lokale sowie nach ihrem zeitlichen Ablauf in säkulare (langandauernde), lang- und kurzperiodische (bzw. nieder- und hochfrequente) und episodische (vorübergehende) Effekte aufteilen. Nach dem physikalischen Materialzustand werden elastische, viskose und plastische Deformationen unterschieden.
Globale Deformationen werden als langandauernde Vorgänge durch Kräfte im Erdinnern hervorgerufen. Die Erdoberfläche wird dabei durch tektonische Prozesse (Tektonik) deformiert. Äußere Kräfte wirken mit langer Dauer vor allem bei Klimavariationen durch die veränderte atmosphärische Auflast oder durch das Abschmelzen von Eis bzw. Gefrieren von Wasser in den Polargebieten und die damit verbundene Änderung des Meeresspiegels. Globale periodische Deformationen werden in erster Linie durch äußere Kräfte in Form der Erdgezeiten (Anziehungskräfte von Sonne, Mond, Planeten) sowie die jahreszeitliche Variation der atmosphärischen Auflast und des Wasserkreislaufs (ozeanische Zirkulation, Veränderungen des Meeresspiegels durch Schmelz- und Gefrierprozesse des Polareises) erzeugt. Die Ursachen langandauernder regionaler und lokaler Deformationen sind vor allem bei menschlichen Eingriffen zu suchen. Der Abbau von Rohstoffen (Erdöl, Kohle etc.), die Veränderung des Grundwasserspiegels oder die Akkumulation von Massen (Aufstauen von Wasser, Deponieren von abgebautem Material, etc.) führt zu Deformationen der Erdoberfläche und Erdkrustenbewegungen.
Das Geoid
Das Geoid hat auf Grund unterschiedlicher Massenverteilung im Erdmantel Beulen und Dellen. Eine starke Überhöhung in der Darstellung ergibt die „Kartoffel-Figur“ der Erde. Das Geoid ist die ideale physikalische Höhenbezugsfläche für die Landesvermessung.
Schwerewerte sind die Voraussetzung für präzise Höhenmessungen. Sie stellen auch eine wichtige Grundlage für die Geowissenschaften bei der Rohstoffsuche und Lagerstättenforschung dar. Lagerstätten heben sich durch unterschiedliche Massenverteilung von ihrer Umgebung im Erdmantel ab.
Insbesonders bei Höhenmessungen muss eine Bezugsfläche gewählt werden, die in jedem ihrer Punkte senkrecht zu der jeweiligen Lotrichtung verläuft. Ideal wäre die Fläche ruhender Ozeane, weil sie sich nach Maßgabe der Schwerkraft ausbilden. Wenn man sich diese Wasserfläche anschaulich auch unter den Kontinenten fortgesetzt denkt, erhält man eine von den Schwereeinflüssen geprägte Erdform. Sie wird in Anlehnung an das griechische Wort für Erde als das Geoid bezeichnet und als eigentliche Figur der Erde betrachtet. Das Geoid stellt somit die ideale physikalische Höhenbezugsfläche für die Landesvermessung dar.
Die folgende Geoid-Form der Erde ist berechnet nach den Messungen der GRACE-Satelliten-Mission. Auf Grund der Massenunterschiede im Erdinnern ist die massenabhängige Anziehungskraft nicht überall gleich. Im Bild sind die Unregelmäßigkeiten im Schwerefeld der Erde in 15.000-facher Überhöhung dargestellt als Abweichungen vom Rotationsellipsoid. Erkennbar ist eine Absenkung des Meeresspiegels südlich von Indien. In diesem Bereich liegt der Meeresspiegel rd. 105 m unter dem Rotationsellipsoid. Die Geoid-Höhen sind über den Ozeanen von dunkelblau (-105 m) bis rot (+85 m) eingefärbt, grün/gelb markiert die Null-Linie. Zur besseren Orientierung sind die Kontinente grau dargestellt.
Periodische regionale Deformationen ergeben sich vor allem durch jahreszeitlich bedingte meteorologische (atmosphärische Auflast) und hydrologische (Grundwasserschwankungen, Schneeauflast etc.) Variationen. Dabei wird die Erdkruste in begrenzten Gebieten radial (vertikal) verformt. Episodische (vorübergehende) Deformationen entstehen hauptsächlich regional und lokal nach Erdbeben, Vulkanausbrüchen, Bergstürzen etc. Sie verformen die Erdoberfläche und Teile der Erdkruste dauerhaft. Die Deformationen des tieferen Erdinnern (Erdmantel, Erdkern) sind langsame Fließvorgänge, denen ein viskoses (zähflüssiges) Materialverhalten zugrunde liegt. Dagegen können die langandauernden und periodischen Verformungen der Erdkruste im allgemeinen als elastische Prozesse angesehen werden. Bei den episodischen Deformationen der Erdoberfläche muß ein plastisches Materialverhalten unterstellt werden. Betrachtet man also die Erde als Ganzes und will ihre Deformation realistisch beschreiben oder modellieren, so muß eine Kombination des unterschiedlichen Materialverhaltens (elastisch-viskos-plastisch) berücksichtigt werden.
Die Deformationen der Erde und ihre Auswirkungen können mit geodätischen Raumverfahren - häufig gestützt auf Fernerkundungsmethoden - beobachtet und präzise gemessen werden. Der direkte Effekt ist eine geometrische Veränderung der Form der Erdoberfläche (Erdkrustenbewegungen). Die langandauernden tektonischen Prozesse führen über Millionen von Jahren zu horizontalen Verlagerungen der äußeren Erdschichten um Tausende von Kilometern (Plattenkinematik) und zu vertikalen Bewegungen (Hebungen und Senkungen im Rahmen der Gebirgsbildung bis zu einigen tausend Metern. Die daraus resultierenden meßbaren Bewegungen erreichen Geschwindigkeiten von einigen Zentimetern pro Jahr. Periodische Deformationen erreichen bei den Erdgezeiten radiale (vertikale) Bewegungen von maximal 40 cm pro Tag. Die Auflasteffekte (atmosphärisch, ozeanisch, hydrologisch) sind dagegen vergleichsweise gering (wenige Millimeter).
Episodische Deformationen nach Erdbeben können horizontale Versetzungen bis zu mehreren Metern entlang der Verwerfungslinie erzeugen. Die vertikalen Veränderungen sind im allgemeinen etwas geringer, erreichen aber teilweise auch Meterbeträge. Indirekte Effekte der Deformationen der Erdkruste sind u.a. Variationen der Rotation der Erde und der Erdanziehungskraft (Schwere) aufgrund der veränderten Massenverteilung innerhalb der Erde. Auch diese Auswirkungen sind mit Methoden der Geodäsie und der Fernerkundung messbar.
Überwachung von Deichen vor und während Hochwasserereignissen. Ziele dabei sind:
Verhinderung von Damm und Deichbrüchen
Erkennung potentieller Schwach- und Bruchstellen an Dämmen und Deichen
bessere Beurteilung der Folgen von Überschwemmungen auf Infrastruktur und Bevölkerung durch Vermessung von Landflächen, Darstellung der Ausdehnung von Überflutungen und Analyse der Daten mit Hilfe von Geographischen Informationssystemen
Eingrenzung der Schäden
rechtzeitige Warnung von Katastrophenschutzkräften
Unter den Bedingungen 'trockene Witterung', 'Sonnenschein', 'vegetationsarme Zeit' kann im Thermalinfrarot (TIR) die Temperaturdifferenz zwischen direkter Wärmeemission und durch Verdunstungskälte reduzierter Wärmeemission erkannt werden. (Siehe obere Abb.)
Quelle: PSI Transcom GMBH
Neben konventionellen Beobachtungsmethoden werden verstärkt geophysikalische (u.a. Georadar) Verfahren eingesetzt, aber auch Fernerkundungsverfahren erprobt. Durch die Kombination von geographischem Informationssystem (GIS), Labor- und Naturuntersuchungen sowie Befliegung mit multispektralen Fernerkundungssensoren ist es möglich, potentielle Schwach- und Bruchstellen an Dämmen und Deichen zu lokalisieren. Mit Hilfe der Daten können Gefährdungskarten erstellt und Schwachstellenzonierungen vorgenommen werden.
Frühere Bezeichnung für einen spanischen Erdbeobachtungssatelliten, der ursprünglich von Deimos Imaging (Tochter der kanadischen UrtheCast Corp.) betrieben wurde. Er wurde von Surrey Satellite Technology gebaut. Seit 2021 besitzt und betreibt die Firma GEOSAT - Global Earth Observation Satellites mit Hauptsitz in Portugal und Niederlassungen in Portugal und Spanien, die Satelliten DEIMOS-1 und -2 unter dem Namen GEOSAT-1 und -2. GEOSAT erwarb die beiden Satelliten von der insolventen Urthecast-Gruppe, zusammen mit ihrem 6 Mrd. Quadratkilometer großen Bildarchiv und den technischen und personellen Ressourcen für den Betrieb der Satelliten, und wurde damit zum einzigen Betreiber von EO-Satelliten in Portugal und Spanien. GEOSAT hat eine strategische Partnerschaft mit THRUSTERS UNLIMITED für den globalen Marktzugang und zukünftige Entwicklungen geschlossen.
Deimos-1 wurde 2009 auf eine sonnensynchrone, niedrige Erdumlaufbahn in 686 km Höhe gebracht. Startplatz war für seine Dnepr-Trägerrakete war der KosmodromBaikonur in Kasachstan. Der Satellit ist für eine Lebensdauer von fünf Jahren ausgelegt. Er trägt einen bildgebenden Multispektralsensor (RGB, NIR) mit einer Auflösung von 22 Metern und einer Schwadbreite von 600 km.
Das DEIMOS-1 System ist für die Erfassung von großen Gebieten optimiert, hierzu wurde ein vollkommen integriertes Polarstationssystem im norwegischen Spitzbergen eingerichtet, mit dem Telemetriedaten am Ende eines jeden Orbits heruntergeladen werden können, der Bordspeicher bildet keine Einschränkung, wodurch Quasi-Echtzeit-Service angeboten werden kann. Die DEIMOS-1-Daten können im Bedarfsfall innerhalb von weniger als 2 Stunden nach ihrer Erfassung ausgeliefert werden.
Er war Teil einer Gruppe von Satelliten, die unter dem Namen Disaster Monitoring Constellation (DMC) bekannt sind, und war der erste private europäische Erdbeobachtungssatellit, der gestartet wurde.
Frühere Bezeichnung für einen spanischen Erdbeobachtungssatelliten, der ursprünglich von Deimos Imaging (Tochter der kanadischen UrtheCast Corp.) betrieben wurde. Er wurde von Surrey Satellite Technology gebaut. Es handelt sich um einen hochauflösenden, multispektralen Minisatelliten, der eine höhere Auflösung und Flexibilität als Deimos-1 bietet.
Seit 2021 besitzt und betreibt die Firma GEOSAT - Global Earth Observation Satellites mit Hauptsitz in Portugal und Niederlassungen in Portugal und Spanien, die Satelliten DEIMOS-1 und -2 unter dem Namen GEOSAT-1 und -2. GEOSAT erwarb die beiden Satelliten von der insolventen Urthecast-Gruppe, zusammen mit ihrem 6 Mrd. Quadratkilometer großen Bildarchiv und den technischen und personellen Ressourcen für den Betrieb der Satelliten, und wurde damit zum einzigen Betreiber von EO-Satelliten in Portugal und Spanien. GEOSAT hat eine strategische Partnerschaft mit THRUSTERS UNLIMITED für den globalen Marktzugang und zukünftige Entwicklungen geschlossen.
DEIMOS-2 (heute GEOSAT-2) wurde am 19. Juni 2014 mit einer Dnepr-Trägerrakete vom russischen KosmodromJasny zusammen mit 36 weiteren Satelliten auf eine sonnensynchrone Umlaufbahn in 620 km Höhe gebracht. Seine Missionsdauer war anfänglich auf wenigstens 7 Jahre ausgelegt. Inzwischen rechnet man mit einem Missionsende im Jahr 2029.
Beispielaufnahme von DEIMOS-2: Teruel Airport (acquired 3/5/2016)
Der Flughafen Teruel liegt in der Autonomen Provinz Aragón im Nordosten Spaniens. Der ehemalige Militärflughafen Flughafen ist auf die Wartung und Lagerung von Flugzeugen spezialisiert und nicht für Fracht oder Passagiere konzipiert.
Das Gebiet verzeichnet nur 57 Regentage im Jahr und eine relative Luftfeuchtigkeit von 65%. Mit diesen klimatischen Eigenschaften sind die Flugzeuge vor Korrosionsproblemen sicher. Die Landebahn ist 2,8 km lang, was eine einfache Landung für verschiedene Flugzeugtypen ermöglicht. Teruel ist mit 340 Hektar verfügbarer Fläche der größte MRO- und Parking-Flughafen Europas. Seit seiner Eröffnung vor fast 3 Jahren wurden die Start- und Landevorgänge des Flughafens verdreifacht. Aus diesem Grund plant das öffentliche Konsortium, das den Flughafen verwaltet, die erste Erweiterung. (vgl. Abb.)
Der dreiachsenstabilisierte Satellit ist mit einer Push Broom-Multispektralkamera namens High Resolution Advanced Imaging System mit 4 Multispektralbändern (RGB, NIR) und einem panchromatischen Band ausgerüstet. Sie besitzt eine Auflösung von 0,75 m panchromatisch und 4 m multispektral. Die Schwadbreite beträgt 12 km. Das DEIMOS-2 Mission Concept ist ein end-to-end System mit einem kosteneffektiven und höchst flexiblen Service, der den zunehmenden Bedarf an höchstaufgelösten Bilddaten befriedigt. Deimos-2 wurde auf der Basis des SI-300-Satellitenbus der südkoreanischen Fa. SATREC gebaut und besitzt elektrische Triebwerke zur Bahnregelung. Die Stromversorgung übernehmen Solarzellen mit insgesamt 450 W Leistung.
DeMarine war war eines von drei so genannten „De-Vorhaben“ (DeCOVER, DeSecure), die das gemeinsame übergeordnete Ziel haben, die nachhaltige Nutzung der im Rahmen von GMES (heute: Copernicus) aufgebauten so genannten Fast-Track-Services in Deutschland sicher zu stellen.
Das Vorhaben ergab sich aus dem Bedarf an einem unabhängigen Zugang zu verlässlichen Erdbeobachtungs informationen und zu kontinuierlichen Informationen zum physikalischen und biogeochemischen Zustand des globalen Ozeans und europäischer Meeresgebiete wächst ständig. Vor allem für die marine Wirtschaft, wie zum Beispiel der Offshore-Industrie, aber auch für Politik und Gesellschaft sind diese Informationen hinsichtlich der Planungssicherheit und des Naturschutzes des Weltnaturerbes Wattenmeer essentiell.
DeMARINE bestand aus zwei Säulen, in denen im Rahmen von Verbundprojekten nationale Dienste für die Themenblöcke marine Umwelt und maritime Sicherheit entwickelt wurden. Die Kooperation zwischen den Verbünden und die Einbindung der Nutzer bei den Projektvorhaben wurde über Nutzerbüros realisiert. Das Projekt DeMarine-Umwelt wurde vom Bundesamt für Seeschifffahrt und Hydrographie (BSH), das Projekt DeMarine-Sicherheit von der Firma GAUSS mbH koordiniert.
DeMarine-2 Das Nachfolgeprojekt DeMarine-2 vereinte dann Umwelt- und Sicherheitsaspekte. Im Rahmen des europäischen Erdbeobachtungsprogramms Copernicus von EU und ESA verfolgte das nationale Verbundprojekt DeMarine-2 das Ziel, marine Copernicus-Dienste zu einer nachhaltigen Nutzung zu bringen und diese langfristig sicherzustellen. Dies geschah in engem Dialog mit den Nutzern, die ihre Anforderungen über das Nutzerbüro direkt in die Produktentwicklung einbringen können.
Das Projekt wurde vom Bundesministerium für Wirtschaft und Technologie (BMWi) durch das Raumfahrtmanagement des Deutschen Zentrums für Luft- und Raumfahrt (DLR) gefördert und hatte eine Laufzeit von Juni 2012 bis Mai 2015. DeMarine wurde vom Bundesamt für Seeschifffahrt und Hydrographie (BSH) koordiniert.
Engl. Akronym für Detection of Electro-Magnetic Emissions Transmitted from Earthquake Regions; abgeschlossene Mikrosatelliten-Mission der CNES zur Untersuchung von ionosphärischen Störungen als Folge von natürlichen geophysikalischen Erscheinungen wie Erdbeben und Vulkanausbrüchen. Der Satellit registrierte die gesamte elektromagnetische Aktivität unseres Planeten. Ziel war es, die Zusammenhänge zwischen spezifischen elektrischen Signalen in der Ionosphäre und das Auftreten von Erbeben nachzuprüfen und gegebenenfalls abzuschätzen, ob dadurch die Vorhersage von Erdbeben möglich wäre.
Es wird vermutet, dass es während und auch vor Erdbeben zu Auswirkungen in der Ionosphäre kommt. Als mögliche Ursachen werden chemische, akustische und elektromagnetische Mechanismen diskutiert. Beispielsweise wird die Freisetzung von Ladungsträgern aus oxidischen Mineralien durch tektonischen Spannungen angeführt, aber auch Effekte wie die Anregung von atmosphärischen Schwerewellen durch Ausgasungen. Auch wenn die Ionosphäre seit längerem vom Boden aus und mit Satelliten überwacht wird, ist eine Kopplung derzeit nicht als nachhaltig nachgewiesen anzusehen. Ein weiterer Satellit, der dieses Phänomen näher untersucht, ist der 2006 gestartete und bis 2007 aktive russische Kompas 2.
Demeter befand sich in 710 km Höhe auf einer sonnensynchronen Umlaufbahn mit einer Inklination von etwa 98°. Der Satellit absolvierte 14 Umläufe pro Tag. Demeter ist die erste Mission des Vielzweckprogramms Myriade. Der Start erfolgte im Juni 2004 mit einer DNEPR-Rakete vom WeltraumbahnhofBaikonur. Am 6.12.2010 wurde die Mission beendet.
In der digitalen Bildverarbeitung der Prozess der Zusammenfassung von Grauwertintervallen zu jeweils einem einzigen Grauwert. Ein Klassifizierungsansatz mittels Äquidensiten beruht auf der Festlegung von Schwellwerten, die eine optimale Trennbarkeit unterschiedlicher Objektklassen ermöglichen. Bei der Nutzung von Farben zur Darstellung von spezifischen Grauwertintervallen wird von jeweils drei Schwellwertoperationen ausgegangen, die entweder den gesamten Grauwertbereich in die Grundfarben Rot, Grün und Blau aufteilen und darstellen oder im Falle von überlappender Schwellwertbildung auch Mischfarben ermöglichen (Farbcodierung, colour density slicing). In einem weiteren Schritt werden lineare Übertragungsfunktionen gewählt und damit kontinuierliche Farbübergänge erreicht. Äquidensiten werden z.B. zur Darstellung der Bathymetrie oder der Temperatur von Wasserflächen verwendet. Bei der Farbcodierung von Thermalbildern wird eine optimale Lesbarkeit erzielt, wenn einerseits dunklen, kalten Bereichen blaue und andererseits hellen, warmen Bereichen rote Farbtöne zugeordnet werden.
Eine gezielte Änderung des Orbits eines Erdsatelliten mit der Absicht, sinnvoll nutzbare und dementsprechend belegte Umlaufbahnen nicht mit ausgedienten Raumfahrzeugen zu verstopfen. Damit ist nicht notwendigerweise ein gezielt herbeigeführter zerstörerischer Wiedereintritt in die Erdatmosphäre verbunden. Für ein solches Manöver haben die meisten der derzeit im All befindlichen Satelliten nicht genug Treibstoff an Bord. Für Satelliten im Geostationären Orbit (GEO) - rund 35.786 Kilometer über der Erde - wäre die benötigte Treibstoffmenge im Vergleich zu auf niedrigeren Erdumlaufbahnen befindlichen Satelliten außerdem höher.
Künftig sollen spezielle "Deorbiting"-Systeme für weniger Schrott im All und mehr Sicherheit für Satelliten sorgen. In die Raumflugkörper integriert, sollen sie diese nach ihrem Missionsende gezielt abstürzen lassen. Die Selbstverpflichtung der Raumfahrtbetreiber zu diesen Maßnahmen und damit die zugehörigen Technologien sind noch relativ jung.
Beispielsweise hat die französische Raumfahrtagentur CNES im Herbst 2018 bei ihrem Satelliten Microscope mit dem Entfalten von zwei neuartigen, passiven Deorbiting-Segeln, die wie Bremssegel funktionieren sollen, das Ende der Microscope-Mission eingeleitet. Sie bringen den Satelliten auf eine sich der Erde immer weiter nähernde Umlaufbahn, so dass er in 25 Jahren in der Erdatmosphäre verglühen soll.
Zu diesen Maßnahmen haben sich die Raumfahrtorganisationen freiwillig selbst verpflichtet, da Überreste früherer Weltraummissionen zunehmend unsere allgestützte Infrastruktur für Kommunikation, Navigation und vieles mehr bedrohen. Schon ein Zusammenstoß mit einem nur ein Zentimeter großen Teilchen kann einen aktiven Satelliten erheblich beschädigen oder zerstören.
Engl. depression angle, franz. angle de dépression; nach DIN 18716 der "Winkel zwischen einer durch die Antenne gedachten horizontalen Ebene und der Verbindungslinie zwischen Antenne und Objektpunkt".
Ein vom DLR initiiertes - inzwischen abgeschlossenes - Verbundprojekt mit dem Ziel der Verbesserung der satellitengestützten Kriseninformation in Deutschland. Dabei wurde der gesamte Produktionszyklus von satellitengestützter Kriseninformation (Satellitendatenempfang, Prozessierung, Informationsextraktion, Kartenerstellung und -bereitstellung) im Projektzeitraum (2007 - 2010) analysiert und verbessert. Die DeSecure-Aktivitäten gingen einher mit dem Ausbau der GMES (heute Copernicus) Aktivitäten auf europäischer Ebene. Neben dem Deutschen Fernerkundungsdatenzentrum (Projektleitung) waren das Institut für Methodik der Fernerkundung (IMF) des DLR sowie die Industriepartner Definiens AG, GAF AG, Infoterra GmbH, PRO DV AG und RapidEye AG sowie die Technischen Universitäten Berlin und München beteiligt.
Mit der weltweiten Zunahme von Naturkatastrophen, humanitären Notsituationen und zivilen Gefahrenlagen steigt auch der Bedarf an zeitnaher, umfassender und flächendeckender Information zur Lage. Die Nachfrage kann inzwischen zu einem großen Teil mit satellitengestützten Fernerkundungsdaten gedeckt werden. DeSecure diente der verbesserten Bereitstellung solcher Informationen, etwa für deutsche Behörden und Hilfsorganisationen bei nationalen sowie internationalen Einsätzen.
Am Anfang stehen Satellitenbilder. Hat ein Satellit "zufällig" zur rechten Zeit den rechten Ort aufgenommen? Wenn ja: welcher Satellit war das, und wie kommt man an die Aufnahme? Wenn nein: wer könnte beauftragt werden, so schnell wie möglich eine Aufnahme zu machen, und bis wann? Handelt es sich um eine Radar-Aufnahme oder um das Bild einer optischen Kamera? Die Ergebnisse verschiedener Verfahren sind sehr unterschiedlich.
Kriseninformation wird aus Satellitenbildern auch heute noch überwiegend durch "visuelle Interpretation" gewonnen, das heißt: ein geschulter Bildinterpret analysiert das Material und erstellt daraus eine Karte. Menschliches Bildverständnis ist nicht vollständig durch automatisierte Prozesse ersetzbar. Software-Werkzeuge können das Verfahren aber einfacher, sicherer und schneller machen. Und am Ende muss die Notfall-Karte noch an den Ort kommen, wo sie gebraucht wird.
Nutznießer des Projektes DeSecure sind Zivilschutz- und Hilfsorganisationen (wie Technisches Hilfswerk, Deutsches Rotes Kreuz) sowie die deutschen und europäischen Lagezentren (Gemeinsames Melde- und Lagezentrum des Bundes und der Länder GMLZ, Lagezentrum des Auswärtigen Amtes, "Monitoring and Information Centre" MIC der Europäischen Kommission).
Im 400-km-Orbit der ISS kann es mit seinen 235 eng nebeneinander liegenden Kanälen Bilddaten vom sichtbaren bis zum infraroten Spektrum - zwischen 400 und 1000 Nanometer - mit einer Oberflächenauflösung von 30 Metern aufnehmen. Diese Daten zeigen Veränderungen im Ökosystem der Erdoberfläche an. Anhand der gewonnenen Informationen können Wissenschaftler den Gesundheitszustand von Wäldern oder landwirtschaftlichen Flächen beurteilen und somit Ertragsprognosen treffen. Ein weiterer Zweck von DESIS ist die Sicherung und Verbesserung des weltweiten Nahrungsmittelanbaus.
Mit seiner technischen Charakteristik wird die Informationstiefe von Erdbeobachtungsdaten deutlich angehoben. Bereits kurz nach der Inbetriebnahme waren die ersten Aufnahmen verfügbar. So konnten mit DESIS-Daten auch Plastikinseln und Ölteppiche auf den Ozeanen identifiziert werden. Vor wenigen Monaten konnten durch die hohe räumliche Auflösung von DESIS erstmals seltene Erden aus dem All detektiert werden. Auch die Untersuchung von Korallenriffen ist mit den von DESIS gelieferten Daten möglich.
Hyperspektrale Daten von DESIS werden das DLR befähigen, neue Erdbeobachtungsanwendungen, beispielsweise zur Rohstoffsuche oder für die Präzisionslandwirtschaft, zu entwickeln. Auch Anwendungen zur humanitären Hilfe können durch DESIS-Daten verbessert werden. DESIS wird außerdem die weitere Entwicklung hyperspektraler Anwendungen und Technologien verbessern. Die neuen Forschungsmöglichkeiten beziehen sich auf das Monitoring des globalen Ökosystems, Ressourcenmonitoring und die Suche nach Ressourcen sowie eine Verbesserung der Reaktion auf humanitäre Krisen.
Die Daten werden gemeinsam von TBE und DLR für kommerzielle und wissenschaftliche Partner ab 2019 bereitgestellt. Der Start des Instruments erfolgte am 29. Juni 2018 von Cape Canaveral mit einer SpaceX Falcon 9 Rakete. Der deutsche ESA-Astronaut Alexander Gerst hatte dann die Hyperspektralkamera Ende August 2018 auf der Erdbeobachtungsplattform MUSES (Multiple User System for Earth Sensing) der Internationalen Raumstation ISS installiert.
Auch unter DestinE bekannte Initiative der EU-Kommission und verschiedenen Partnern, die zur Bekämpfung des Klimawandels beitragen soll. Die Initiative ist bis Mitte 2024 mit zunächst 150 Mio. EUR aus dem Programm „Digitales Europa“ ausgestattet und dient der Entwicklung eines hochpräzisen digitalen Modells der Erde. Dieses wird helfen, natürliche Vorgänge und menschliche Aktivitäten zu beobachten, zu modellieren und vorherzusagen und Szenarien für eine nachhaltigere Entwicklung zu entwickeln und zu testen. Hochwertige Informationen, digitale Dienste, Modelle, Szenarios, Prognosen und Visualisierungen werden zunächst Nutzern des öffentlichen Sektors und später der wissenschaftlichen Gemeinschaft, dem Privatsektor und der breiten Öffentlichkeit zur Verfügung gestellt.
Die Kommission, die Europäische Weltraumorganisation (ESA), das Europäische Zentrum für mittelfristige Wettervorhersage (ECMWF) und die Europäische Organisation für die Nutzung meteorologischer Satelliten (EUMETSAT) werden „Destination Earth“ in mehreren Schritten aufbauen und zunächst eine zentrale Plattform für digitale Replikate von Erdsystemen und Naturphänomenen („digitale Zwillinge“) einrichten.
Bis Ende 2024 wird das System DestinE Folgendes umfassen:
eine von der ESA betriebene Kerndienstplattform, auf der Entscheidungshilfen, Anwendungen und Dienste auf einem offenen, flexiblen und sicheren Cloud-gestützten Computersystem bereitgestellt werden
den von EUMETSAT betriebenen Data Lake, der Speicherraum und einen nahtlosen Zugang zu den Datensätzen bieten wird. Dieser „Datensee“ wird auf bestehenden wissenschaftlichen Datensätzen wie den Daten- und Informationszugangsdiensten des Copernicus-Programms (DIAS) aufbauen und durch andere Nichtgeodaten wie sensorgestützte Umweltdaten und sozioökonomische Daten ergänzt
vom ECMWF entwickelte digitale Zwillinge, die Daten aus Echtzeitbeobachtungen und Simulationen kombinieren:
Beim digitalen Zwilling wetterbedingter und geophysikalischer Gefahren wird der Schwerpunkt auf Überschwemmungen, Dürren, Hitzewellen und geophysikalischen Phänomenen wie Erdbeben, Vulkanausbrüchen und Tsunamis liegen. Dieser digitale Zwilling wird beispielsweise im Falle von Überschwemmungen lokalen und regionalen Gebietskörperschaften helfen, Maßnahmen zu testen, die Leben retten und Sachschäden verringern können
Der digitale Zwilling für die Anpassung an den Klimawandel bietet Beobachtungs- und Simulationskapazitäten und wird so Tätigkeiten und Szenarien zur Eindämmung des Klimawandels unterstützen. Informationen aus Bereichen wie nachhaltige Landwirtschaft, Energieversorgungssicherheit und Schutz der biologischen Vielfalt werden helfen, CO2-Neutralität zu erreichen.
DestinE wird schrittweise anhand der folgenden Meilensteine entwickelt:
Bis 2024: Entwicklung der Kerndienstplattform, des Datensees und der ersten beiden digitalen Zwillinge zu extremen Naturereignissen und zur Anpassung an den Klimawandel.
Bis 2027: Weitere Verbesserung des DestinE-Systems und Integration zusätzlicher digitaler Zwillinge und damit verbundener Dienste.
Bis 2030: Ein "vollständiges" digitales Abbild der Erde.
Gütezahl eines Detektors bzw. des Detektormaterials, die eine Funktion der Fläche des Detektors, der Bandbreite (Frequenzbereich der Sensibilität) und der rauschäquivalenten Strahlungsleistung ist. Die Detektivität ist des weiteren abhängig von der Wellenlänge der auftreffenden elektromagnetischen Strahlung und von der Temperatur des Detektormaterials. Kühlung erhöht die Detektivität.
Engl. detector, franz. détecteur; im allgemeinen Sprachgebrauch, insbesondere in der Messtechnik, bezeichnet der Begriff jede Art von Gerät zum Nachweis von Objekten oder deren physikalischer Eigenschaften, z.T. wird der Begriff nahezu synonym zur allgemeinen Bedeutung von "Sensor" verwendet.
Im Sprachgebrauch der Satelliten-Fernerkundung bezeichnet der Begriff "Detektor" Bauelemente (eines Fernerkundungs-Sensors) zur Messung jeglicher Art von Strahlung, beispielsweise von optischer Strahlung oder von Mikrowellen.
DIN 18716 formuliert: "Strahlungsempfänger, der ein von der auftreffenden elektromagnetischen Strahlung abhängiges messbares Signal abgibt" und merkt an: "Es gibt Punkt-, Zeilen- und Flächendetektoren".
Detektoren werden heute häufig als Halbleiterbauelemente realisiert, die oft sogar mit einem Vorverstärker und/oder anderen Teilen der Ausleseelektronik zusammen auf einem Chip integriert sind (engl.: "solid-state detector"). Dadurch wird die Strahlung auf ein spezifisches, interessierendes Spektralband beschränkt. Für manche Anwendungen (z.B. abbildende Spektrometer) werden eine grosse Anzahl von einzelnen Detektor-Elementen als ein- oder zwei-dimensionale Detektorarrays auf einem Chip angeordnet. Typische Beispiele sind Diodenzeilen-Detektoren oder CCD-Detektoren. Je nach Spektralbereich, für den die Detektoren eingesetzt werden sollen, bestehen sie aus unterschiedlichen Materialien: für die Spektralbereiche des UV und des sichtbaren Lichts meist aus Silizium; im Infraroten werden dagegen oft Materialien wie Indium-Gallium-Arsenid, Quecksilber-Cadmium-Tellurid, Indiumantimonid, Bleiantimonid verwendet.
Detektoren werden auch nach ihrer geometrischen Anordnung unterschieden. Es gibt Einzel-Detektoren, Detektoren in Zeilen sowie in flächenhafter Anordnung (array).
1912 unter dem Namen Wissenschaftliche Gesellschaft für Flugtechnik (WGF) gegründete, und damit die weltweit zweitälteste technisch-wissenschaftliche Gesellschaft für Luft- und Raumfahrt. Ihre mehr als 3000 Mitglieder sind Wissenschaftler, Ingenieure, Politiker, Industrielle, Studenten und an der Luft- und Raumfahrt interessierte Bürger aus dem In- und Ausland.
Die DGLR ist auch die älteste wissenschaftlich-technische Vereinigung Deutschlands, die allen Bürgern, die sich privat oder beruflich mit Luft- und Raumfahrt beschäftigen, ein gemeinsames Forum bietet. Die DGLR sieht sich als Bindeglied und Kommunikationsstrang zwischen den einzelnen Disziplinen in der Luft- und Raumfahrt dienen und den nationalen und internationalen Erfahrungsaustausch zwischen Industrie, Behörden, Forschungsinstituten und Universitäten fördern.
Die Gesellschaft handelt unabhängig von einzelnen Interessensgruppen als Sprachrohr ihrer Mitglieder. Sie spiegelt die wissenschaftlichen, technischen, wirtschaftlichen und kulturellen Leistungen in der Öffentlichkeit wider und vertritt die Interessen der deutschen Luft- und Raumfahrt national und international.
Sie veranstaltet und beteiligt sich an Symposien, Fachtagungen, Diskussionsrunden und internationalen Veranstaltungen für einen guten Informations- und Erfahrungsaustausch sowohl innerhalb der Gesellschaft als auch außerhalb. Darüber hinaus fördert die DGLR den wissenschaftlich-technischen Nachwuchs mit verschiedenen Projekten in den Bereichen der Luft- und Raumfahrt. Sie veranstaltet Wettbewerbe und Seminare und bietet mit dem Nachwuchsportal skyfuture Studenten und Schülern eine direkte Anlaufstelle.
Eine teilrechtsfähige Anstalt des öffentlichen Rechts im Geschäftsbereich des Bundesministeriums für Verkehr, Bau und Stadtentwicklung. Der Deutsche Wetterdienst (DWD) ist für die Erfüllung der meteorologischen Erfordernisse aller Wirtschafts- und Gesellschaftsbereiche in Deutschland zuständig. Sein Aufgabengebiet basiert auf einem gesetzlichen Informations- und Forschungsauftrag, dem DWD-Gesetz. Zur Erfüllung seiner Aufgaben befasst sich der DWD in mehreren Abteilungen mit Fernerkundungsverfahren.
Das Deutsche Fernerkundungsdatenzentrum ist eine seit 1992 bestehende Einrichtung des DLR mit den Standorten in Oberpfaffenhofen bei München und Neustrelitz in Mecklenburg-Vorpommern. Zusammen mit dem Institut für Methodik der Fernerkundung (IMF) bildet das DFD das Earth Observation Center EOC – das Kompetenzzentrum für Erdbeobachtung in Deutschland.
Das DFD entwickelt und betreibt Bodensegmente für satellitengestützte Erderkundungsprogramme mit deutscher und internationaler Beteiligung. Hierzu gehören die daten- und informationstechnischen Empfangs-, Prozessierungs-, Archivierungs- und Zugriffssysteme. Sie sichern den kontinuierlichen Zugang zu den Daten- und Informationsprodukten der wichtigsten Erdbeobachtungssatelliten sowohl für wissenschaftliche als auch für kommerzielle Nutzer.
Mit geo-wissenschaftlichen Arbeiten zur Atmosphären-, Global-Change- und zivilen Sicherheitsforschung erschließt das DFD den Zugang zu Produkten und Lösungen der Fernerkundung und festigt somit deren Anwendung im privatwirtschaftlichen und wissenschaftlichen Umfeld. Es betreibt themenspezifische „User Services“, insbesondere das Weltdatenzentrum für Fernerkundung der Atmosphäre (WDC-RSAT) und das Zentrum für satellitengestützte Kriseninformation (ZKI).
Die Fachabteilungen des DFD:
Landoberfläche, Leiter: Dipl.-Geol. Andreas Müller
Atmosphäre, Leiter: Prof. Dr. Michael Bittner
Georisiken und zivile Sicherheit, Leiter: Prof. Dr.-Ing. Günter Strunz
Die Bodensegmentaufgaben werden begleitet durch Forschung und Entwicklung im Hinblick auf die Extraktion von geowissenschaftlicher Information aus den Primärdaten und die Entwicklung und Erzeugung von hochwertigen Fernerkundungsprodukten (value adding). In Kooperation mit Partnern aus Wissenschaft, Behörden und Industrie werden praxisnahe Anwendungen und Techniken erprobt, und im Rahmen von Technologietransfer-Projekten in die wirtschaftliche Nutzung überführt.
Engl. German Space Operations Center (GSOC); das Deutsche Raumfahrtkontrollzentrum des Deutschen Zentrums für Luft- und Raumfahrt (DLR) in Oberpfaffenhofen bei München ist seit 1969 für den Betrieb von Raumfahrzeugen verantwortlich, wobei es an zahlreichen unbemannten und bemannten Missionen maßgeblich beteiligt war und ist. In den vergangenen Jahren ist die Vorbereitung und Durchführung von Erdbeobachtungsmissionen als neuer Schwerpunkt hinzugekommen. So wurden seit dem Jahr 2000 die Satelliten CHAMP, BIRD und GRACE gestartet und betrieben. Am 15. Juni 2007 startete der deutsche Radarsatellit TerraSAR-X, der hochwertige Radardaten der Erdoberfläche liefert. Am 21. Juni 2010 kam der Radarsatellit TanDEM-X hinzu, der mit seinem Zwillingssatelliten TerraSAR-X im Formationsflug betrieben wird. Außerdem wird in Zukunft auch der Hyperspektralsatellit EnMAP von Oberpfaffenhofen aus gesteuert und überwacht.
Darüber hinaus übernimmt das Deutsche Raumfahrtkontrollzentrum die Durchführung von Betriebsaufgaben für das europäische Satelliten-Navigationssystem Galileo. Dabei wird es den Regelbetrieb der 30-Satelliten-Konstellation über mindestens 20 Jahre hinweg durchführen. Bei allen diesen Aufgaben sind hohe Sicherheitsstandards sowie die Verknüpfung einer Vielzahl komplizierter Betriebsabläufe von entscheidender Bedeutung.
Die Aufgaben des Deutschen Raumfahrtkontrollzentrums:
Das Deutsche Raumfahrtkontrollzentrum ist mit rund 300 Mitarbeiterinnen und Mitarbeitern die herausragende Raumfahrt-Einrichtung am DLR-Standort Oberpfaffenhofen. Es ist mit der Vorbereitung und Durchführung von nationalen und internationalen Raumfahrtmission auch das zentrale Element der Raumfahrtaktivitäten in Deutschland. In den vielfältigen bemannten und unbemannten Missionen ist es dabei zuständig für:
die Steuerung und Überwachung von Raumfahrzeugen, deren Sub-Systemen und von Experimenten an Bord,
die Kommunikation zwischen Raumfahrzeugen, Bodenstationen und Kontrollzentren,
die Verfolgung (Tracking) und Berechnung der Flug- und Umlaufbahnen,
die Planung und Ausführung von Korrekturen der Flug- und Umlaufbahnen,
den Empfang, die Verarbeitung, Verteilung und Auswertung von Daten,
die Missionsplanung, das heißt die Planung des Betriebsablaufs an Bord und am Boden.
Das Deutsche Raumfahrtkontrollzentrum handelt dabei im Rahmen der Zielsetzungen des nationalen Deutschen Raumfahrtprogramms. Dabei werden sowohl internationale Verpflichtungen (zum Beispiel in Projekten der Europäischen Weltraumorganisation ESA und bei dem Betrieb des Weltraumlabors Columbus auf der ISS) oder in Kooperationen (zum Beispiel beim Satellitenprojekt GRACE mit der amerikanischen Weltraumbehörde NASA) erfüllt, als auch Projekte im Bereich kommerzieller Systeme (wie zum Beispiel bei TV-SAT, DFS, EUTELSAT) realisiert. So werden kommerzielle, wissenschaftliche und bemannte Missionen am Deutschen Raumfahrtkontrollzentrum parallel durchgeführt.
Ab 2019 werden die ESA und das DLR ihre Kompetenzen bündeln: In den Bereichen Missionsbetrieb und Bodeninfrastruktur werden das Europäische Raumfahrtkontrollzentrum (ESOC) in Darmstadt und das Deutsche Raumfahrtkontrollzentrum (GSOC) Synergieeffekte nutzen und gemeinsam neue Konzepte, Technologien und Verfahren entwickeln. Die Unterzeichnung des Kooperationsvertrags erfolgte am 18. Dezember 2018 am DLR in Oberpfaffenhofen im Rahmen des "Interoperability Plenary" Treffens, welches Vertreter von weltweit 12 Raumfahrtagenturen zusammenführt.
Die Kooperation zwischen ESOC und GSOC umfasst insgesamt fünf Bereiche: Bodenkontrollsysteme, Bodenstationen, Sicherheit im Weltraum und On-Orbit Servicing, Post-ISS und Bemannte Raumfahrt sowie Allgemeine Zusammenarbeit. Im Bodensegment arbeiten beiden Kontrollzentren bereits an einer Software für den gemeinsamen Missionsbetrieb, der sogenannten "European Ground Systems Common Core" (EGS-CC). In der weiteren Planung ist unter anderen ein Projekt zur Entwicklung und zum Aufbau eines Netzwerks von optischen Bodenstationen, die Datenübertragungen per Laser ermöglichen. So können künftig Quantenschlüssel für eine sichere Kommunikation übertragen werden.
Das Deutsche Zentrum für Luft- und Raumfahrt ist das Forschungszentrum der Bundesrepublik Deutschland für Luft- und Raumfahrt. Darüber hinaus verknüpft es seine wissenschaftlichen Arbeiten und technischen Entwicklungen in diesen Bereichen mit seinen Kompetenzen in Energie, Verkehr, Sicherheit und Digitalisierung. Es besitzt eine Brückenfunktion zwischen Wissenschaft und Wirtschaft und bündelt seine Kräfte programmatisch in Netzwerken mit leistungsstarken Partnern im In- und Ausland. Über die Deutsche Raumfahrtagentur im DLR (vormals DLR Raumfahrtmanagement) mit ihren rund 350 Mitarbeitenden in Bonn ist das DLR im Auftrag der Bundesregierung für die Planung und Umsetzung der deutschen Raumfahrtaktivitäten zuständig. Zudem fungiert das DLR als Dachorganisation für einen der größten Projektträger Deutschlands.
Das DLR hat circa 10.300 Mitarbeitende (Stand Februar 2021). Es unterhält 55 Institute, Test- sowie Betriebseinrichtungen und ist an 30 Standorten vertreten: Köln (Sitz des Vorstands), Augsburg, Berlin, Bonn, Braunschweig, Bremen, Bremerhaven, Dresden, Göttingen, Hamburg, Jena, Jülich, Lampoldshausen, Neustrelitz, Oberpfaffenhofen, Oldenburg, Stade, Stuttgart, Trauen und Weilheim. Der größte Standort mit rund 1.800 Mitarbeitern ist Oberpfaffenhofen.Damit zählt das Gelände zu den größten Forschungszentren in Deutschland. Insgesamt 13 wissenschaftliche Einrichtungen und Institute sind auf dem Areal außerhalb von München beheimatet. Das DLR hat Verbindungsbüros in Brüssel, Paris, Tokio und Washington D.C.
Vor dem Hintergrund des Angriffskriegs auf die Ukraine hat der Vorstand des DLR folgende Beschlüsse getroffen:
Die Zusammenarbeit mit russischen Institutionen bei laufenden oder in Planung befindlichen Projekten wird gestoppt.
Es wird keine neuen Projekte oder Initiativen mit Institutionen in Russland geben.
Wo erforderlich tritt das DLR dazu in die nötigen Abstimmungen mit weiteren nationalen und internationalen Partnern ein.
Als größte Einrichtung der Helmholtz-Gemeinschaft Deutscher Forschungszentren steht das DLR im gesellschaftlichen Auftrag für die Forschungsbereiche Luftfahrt, Raumfahrt und Verkehr, aber auch im Forschungsbereich Energie liefert es wichtige Beiträge. Unter dem Namen Helmholtz sind große außeruniversitäre Forschungseinrichtungen Deutschlands zusammengeschlossen. Diese unterscheiden sich von den anderen außeruniversitären Forschungseinrichtungen wie der Max-Planck- und der Fraunhofer-Gesellschaft sowie der Leibniz-Gemeinschaft dadurch, dass sie zum einen Antworten auf die großen und drängenden Frage der gesellschaftlichen Entwicklung von Erde und Umwelt, Gesundheit, Energie, Struktur der Materie, Schlüsseltechnologien und eben Luftfahrt, Raumfahrt und Verkehr geben und zum anderen in der ganzen Breite von den Grundlagen bis zur Anwendung in Dienstleitungen und Produkten forschen und entwickeln.
Im Geschäftsjahr 2019 betrug der Etat des DLR für Forschung und Betrieb 1.155 Millionen Euro, davon waren 46 Prozent im Wettbewerb erworbene Drittmittel. Das vom DLR verwaltete zivile Raumfahrtbudget lag im Jahr 2019 bei insgesamt rund 1.511 Millionen Euro (ohne EUMETSAT und GRACE FO). Davon entfielen rund 933 Millionen Euro auf den deutschen ESA-Anteil. Der deutsche Beitrag zur Europäischen Weltraumorganisation ESA hatte demzufolge einen Anteil von 62 Prozent am gesamten Raumfahrtvolumen. Für das Nationale Raumfahrtprogramm (inklusive METimage und sonstige Ausgaben BMVI) wurden rund 303 Millionen Euro aufgewendet, was einen Anteil von 20 Prozent ausmacht. Für den FuT-Bereich lag das Volumen bei rund 275 Millionen Euro. Der Anteil des forschenden Raumfahrtbereichs am gesamten Raumfahrtbudget betrug somit 18 Prozent. Die Fördermittel des Projektträgers im DLR hatten ein Volumen von 1.540 Millionen Euro und des Projektträgers Luftfahrt von 178 Millionen Euro.
In Deutschland ist das DLR von der deutschen Bundesregierung für die Planung und Umsetzung der deutschen Raumfahrtaktivitäten beauftragt und ist als Projektträger für die Umsetzung von Förderprojekten verschiedener Ministerien der Bundesrepublik Deutschland (u. a. des BMBF, BMWi und des BMVI) zuständig. International arbeitet das DLR eng mit der NASA und der ESA, sowie mit militärischen Einrichtungen, etwa dem Air Force Research Laboratory der US-Luftwaffe zusammen.
Lage des StO Oberpfaffenhofen im Satellitenbild Quelle: DLR
Zum Film über den StO Oberpfaffenhofen hier klicken (Ladezeit!).
Das DLR fühlt sich ausdrücklich dem Prinzip des Open Access verpflichtet. Unter Open Access versteht man den entgeltfreien Zugang zu wissenschaftlichen Dokumenten im Internet. Ziele sind die maximale Verbreitung und die schnelle Verfügbarkeit wissenschaftlicher Information. Vorteile wie größere Sichtbarkeit und Zitierhäufigkeit von Publikationen sowie gute Auffindbarkeit durch Suchmaschinen liegen auf der Hand.
Seit März 2012 stehen alle Fotos und Videos, die vom DLR gemacht werden, unter einer Creative-Commons-Lizenz. Dies bedeutet, sie können unter bestimmten Bedingungen von jedem genutzt werden, um eigene Projekte zu bebildern. Für die Idee, dass öffentlich finanzierte Daten auch der Öffentlichkeit zur Verfügung stehen sollten, ist das ein großer Fortschritt. Die Bilder der NASA können schon seit Jahren von jedem unter einer freien Nutzungslizenz verwendet werden.
Bedeutende Erdbeobachtungsmissionen von DLR, ESA und EUMETSAT Quelle: DLR / IMF
Akronym für Deutsche Gesellschaft für Photogrammetrie, Fernerkundung und Geoinformation e.V.; Fachverband von Vermessungsingenieuren, Geodäten, Photogrammetern, Geoinformatikern und Fernerkundlern. Nach ihren eigenen Angaben sind die Ziele der DGPF:
Pflege und Förderung
der wissenschaftlichen und angewandten Photogrammetrie zur Lösung von Aufgaben im Vermessungswesen, in der Kartographie, im Bauwesen, im Bergbau, in der Automobil- und Luftfahrtindustrie, in der Medizintechnik und in anderen Gebieten zur berührungsfreien Vermessung;
der Fernerkundung und ihrer Anwendung in den Geowissenschaften, in der Land- und Forstwirtschaft, in der Landesplanung, im Umweltschutz, in der Archäologie u. a.;
der Geoinformatik und ihrer Anwendungsgebiete im geowissenschaftlichen Arbeitsbereich;
aller Techniken der Photogrammetrie und Fernerkundung zur Erfassung, Aufzeichnung, Verarbeitung und Darstellung von Bilddaten aus dem Nahbereich, dem Luftraum und dem Weltraum, insbesondere auch deren Einbindung in Raumbezogene Informationssysteme (GIS);
der Ausbildung an Hoch- und Fachhochschulen sowie der beruflichen Weiterbildung;
der Fortbildung ihrer Mitglieder durch Arbeitskreise, wissenschaftlich-technische Jahrestagungen und andere Veranstaltungen.
Fachwissenschaftliche Veröffentlichungen
Herausgabe der Zeitschrift Photogrammetrie - Fernerkundung - Geoinformation (PFG);
Herausgabe von Tagungsbänden in gedruckter Form und auf Datenträger mit den Vorträgen der wissenschaftlichen Jahrestagungen der Gesellschaft;
Veröffentlichung der Schriftenreihe Publikationen der Deutschen Gesellschaft für Photogrammetrie und Fernerkundung.
Erfahrungsaustausch und gegenseitige Anregungen
zwischen Wissenschaftlern und Praktikern;
durch Zusammenarbeit mit anderen Gesellschaften, Verbänden und Institutionen auf nationaler und internationaler Ebene;
durch interdisziplinäre Kooperation mit allen relevanten Fachgebieten;
durch Vergabe von nationalen und internationalen Preisen und Auszeichnungen.
Engl. Akronym für Dynamic Global Vegetation Model; Bezeichnung für ein Computerprogramm, das Verschiebungen der potentiellen Vegetation und der mit ihr verknüpften biogeochemischen und hydrologischen Kreisläufe als Reaktion auf Klimaveränderungen simuliert.
Satellitenmissionen der CNES aus den sechziger Jahren zur geodätischen Vermessungen mittels Laserentfernungsmessung. Die nicht-sonnensynchronen, elliptischen Umlaufbahnen in 1200 km Höhe hatten eine Inklination von 40°.
Parameter zur Beschreibung der elektrischen Eigenschaften eines Mediums. Das Reflexionsvermögen eine Fläche und das Eindringungsvermögen von Mikrowellen (Radar) in das Material wird von diesem Parameter bestimmt (festgelegt). Radarfernerkundungsmethoden haben den Vorteil einer beleuchtungs- und witterungsunabhängigen Aufzeichnung. Sie liefern andere Rückstreuinformationen als optische Daten, da sie in Medien eindringen und sensitiv für andere Oberflächenparameter wie dielektrische Eigenschaften sind. Die dielektrischen Eigenschaften z.B. von Vegetation oder von Böden sind im hohen Maße vom Pflanzenwassergehalt abhängig.
Vegetationsindex, der durch die Subtraktion der Reflexion im sichtbaren Rot-Bereich von der Reflexion im Nahen Infrarot ermittelt wird. DVI ist einfacher als NDVI, kann aber Messfehlern im Nahen Infrarot unterliegen.
Verfahren zur flächenhaften Erfassung von Bodenbewegungen. Hierzu werden Radarbilder hoher Auflösung ausgewertet, die mit der Synthetic Aperture Radar-Technik (SAR) erzeugt wurden. Aus zwei zu unterschiedlichen Zeitpunkten aufgenommenen komplexen SAR-Bildern wird im Zuge einer speziellen Prozessierung ein differentielles Interferogramm berechnet. Anhand dessen Phasendifferenz ist es möglich, die radiale Komponente der Geländedeformation zwischen den Aufnahmezeitpunkten beider Bilder zu bestimmen, wobei grundsätzlich auch Bewegungen in der Größenordnung weniger Millimeter erfasst werden können. Allerdings wird diese Genauigkeit aufgrund zweier Einflüsse oftmals nicht erreicht:
Durch Änderungen der Szene im Zeitraum zwischen den SAR-Aufnahmen dekorreliert das Signal, das heißt, dort kann aus der Phasendifferenz keine Information über die Geländebewegung gewonnen werden. Dieses Problem tritt vor allem in Vegetationsbereichen auf. Im Allgemeinen sinkt der Anteil der auswertbaren Fläche mit zunehmender Zeitspanne.
Das SAR-Prinzip fußt auf einer Zweiwege-Laufzeitmessung von aktiv ausgesandten Pulsen im Mikrowellenspektrum. Die Lichtgeschwindigkeit ist abhängig von den Materialeigenschaften des Mediums, insbesondere von dessen Brechungsindex. Für die Radarinterferometrie spielt daher der Wasserdampfgehalt der Troposphäre eine große Rolle: unterschiedliche atmosphärische Zustände während der Erfassung der SAR-Bilder können zu beachtlichen Änderungen der Laufzeit des Signals führen, die ebenfalls zur Phasendifferenz beitragen und im Extremfall den Bewegungsanteil völlig überlagern können.
Einsatzbereiche für Bewegungsdetektion sind zum Beispiel Überflutungsgefährdungen, Hochwasserschutz, Bergbau, Massenbewegungen (Hangrutschung), Senkungs- und Einsturzgefährdung (Altbergbau), Geländesenkungen (Erdgas- / -ölförderung, -speicherung in Salzkavernen).
Syn. Lambertsche Reflexion, engl. diffuse reflection, franz. réflexion diffusée; die Reflexionelektromagnetischer Energie an einem Objekt, gleichmäßig in alle Richtungen. DIN 18716 formuliert: "Zurückwerfen von gerichtet auffallender Strahlung von einer Oberfläche oder einem Medium ohne Vorzugsrichtung".
Wenn Licht auf die Oberfläche eines (nichtmetallischen) Materials trifft, wird es in alle Richtungen gestreut, bedingt durch die mehrfachen Reflexionen aufgrund der mikroskopischen Unregelmäßigkeiten innerhalb des Materials (z.B. die Korngrenzen eines polykristallinen Materials oder die Zell- oder Fasergrenzen von organischem Material) und durch die Materialoberfläche, wenn sie rau ist. Dieser Vorgang wird als diffuse Reflexion bezeichnet (vgl. Abb.). Die genaue Form der Reflexion ist von der Struktur des Materials abhängig.
Bezieht sich auf Ziffern (digits) oder die Art, wie sie dargestellt werden. Im Zusammenhang mit Computern wird der Begriff digital oft mit dem Begriff binär gleichgesetzt, weil die meisten bekannten Computer Informationen als codierte Kombinationen von binären Ziffern (Bits: binary bigits) verarbeiten. Ein Bit kann höchstens zwei Werte darstellen, zwei Bits können vier Werte repräsentieren, acht Bits 256 Werte usw. Werte zwischen zwei Zahlen werden entweder durch die höhere oder die niedrigere Zahl ausgedrückt. Da in der Digitaldarstellung ein Wert durch eine codierte Zahl repräsentiert wird, kann der darstellbare Zahlenbereich sehr umfangreich sein, wenngleich die Anzahl der möglichen Werte durch die Anzahl der verwendeten Bits begrenzt wird. (s. analog)
Digitales Bild
Ein Bild ist die ebene Widergabe eines realen Objekts. Bilder gibt es überall in unseren menschlichen Gesellschaften, z.B. Zeichnungen, Gemälde, Photos usw. Seit ca. 2 Dekaden überfluten uns digitale Bilder. Diese Bilder bestehen aus einer sehr großen Zahl kleiner Punkte, deren Farben oder Intensitäten durch Zahlenwerte definiert sind. Diese Punkte werden 'Pixel' genannt, eine Kontraktion aus 'picture' und 'element' (vgl. Abb.).
Dt.: Digitalzahl; ein Wert in der Fernerkundung, der für gewöhnlich innerhalb einer Skala zwischen 0 und 255 liegt und der durchschnittlich gemessenen Strahlung zugewiesen wird, die von einem Sensor aufgezeichnet wird.
Satellitenbilddaten liegen als Pixelraster mit diesen zugeordneten digitalen Werten (DN) in einem festgelegten Dynamikbereich vor, die einen Wert proportional zur Intensität der aufgenommenen elektromagnetischen Strahlung zugewiesen bekommen. Dieser Dynamikbereich liegt bei Landsat ETM 7 bei 8 bit, d.h. die DN können Werte zwischen 0 und 255 annehmen, wobei 0 die geringste und 255 die höchste Intensität darstellt.
Zur Visualisierung bietet sich die Kodierung dieser DN in Grauwerte an, so daß DN 0 mit Schwarz und DN 255 mit Weiß dargestellt wird. Die Zwischenwerte werden durch Grautöne dargestellt. Auf diese Weise kann ein Kanal einer Satellitenbildaufnahme dargestellt werden. Um mehrere Kanäle gleichzeitig abzubilden, muß eine Farbdarstellung erstellt werden. Dabei werden unterschiedliche Farbmodelle benutzt. Das gebräuchlichste ist das additive Farbmodell, das aus der Kombination der drei Grundfarben Rot, Grün und Blau (RGB) besteht. Durch additive Mischung dieser drei Primärfarben kann jede andere Farbe gemischt werden, einschließlich Schwarz und Weiß.
Engl. digital image, franz. image numérique; nach DIN 18716 "Signale, die in Form einer Bildmatrix aufgenommen und repräsentiert werden".
Digitale Bilddaten sind stets als eine Matrix von Zahlenwerten gegeben. Jedes Element der Matrix repräsentiert dabei einen kleinen quadratischen Bildausschnitt mit einem bestimmten Grauwert, bei Multispektraldaten mit mehreren Intensitätswerten. Der Ort des Elementes in der Matrix wird durch Zeilennummer und Spaltennummer gekennzeichnet. Die Bildinformationen liegen demnach in diskreten Zahlenwerten vor, die unmittelbar rechnerisch verarbeitet werden können. Mit dem menschlichen Auge können sie allerdings nicht direkt wahrgenommen werden.
Die primäre Form der Datenspeicherung bei der Aufnahme muss jedoch nicht die endgültige sein. Es kommt im Gegenteil häufig vor, dass die Bilddaten im Rahmen der Verarbeitung und Auswertung von einer Speicherform in die andere überführt werden. Deshalb ist es möglich, jede Art von Auswertetechnik auf jede Art von Bilddaten anzuwenden. Außerdem können die Ergebnisse rechnerischer Prozesse sichtbar gemacht werden, z.B. auf dem Monitor eines Rechners. Die erforderlichen Vorgänge, mit denen die Transformationen von der analogen in die digitale Form und umgekehrt erzielt werden, nennt man Analog-Digital-Wandlung bzw. Digital-Analog-Wandlung.
Durch Analog-Digital-Wandlung (Digitalisierung) kann ein photographisches (analoges) Bild in eine Matrix von diskreten (digitalen) Grauwerten, also in ein geordnetes Feld von Bildelementen (Pixeln), umgewandelt werden.
Syn. digitale Bildauswertung, engl. digital image processing, franz. traitement d'image numérique; Gesamtheit der Verfahren, durch die ein digitalesBild rechnerisch in ein verändertes digitales Bild überführt wird, einschließlich der Verfahren zur Datenkompression, Bildverbesserung, Filterung, Rektifikation, Klassifikation und Mustererkennung. Damit kann sich die Veränderung auf die geometrischen und/oder die radiometrischen Bildeigenschaften beziehen oder eben das Ergebnis einer Klassifizierung sein.
Die dabei verwendeten Verfahren zielen darauf ab, den Bildinhalt durch automatische Verfahren für den Bearbeiter deutlich sichtbar zu machen, bzw. bestimmte Informationsgehalte hervorzuheben oder zu extrahieren.
Mögliche Anwendungsbereiche:
Fernerkundung (terrestrische und marine Ökosysteme)
Eine Grundfunktion von rasterbasierten Bildverarbeitungssystemen zur Veränderung von Bildstrukturen, die sich nicht in den Grauwerten einzelner Pixel, sondern in den Grauwertrelationen benachbarter Pixel ausdrücken. Grundsätzlich dient als Filter eine Koeffizientenmatrix, mit deren Hilfe ein kleiner Bereich des Eingabebildes auf einem einzelnen Bildpunkt des Ausgabebildes abgebildet wird. Der Filter muß dann über das ganze Bild 'laufen' und das Eingabebild mathematisch 'falten'.
Digitale Filterung - Schematische Darstellung
Für jedes Element des Ausgabebildes wird ein Grauwert berechnet, indem man die Werte eines kleinen Bereiches des Eingabebildes mit den Koeffizienten der 'Filtermatrix' (in der Abb. die 3 x 3 Elemente f1 bis f9) multipliziert und aufaddiert. In der Regel ist das Ergebnis auf die Grauwertskala zwischen 0 und 255 zu normieren. Für die Randelemente kann die Operation nicht durchgeführt werden. Deshalb ist das Ausgabebild etwas kleiner als das Eingabebild. (vgl. Abb.)
Die Wirkungsweise von Filtern kann sehr verschieden sein. Viele Bildverarbeitungssysteme bieten aber eine Reihe von Standardfiltern an, zu denen sich zusätzlich weitere Filter interaktiv editieren lassen.
Für die digitale Filterung ergeben sich erfahrungsgemäß vier Hauptanwendungsgebiete:
allgemeine Bildverbesserung
Bildentzerrung
Extraktion von geometrischen Bildinhalten
Mustererkennung
Filter haben immer die Aufgabe, Erwünschtes von Unerwünschtem zu trennen. Ihre Wirkungsweise kann sehr verschieden sein und hängt von der Größe der Filtermatrix und von den gewählten Koeffizienten ab. Für die Praxis der Fernerkundung sind Hochpassfilter und Tiefpassfilter besonders wichtig.
Digitale Zwillinge sind detailgenaue Virtualisierungen physischer Objekte und Systeme. Diese werden in technischen Bereichen bereits für Aufgaben wie Maschinenoptimierung und Hafenmanagement eingesetzt. Im Rahmen der Erdsystemwissenschaft werden digitale Zwillinge die Entwicklung von Szenarien für künftige Zustände und Veränderungen des Erdsystems, die Einschätzung der möglichen Resultate und Risiken vorgeschlagener Maßnahmen und die Erarbeitung von Optionen für nachhaltige Pfade ermöglichen.
Das Konzept der digitalen Zwillinge gewinnt in der Geowissenschaft zunehmend an Bedeutung, insbesondere als Möglichkeit der intuitiven Bündelung von und des einfachen Zugriffs auf Umweltdaten, -modelle und -simulationen. Ein gut konstruierter digitaler Zwilling der Erde wird es einem breiteren Nutzerkreis ermöglichen, mit digitalen Ressourcen zu interagieren, um gegenwärtige und künftige Szenarien zu erforschen, insbesondere in Bezug auf die Interaktion des Menschen mit dem Erdsystem.
Auf Grundlage von Daten, Simulationen und KI-Methoden modellieren sie die Prozesse der realen Welt so exakt wie möglich und haben das Ziel, eine hochpräzise Nachbildung des Klimas, der Umwelt oder Mobilität in der digitalen Welt zu erzeugen. Führt man zum Beispiel bestimmte Umweltparameter wie Temperatur, Niederschlag und aktuelle Landbedeckungsdaten in einem digitalen Klimazwilling zusammen, dann könnte er vorhersagen, welche Regionen der Erde zu einem bestimmten Zeitpunkt besonders von Dürren oder Starkniederschlägen betroffen sind – ein wichtiges Thema auf der Weltklimakonferenz COP27 in Sharm El Sheikh. Der Programmvorschlag Earth Watch – Digital Twin Earth hat zum Ziel, verschiedene digitalen Zwillinge auf Grundlage von Erdbeobachtungdaten zu entwickeln und in einer offenen Plattform zugänglich zu machen. Durch diese neuartige Verknüpfung von Daten und die Nutzung von Methoden wie der Künstlichen Intelligenz, kann Digital Twin Earth Szenarien der Zukunft unserer Erde modellieren und einen wichtigen Beitrag zur Bekämpfung des Klimawandels leisten.
Die Entwicklung eines digitalen Zwillings der Erde erfordert internationales Engagement und entsprechende Ressourcen, denn die massive Generierung numerischer Daten sowie deren Verarbeitung und Speicherung ist eine Aufgabe, die nur mit internationalen Bemühungen zu bewältigen ist. Das Ergebnis wird es den Nutzern ermöglichen, eine Familie von anwendungsorientierten digitalen Zwillingen zu schaffen, die gemeinsam Zugriff auf eine Vielzahl von Erdsystemdaten, Vorhersagesystemen und Prognosen hätten.
Da im gesamten „digitalen Ökosystem“ der Erde immer mehr digitale Zwillinge entstehen werden, ist es von entscheidender Bedeutung, dass wir einen Rahmen schaffen, der ihre Interoperabilität gewährleistet. Durch einen solchen Rahmen von digitalen Zwillingen können Prognose- und Vorhersagekapazitäten schneller vergrößert und zusammengeführt werden, um notwendige Entscheidungen durch die Erforschung von „Was wäre, wenn“-Szenarien wissenschaftlich fundiert zu unterstützen.
Grafik: Konzept des „Digitalen Zwillings“ des Erdsystems
Die folgende Grafik veranschaulicht das Konzept des „Digitalen Zwillings“ des Erdsystems. Ein digitaler Zwilling des Erdsystems ist ein virtuelles Modell, das das echte Erdsystem akkurat abbildet. Das zu untersuchende Subsystem – z. B. das Erdoberfächensystem – wird mit verschiedenen Sensoren ausgestattet, die die wichtgen Feedback-Parameter registrieren. Diese Sensoren liefern Daten zu verschiedenen Funktionen des Subsystems wie Materie- und Energiekreisläufen, Klima-Biosphäre-Geosphäre-Rückkopplungen und vielem mehr. Die Daten werden dann an ein Verarbeitungssystem weitergeleitet und auf die digitale Kopie übertragen.
Sobald solche Daten verfügbar sind, kann das virtuelle Modell für Simulatonen, die Untersuchung von Wechselwirkungen, die Ermittlung von Schwellen und die Ausarbeitung möglicher Trajektorien verwendet werden. Die so gewonnenen wertvollen Erkenntnisse werden dann wieder auf das physische Originalobjekt zurückübertragen und können zur Entwicklung möglicher Lösungen genutzt werden.
Konzept des „Digitalen Zwillings“ des Erdsystems Quelle: Leopoldina 2022
Europa
Destination Earth (DestinE) ist eine neue EU-Initiative im Rahmen des EU-Programms Digital Europe. Die Initiative Destination Earth zielt darauf ab, sehr präzise digitale Modelle der Erde („Digitaler Zwilling der Erde“) zu entwickeln, um natürliche und menschliche Aktivitäten zu überwachen und zu simulieren. Ziel ist der Aufbau eines digitalen Zwillings der Erde bis Ende des Jahrzehnts, der High Performance Computing (HPC), Big Data (Erdbeobachtung, aber auch viele andere Umweltdaten), KI und Erdsystemmodelle verbindet und hochskaliert. Damit sollen europäische Entscheidungsträger in Politik und Wirtschaft bei den Überlegungen zu Klima- und umweltbezogenen Fragestellungen (What-If-Szenarien) unterstützt werden.
Ein hochauflösendes, digitales Abbild Deutschlands soll Behörden dabei unterstützen, aktuelle Herausforderungen wie Klimawandel, steigender Flächenverbrauch oder soziodemografischer Wandel adäquat und ganzheitlich anzugehen. Als Ausgangsbasis wird ein einheitliches und für Deutschland flächendeckendes hochpräzises 3D-Modell auf Basis modernster, luftgestützter Laserscan-Technologie entwickelt. Die geplante Laserscan-Befliegung soll einen Datensatz mit einer Auflösung von mindestens 40 Punkten pro Quadratmeter liefern. Die 3D-Daten werden in einem nächsten Schritt in einer cloudbasierten Datenhaltungs- und Analyseplattform mit anderen Basis- und Fachdaten verknüpft.
Als zentraler Geodatenbroker des Bundes will das BKG vorrangig der Bundesverwaltung neueste technische Möglichkeiten im Bereich des Geoinformationswesens erschließen und anbieten. Das Vorhaben soll darüber hinaus die Interoperabilität, den Austausch und die intensive Zusammenarbeit zwischen den Stellen des Bundes und deren Partnern auf Länder- und Kommunalebene fördern. Das BKG folgt mit diesem Vorhaben einer Initiative der Europäischen Kommission, die ihrerseits einen Digitalen Zwilling für die gesamte Erde entwickelt.
Der Digitale Zwilling Deutschland setzt sich aus Geodaten und weiteren Geofachdaten zusammen. Er basiert auf einem hochpräzisen 3D-Modell, das mit modernster, luftgestützter Laserscan-Technologie aufgenommen wird. Die Ergänzung durch Satellitendaten und Echtzeitdaten, die mit Methoden der Künstlichen Intelligenz (KI) ausgewertet werden, steigern die Qualität weiter. Mit KI-Methoden können beispielsweise Objekte aus den Rohdaten der Befliegung maschinell abgeleitet und klassifiziert werden.
Engl. digital image, franz. image numérisée; regelmäßige, flächenhafte Anordnung (Raster-Matrix) von Pixeln, in der die von Sensoren erfassten Strahlungsintensitäten als sog. Grauwerte erfasst sind.
Die vom Datenlieferanten gelieferten Rohdaten oder systemkorrigierten Daten sind zumeist für eine Analyse und Auswertung noch nicht geeignet. In der Regel müssen die Daten weiter aufbereitet und verbessert werden. So liegen die Daten noch nicht in dem gewünschten räumlichen Bezugssystem vor oder die reinen Grauwerte müssen erst in physikalische Einheiten konvertiert werden.
In der Fernerkundung werden durch digitale Aufnahmesysteme keine "Bilder" wie in der analogen Photographie mit Kameras auf Film aufgenommen. Stattdessen werden durch die Scannersysteme für jeden Aufnahmekanal getrennte Zahlenmatrizen erfasst. So erzeugen die Informationen aus jedem Spektralband ein diskretes Bild der überstrichenen Bodenspur unterhalb des Raum- oder Luftfahrzeugs. Jedes Bild setzt sich aus Pixeln zusammen, das mit den Quadraten auf einem Schachbrett verglichen werden kann. Die individuellen Pixelwerte (Zahlen, die die relative Helligkeit jedes Punktes repräsentieren) werden zu einer Empfangsstation auf der Erde übertragen, um dann die Reihen und Zahlen einer numerischen Matrix zu bilden, aus der jede Szene besteht. Pixel mit hohen Werten erscheinen hell, solche mit niedrigen Werten dunkel. Bei SW-Bildern handelt es sich dabei um Grauwerte.
Erst bei der Wiedergabe dieser Zahlenwerte über ein Ausgabegerät entstehen Bilder. So wird bei der Umsetzung der Zahlenwerte nur eines einzelnen Kanals ein Graustufenbild erzeugt, bei dem der Wert 0 der Farbe Schwarz, der Wert 255 der Farbe Weiß zugeordnet wird und die zwischenliegenden Werte entsprechend abgestufte Grautöne erhalten. Daraus leitet sich auch der Begriff Grauwerte für die Zahlenwerte eines Kanals ab. Das entstehende Bild ist allerdings nicht mit einem Schwarz-Weiß-Bild in der Photographie vergleichbar.
Digitale Bilder werden als Abfolge numerischer Werte erstellt, wobei jeder Wert die Menge an Energie repräsentiert, die von einer Flächeneinheit auf der Erdoberfläche ausgestrahlt oder reflektiert wird. Diese Bilder werden in getrennten Spektralbändern aufgenommen, die sowohl den Spektralbereich üblichen Filmmaterials abdecken, als auch darüber hinausgehen. Digitale Bilder können auch durch (nachträgliche) Digitalisierung eines analogen Bildes erzeugt werden.
Farbbilder am Monitor bzw. auf einem Drucker entstehen durch additive bzw. subtraktive Farbmischung von drei Grundfarben. Entsprechend können multispektrale Daten umgesetzt werden, indem die erfassten Spektralbereiche, d.h. die Grauwerte eines Kanals, jeweils einer Grundfarbe eines Monitors bzw. eines Druckers zugeordnet werden, wobei aber nur Kombinationen von drei Aufnahmekanälen bzw. Ausgabefarben möglich sind. Beispielsweise kann beim Aufnahmesystem Thematic Mapper des Landsat 5 durch Zuordnung von Kanal 1 (sichtbares Blau) zur Monitorfarbe Blau, von Kanal 2 (sichtbares Grün) zur Monitorfarbe Grün und von Kanal 3 (sichtbares Rot) zur Monitorfarbe Rot ein angenähertes "Echtfarbenbild" erzeugt werden. Darüber hinaus sind andere Kanalkombinationen üblich, so dass die besonderen Eigenschaften der erfassten Objekte sichtbar werden, die sich in der Reflexion in unterschiedlichen Spektralbereichen widerspiegeln.
Die für das menschliche Auge nicht sichtbaren Spektralbereiche werden somit durch sogenannte Falschfarben dargestellt. Falls beim Thematic Mapper die Zuordnung von Kanal 2 (sichtbares Grün) zur Monitorfarbe Blau, von Kanal 3 (sichtbares Rot) zur Monitorfarbe Grün und von Kanal 4 (nahes Infrarot) zur Monitorfarbe Rot gewählt wird, entsteht die übliche Falschfarben-Infrarotdarstellung. Das Farbbild am Monitor ist somit nicht mit einer Farbfotographie zu verwechseln. Stattdessen wird hier der Begriff Farbkomposit benutzt.
Zu beachten ist insbesondere, dass jede Farbe Träger einer besonderen Information ist. So präsentiert die Intensität einer Farbe die Einstrahlungsintensität eines Ausschnitts aus dem elektromagnetischen Spektrum am Sensor. Die Farbe Rot kann dann z.B. die am Sensor eintreffende Intensität des nicht sichtbaren Infrarots visualisieren.
Das große Bild zeigt eine mit dem Thematic Mapper eines Landsat aufgenommene Szene von Washington D.C., einschließlich der Flüsse Potomac und Anacostia. Der Rahmen markiert das Gebiet um das U.S. Capitol, das unten vergrößert ist. Für dieses Gebiet werden Digitalaufnahmen unterschiedlicher Spektralbänder kombiniert, Ergebnis ist ein Falschfarbenbild. Die Farben werden als "falsch" bezeichnet, weil jede Primärfarbe jedem Band zugeordnet werden kann. So kann Vegetation durch ihre Zuordnung zu einem Nahinfrarot-Band rot dargestellt werden. Vegetation reflektiert im nahen Infrarot sehr stark und hat deshalb hohe Helligkeitswerte in diesem Band.
Engl. digital terrain model (DTM), franz. modèle numérique de terrain; in der Geodäsie und Kartographie verwendete digitale Informationen, in denen räumliche Koordinaten eines Ausschnitts der Erdoberfläche gespeichert sind.
DIN 18716 definiert: [Ein] "Datensatz von Höhenwerten und weiteren Linienelementen (z.B. Bruchkanten), die einem übergeordneten Koordinatensystem zugeordnet sind, die die Geländestruktur hinreichend repräsentieren".
Das digitale Geländemodell findet u. a. Verwendung bei der automatisierten Kartenherstellung (z. B. Schummerungs- und Reliefkarten). In der Luftbildaufnahmetechnik stellt das digitale Geländemodell als Grundlage zur Erstellung von Orthogonalprojektionen einen deutlichen Fortschritt dar. Einfache Luftbilder entstehen aus der Zentralprojektion, die durch parallaktische Verschiebungen Lagefehler aufweist. Diese Lagefehler entstehen durch stärkere Höhenunterschiede im Gelände und durch größere Abstände zum Bildnadir, dem senkrecht über dem Mittelpunkt des Bildes gelegenen Punkt. Die Orthophototechnik bietet die Möglichkeit, Aufnahmen aus der Zentralprojektion differentiell zu entzerren und in orthogonal projezierte, photogrammetrische Luftbilder umzuwandeln. Durch die Entwicklung dieser Technik um 1960 konnten bereits alle Erdteile mittels der Orthoprojektion auf Luftbildkarten aufgenommen werden.
In den Geowissenschaften wird eine Verknüpfung des digitalen Geländemodells mit anderen Datensystemen, z. B. Geographischen Informationssystemen (GIS), digitalen Fernerkundungsdaten sowie thematischen Karten unterschiedlichster Inhalte praktiziert. Hierbei ist ein einheitliches geometrisches Bezugssystem erforderlich.
Datenerfassung für Digitale Geländemodelle
Daten werden mit einem Datenerfassungsgerät erfasst, einem Gerät zur Analog-Digital-Wandlung (A/D-Wandlung) von Karten-, Bild- oder Modellkoordinaten und deren Codierung. Die registrierten Daten werden am Datenerfassungsgerät aufbereitet, in Datenverarbeitungsnetze übergeleitet oder auf Datenträger ausgegeben. (vgl. Grafik)
Engl. digital elevation model (DEM), franz. modèle numérique d'élévation, modèle numérique altimétrique; digitale Darstellung der Topographie, meist in Form eines regelmäßig angeordneten Punktrasters, in dem die einzelnen Punkte die Höhenwerte repräsentieren. Durch diese z-Werte sind eine dreidimensionale Darstellung und eine quantitative Analyse der Erdoberfläche möglich.
DIN 18716 definiert: ein "Datensatz von Höhenwerten, die einem übergeordneten Koordinatensystem zugeordnet sind, die die Höhenstruktur des Objektes, z. B. des Geländes, hinreichend repräsentieren", ergänzt mit der Anmerkung: "Digitales Höhenmodell dient als Oberbegriff für digitales Geländemodell (DGM) und digitales Oberflächenmodell (DOM). Es kann aus originären Messdaten (primäres Modell) oder aus abgeleiteten Daten (sekundäres Modell) bestehen".
DHM werden in einer Vielzahl von Disziplinen benötigt. Einige Stichworte sollen das Anwendungsspektrum umreissen: hydrologische Modellierung, Wasserwirtschaft, GPS-Navigation, Planung terrestrischer Mobilfunknetze, Rohstoffexploration, Infrastrukturplanung, Planung von Großanlagen wie Flughäfen und Staudämmen, Militär, Flugführung, Katastrophenschutz, -vorsorge, Wetter- und Klimamodellierung, Geländekorrektur von Fernerkundungsdaten durch Geokodierung u.w.
Meist erfolgt die Erstellung von DHM durch Auswertung von Stereoaufnahmen optischer Systeme. Es ist gewöhnlich eine Luftbild-Photogrammetrie, die zwar hochwertige DHMs liefern, für globale Anwendungen aber zu langwierig und aufwändig sind. Satellitengestützte optische Stereoverfahren andererseits sind auf wolkenlose Sicht angewiesen. Insbesondere gibt es ein Defizit an präzisen DHMs für Afrika, Asien und Südamerika. Aber auch für höher entwickelte Länder sind die derzeitigen digitalen Höhendaten häufig örtlich inhomogen, da aus unterschiedlichen Quellen stammend, mit unterschiedlichen Verfahren gewonnen oder auch auf unterschiedliche Referenzsysteme bezogen.
Völlig neue Möglichkeiten bieten abbildende Radarsysteme. Die dabei eingesetzte Methode der Radarinterferometrie ermöglicht die weltweite Generierung von Höhenmodellen in hoher und homogener Qualität. Beispiele sind die Ergebnisse, die aus Daten von den ERS-Satelliten und der Shuttle Radar Topography Mission gewonnen wurden. Diese aktiven Mikrowellenabbildungsverfahren sind unabhängig von Tageszeit und Bewölkung.
Die Interferometrie bedient sich der Phaseninformation einer Mikrowelle. Wenn zwei Wellen mit der gleichen Wellenlänge ausgesandt werden, wobei eine mit einem leichten Versatz emittiert wird, bekommt man eine Phasendifferenz zwischen den beiden Wellen. Dieser Abstand zwischen den Wellen kann durch 2 Antennen auf der gleichen Plattform oder durch zwei unterschiedliche Umlaufbahnen erreicht werden. Die Messung der Phasendifferenz der beiden zurückgestrahlten Wellen erlaubt es, Entfernungsunterschiede vom Bruchteil einer Wellenlänge (cm) zu ermitteln. Daraus können Geländemodelle errechnet werden, aber auch zeitliche Veränderungen im mm- und cm-Bereich (Gletscherbewegung, Vulkanismus, Hangrutschungen, Erdbeben, Senkungen usw.) erfasst werden. Die Darstellung erfolgt in sogenannten Interferogrammen (s. Abb. oben).
Kilimandscharo (5.895 m)
Der Kilimandscharo ist der höchste Berg Afrikas. Seine Höhe von fast 6 km über NN beschert ihm eine permanente Schneebedeckung, obwohl er nur 330 km südlich des Äquators liegt. Er ist der höchste freistehende Berg der irdischen Landfläche, und er überragt die ihn umgebende Ebene um ca. 4.600 m. Der Kilimandscharo besitzt drei Vulkankuppen, die vermutlich vor über 100.000 Jahren zuletzt ausgebrochen sind. Aber noch immer entweichen ihm vulkanische Gase. Er ist umrahmt von 20 weiteren Vulkanen. Der Mount Meru war zuletzt vor ca. 100 Jahren ausgebrochen. Die Berghänge mit ihren Böden aus Vulkangestein sind gewöhnlich fruchtbar und tragen dichte Wälder, wohingegen die viel trockeneren Ebenen eine Savannenvegetation besitzen. Die überhöhte 3-D-Darstellung wurde durch die Kombination von topographischen Daten der SRTM-Mission mit einem Bild von Landsat-7 erzeugt. Ein künstlicher Himmel wurde zugefügt.
Das Digitale Landbedeckungsmodell (LBM-DE2018) beschreibt die topographischen Objekte der Landschaft im Vektorformat unter dem Aspekt der Landbedeckung (LB) und Landnutzung (LN). Zweck des LBM-DE ist es, den Zustand der Umwelt zu einem bestimmten Zeitpunkt festzuhalten. Im Hinblick auf die Aktualität der Daten handelt es sich beim LBM-DE um einen intervallartig (3- jährig) erhobenen Datensatz, welcher räumlich vollständig und zeitlich bezogen auf ein bestimmtes Referenzjahr aktualisiert wird. Ein Vergleich der bisher erhobenen Datensätze des LBM-DE erlaubt es, kurz- und längerfristige Änderungen in der Landschaft zu beobachten und nach unterschiedlichen Gesichtspunkten zu analysieren. Der Datenbestand des LBM-DE liegt in einer flachen, topologisch sauberen Struktur vor, d.h. ohne Überlappungen (overlaps) und Lücken (gaps). Die vorliegenden Daten des LBM-DE2018 haben eine DIN-basierte Qualitätskontrolle im Stichprobenverfahren, durchgeführt am BKG, durchlaufen. Hauptanwendungsziel des LBM-DE ist die Ableitung des Datensatzes CORINE Land Cover (CLC) für das Gebiet der Bundesrepublik Deutschland. Damit stellt das BKG, beauftragt durch das Umweltbundesamt (UBA), den nationalen Beitrag für CLC im Rahmen des europäischen Copernicus Landüberwachungs-Dienstes her. Die Abgabe eines CLC-Datensatzes an die europäische Umweltagentur erfolgt seit 2000 im Abstand von 6 Jahren – zuletzt 2018. Die Ableitung von CLC-Klassen aus dem LBM-DE-Datensatz wird mittels Kreuztabelle durch die Kombination von Landbedeckung und Landnutzung unter Berücksichtigung von Vegetationsanteil und Versiegelungsgrad durchgeführt.
Datenquellen
Für die Fertigstellung des LBM-DE wurden ursprünglich die im ATKIS® Basis-DLM vorhandenen Landbedeckungs- und Landnutzungsinformationen zum Bezugsjahr 2012 in ein neues Klassensystem überführt, wobei Landbedeckung und Landnutzung getrennt voneinander beschrieben wurden. Dieser Datensatz wurde durch Abgleich mit Satellitenbilddaten zum LBMDE2012 und zum Stichjahr 2015 durch erneute Aktualisierung auf Grundlage von Satellitenbilddaten zum LBM-DE2015 aktualisiert. Letzteres bildet die Hauptgrundlage für das LBM-DE2018.
Für die Fertigstellung des LBM-DE wurden ursprünglich die im ATKIS® Basis-DLM vorhandenen Landbedeckungs- und Landnutzungsinformationen zum Bezugsjahr 2012 in ein neues Klassensystem überführt, wobei Landbedeckung und Landnutzung getrennt voneinander beschrieben wurden. Dieser Datensatz wurde durch Abgleich mit Satellitenbilddaten zum LBMDE2012 und zum Stichjahr 2015 durch erneute Aktualisierung auf Grundlage von Satellitenbilddaten zum LBM-DE2015 aktualisiert. Letzteres bildet die Hauptgrundlage für das LBM-DE2018. Für die Aktualisierung zum Bezugsjahr 2018 wurde das ATKIS® Basis-DLM mit Stand 2017 als Vektordatenquelle und Satellitenbilddaten aus 2017 und 2018 als Rasterdatenquelle verwendet. Landbedeckung und Landnutzung (LB/LN-Klassen) des LBM-DE2015 wurden aktualisiert und weiterhin für jedes Objekt ein Versiegelungs- und Vegetationsgrad bestimmt. Anhand dieser Attribute ist eine anschließende eindeutige Ableitung der „CLC-Klassen“ des pan-europäischen Datensatzes CORINE Land Cover möglich.
Seit der europaweiten Aktualisierung für das Bezugsjahr 2012 ist CLC ein Bestandteil des Copernicus Landdienstes. Erstmalig wurde für Deutschland ein hochauflösendes CLC2012 mit 1 ha MKE aus dem LBM-DE erfolgreich abgeleitet. Neben diesem Lizenzprodukt stehen nach Open Data Standards CLC2012-Datensätze mit 10 ha und 25 ha MKE zur Verfügung. Aktuell ist die nationale Ableitung des CLC aus dem LBM-DE im 3-Jahreszyklus geplant. Das CLC2015 befindet sich in der Umsetzung. Die nächste europaweite Aktualisierung soll für das Bezugsjahr 2018 erfolgen.
CLC2012 - Dessau-Roßlau
CLC2012 für Dessau-Roßlau in 25 ha, 10 ha und 1 ha Mindestkartiereinheiten
Zum Einsatz kam Bildmaterial der Systeme RapidEye mit fünf Meter Bodenpixelauflösung und fünf Spektralkanälen sowie DMC (Disaster Monitoring Constellation) mit 32 Meter Bodenpixelauflösung und drei Spektralkanälen. Für DMC-Daten waren zwei getrennte Aufnahmezeitfenster vorgesehen, für RapidEye ein drittes.
Neben den Hauptinformationsquellen der Satellitenbilddaten wurden noch weitere Datenquellen hinzugezogen, wie etwa topographische Karten, digitale Orthophotos oder älteres Satellitenbildmaterial (pan-europäisches Mosaik IMAGE2006).
Weiterhin stand Satellitenbildmaterial aus dem europäischen Erdbeobachtungsprogramm Copernicus zur Verfügung. Durch den Start der Copernicus-Satelliten Sentinel 1 und 2 verbessert sich zukünftig die Verfügbarkeit von Sensor- und Bilddaten. Diese werden der Verwaltung, Wirtschaft, Forschung und dem Bürger kostenfrei angeboten, sodass ein weiter Nutzerkreis von diesen Daten profitieren kann. Da diese Bilddaten bestenfalls etwa alle sechs Tage erfasst werden, bieten sie die Möglichkeit die thematische Genauigkeit der Auswertung zu steigern.
Da das Klassifikationssystem von Corine Land Cover keine Trennung der Landbedeckung und -nutzung vorsieht, kommt es im Erfassungsprozess zu Entscheidungen, die auf weitreichenden Interpretationen des Bildmaterials beruhen. Die Folge sind Fehlklassifizierungen, die einer hohen thematischen Genauigkeit des Datensatzes entgegenstehen. Weiterhin wird auch durch die INSPIRE-Richtlinie, welche die Schaffung einer europäischen Geodaten-Basis mit integrierten raumbezogenen Informationsdiensten vorsieht, die getrennte Erfassung der Landbedeckung und -nutzung gefordert. Zum Stichjahr 2009 wurden die Daten für das LBM-DE direkt in der CLC-Nomenklatur der Bodenbedeckungen, also der Einteilung in bebaute Flächen, landwirtschaftliche Flächen etc., erfasst. Um INSPIRE-konforme Daten zu erzeugen, änderte das BKG für das Stichjahr 2012 die Klassifikation des Landbedeckungsmodells so ab, dass Bedeckung und Nutzung seitdem getrennt erfasst werden. Die Landbedeckung lässt sich auf Grundlage der Satellitenbilder aktualisieren, die Landnutzung wird dem Basis-DLM entnommen. Die Kombination von Landbedeckung und Landnutzung wird anschließend in CLC-Klassen übersetzt, sodass eine breite Verwendbarkeit der Daten gewährleistet ist.
Landbedeckungsmodelle können vielseitig zum Einsatz kommen. In der Bundesverwaltung finden sie zahlreiche Abnehmer, wie zum Beispiel das Umweltbundesamt oder die Bundesanstalt für Gewässerkunde, die unterschiedlichste Aufgaben auf dieser hochgenauen Grundlage erfüllen. Auch der Verwaltungsbereich, der sich mit Umweltfragen beschäftigt, hat ein starkes Interesse daran, Umweltveränderungen kontinuierlich zu erfassen. Weiterhin spielen Raumplanung, Landentwicklung, Flächenstatistik und Forschungen für Natur und Umwelt eine große Rolle. Für das europäische Umweltmonitoring wird der Datensatz in Form der Corine Land Cover-Daten genutzt.
Engl. digital landscape model, franz. modèle numériquetopographique;
Ein Primärmodell, entstanden durch Modellierung (z.B. Abstraktion, Typisierung) aus der Landschaft, der Realität. Die Abbildungsregeln können formal definiert und abgelegt sein; sie dienen dann der Umsetzung in Datenbankmodelle.
Datenbestand zur grundriss- und höhenmäßigen Beschreibung des Geländes. Ein digitales Landschaftsmodell ist die Zusammenfassung eines digitalen Lagemodells und eines digitalen Geländemodells.
Modellkomponente im deutschen Amtlichen Topographisch-Kartographische Informationssystem (ATKIS-DLM) mit herausgehobener Bedeutung. Hier beinhaltet das DLM die in ATKIS geführten Landschaftsbestandteile in vektorieller Form. Die Beschreibung der Topographie erfolgt in einem Objektartenkatalog (OBAK) nach bundesweit einheitlichen Richtlinien. Erfasst werden z.B. Straßen, Flughäfen, Eisenbahnen, Wege, Gewässer und administrative Grenzen. Darüber hinaus sind wertvolle Landnutzungsinformationen ebenso enthalten wie exponierte Einzelobjekte (z. B. Strommasten), geographische Namen und Bezeichnungen. Es werden verschiedene Landschaftsmodelle mit unterschiedlicher Informationsdichte - Basis-DLM, DLM250, DLM1000 - angeboten. Alle Objekte sind einheitlich definiert, katalogisiert und umfassend beschrieben. Zudem ist jedes einzelne Objekt mit einer einheitlichen Identifikationsnummer versehen und dadurch individuell selektier- und aktualisierbar.
Engl. digital surface model; digitale Oberflächenmodelle beschreiben die zum Zeitpunkt der Befliegung tatsächlich vorhandene Landschaft mit zusätzlich allen festen und beweglichen Objekten, die nicht zur Geländeoberfläche (Grenzschicht Pedosphäre / Atmosphäre) zählen. Das sind vor allem Wälder und Bauwerke (Häuser, Brücken und Hochspannungsleitungen) sowie der ruhende und fließende Verkehr. Aus den unregelmäßig verteilten First-Pulse-Daten der Laserscanaufnahme wurde automatisch ein regelmäßiges Gitter abgeleitet und kann daher unplausible Werte enthalten. Eine besondere Genauigkeitsabschätzung ist daher nicht möglich.
DIN 18716 definiert: ein "Datensatz von Höhenwerten, die einem übergeordneten Koordinatensystem zugeordnet sind, die die Höhenstruktur des Objektes, z. B. des Geländes, hinreichend repräsentieren".
Nutzungsmöglichkeiten:
Einsatz für den Aufbau und die Fortführung von Solarkatastern
Simulation und Prognose (Hochwasser, Lärmausbreitung, Umweltverschmutzung)
Funknetzplanungen
Visualisierung der Situation an der Erdoberfläche (Schummerungsdarstellung sowie Perspektivansicht)
Zusammenführung mit weiteren Geobasis- und/oder Geofachdaten (z. B. Präsentation mit dem ATKIS-Basis-DLM oder Digitalem Orthophoto)
Ein digitales Orthophoto (griech. orthós richtig, gerade, aufrecht) ist eine verzerrungsfreie, maßstabsgetreue, schwarz-weiße oder farbige Abbildung der Erdoberfläche, die durch photogrammetrische Verfahren aus Luft- oder Satellitenbildern abgeleitet wird. Die Verzerrungen und Verschiebungen, welche bei der Aufnahme eines Bildes durch die Zentralprojektion und die unterschiedlichen Entfernungen der Objekte zur Kamera entstehen, werden mit Hilfe eines Digitalen Geländemodells (DGM) rechnerisch ausgeglichen. Wegen ihrer Maßstabstreue und Georeferenzierung können sie direkt mit Karten gleichen Maßstabs verglichen oder mit Fachdaten, zum Beispiel Straßenplanungen, digital zusammengefügt werden. Dies unterscheidet ein Orthophoto von einem 'normalen' Luftbild.
Digitale Orthophotos (DOP) dokumentieren den Landschaftszustand zu einem bestimmten Zeitpunkt. Sie enthalten vollständig alle aus der "Vogelperspektive" sichtbaren Landschaftsinformationen, ohne dass diese bereits selektiert oder strukturiert worden sind.
Die Daten werden standardmäßig im TIFF− oder komprimiert im ECW-Format (farbig oder schwarzweiß), ab Bildflugjahr 2004 zusätzlich als Color-Infrarotbild (CIR) abgegeben. Seit 2001 werden DOP durch ein rechnergestütztes Entzerrungsverfahren mit einer geometrischen Genauigkeit von etwa +/- 0,4 m aus Luftbildern hergestellt, die in der Regel im Maßstab 1:12 000 als Senkrechtaufnahmen vorliegen. Die Pixelgröße der DOP am Boden beträgt standardmäßig 0,4 m x 0,4 m, seit 2007 sogar nur 0,2 m x 0,2 m. 80 Prozent der Fläche Deutschlands liegen in einer Bodenauflösung von 20 cm vor. Das BKG führt die Rasterdaten länderübergreifend zusammen und generiert deutschlandweite Datensätze mit Bodenauflösungen von 20 cm (DOP20) und 40 cm (DOP40). Digitale Orthophotos sind flächendeckend verfügbar. Durch die Ausgabe an geeigneten Plottern können DOP in analoge Exemplare umgewandelt werden.
In der Vergangenheit wurden Luftbilder nur optisch entzerrt und als Fotos abgegeben. In der weiteren Entwicklung wurden die Bilder dann gescannt und - von Passpunkten und Aerotriangulation gestützt - rechnerisch entzerrt. Der Einfluss der Geländehöhe wird dabei mit Hilfe eines digitalen Geländemodells kompensiert. Die neueste Generation von digitalen Luftbildkameras macht einen vollständig digitalen Ablauf der Luftbild- und Orthophotoherstellung möglich. Die Dateien werden zu einem Mosaik zusammengesetzt. Das so entstandene Produkt ist eben das digitale Orthophoto.
Einsatzmöglichkeiten:
Planungsgrundlage z.B. emotionale und realistische Präsentation von Planungsvorhaben, leicht verständlich für Jedermann, Fundament für breite Akzeptanz
Bauwirtschaft, Leitungsnetzbetreiber z.B. Vorabinformation für Bauvorhaben, evtl. Einsparung eines Vor-Ort-Termins, erhebliche Kostenersparnis für das Unternehmen
Nachweis von Schutzgebieten und landwirtschaftlichen Fördermaßnahmen
Umwelt- und Naturschutz Erkennen von Altlasten, Ermittlung und Nachweis versiegelter Flächen, Beweissicherung von Schäden durch Naturereignisse (z.B. Folgen von Überschwemmungen oder Stürmen)
Dokumentation z.B. Darstellung von Zeitreihen als vollständiger Nachweis für Veränderungen der Landschaft, wichtige Basisinformationen für Fragen der Landeskunde und Historie sowie zur Beweissicherung
Internetpräsentationen
Fachinformationssysteme
Geomarketingsysteme
Immobilienwirtschaft z.B. umfassende Zusatzinformationen zur Lage eines Objekts, Aufwertung für Exposees, ausdrucksstark und informativ in der Kombination mit „Points of Interest“ (z.B. ÖPNV-Haltestellen, Schulen, Einkaufsmöglichkeiten)
Forschung und Lehre
Weitere Einsatzbereiche Land- und Forstwirtschaft, Bergbau, Wasserwirtschaft, Archäologie, Geologie, Tourismus
Bedeutender Anbieter von Satellitenbildern und Betreiber von Erdbeobachtungssatelliten mit Sitz in Longmont, Colorado. Digital Globe beschäftigt 1.235 Mitarbeiter (2013). Das Unternehmen wurde 1992 als WorldView Imaging Corporation gegründet. Vor dem Hintergrund des Land Remote Sensing Policy Act (*Oktober 1992) erhielt es 1993 die Genehmigung des amerikanischen Wirtschaftsministeriums, ein Satellitensystem zu bauen und zu betreiben, um für kommerzielle Zwecke hochaufgelöste Aufnahmen der Erde aus dem All zu machen. Das damalige WorldView wurde 1995 durch eine Fusion mit einem Zweig von Ball Aerospace zu EarthWatch Incorporated bevor es 2002 schließlich zu DigitalGlobe wurde.
Mit dem Start des SatellitenQuickBird 2 am 18. Oktober 2001 gehört Digital Globe zu den führenden Anbietern von Satellitendaten. QuickBird-1 erreichte 2000 die vorgesehene Umlaufbahn nicht. Das Unternehmen hat 2007 mit WorldView-1 und 2009 mit WorldView-2 weitere Satelliten in Betrieb genommen. Im August 2014 folgte WorldView-3 mit dem zu dieser Zeit höchsten Auflösungsvermögen eines kommerziellen Erdbeobachtungssatelliten (31 cm panchromatisch, 1,24 multispektral, 3,7 m SWIR).
Anfang 2013 wurde die im Juli 2012 vereinbarte Fusion von DigitalGlobe mit einem ihrer Hauptkonkurrenten, der Fa. GeoEye vom U.S. Justizministerium genehmigt. Die neue Firma verfügt über die weltgrößte Flotte von Erdbeobachtungssatelliten mit hoher Auflösung.
Die Kunden von DigitalGlobe reichen von Stadtplanern bis zu diversen amerikanischen Bundesbehörden, einschließlich der NASA und der National Geospatial-Intelligence Agency (NGA). Ungefähr 60 % der jährlichen Einkünfte von DigitalGlobe hängen von Aufträgen der amerikanischen Regierung ab, vor allem von Seiten der National Geospatial-Intelligence Agency (NGA). Ein großer Teil der hoch aufgelösten Bilddaten von Google Earth und Google Maps stammen von DigitalGlobe, ebenso wie Bilddaten im TerraServer. Seit 2016 kartiert Facebook zusammen mit DigitalGlobe automatisiert Gebiete für OpenStreetMap.
DigitalGlobe wurde 2017 für 2,4 Mrd. US $ von der kanadischen Firma MacDonald, Dettwiler and Associates Ltd. (MDA) übernommen. Die Firma DigitalGlobe (heute Maxar) behält sowohl ihren Namen wie auch ihr Hauptquartier in Colorado. Sie agiert nunmehr als Tochter der SSL MDA Holdings, einer von MDA 2016 in den USA gegründeten Firma. Diese Holding, zu der auch der Satellitenhersteller Space Systems Loral gehört, ist Teil des “U.S. Access Plan” von MDA, mit dem MDA die rechtlichen Bedingungen schafft, um U.S.-amerikanische Regierungsaufträge zu erhalten.
DigitalGlobe und MDA Holdings Company fusionierten am 5. Oktober 2017 zu Maxar Technologies. Die Marke Maxar Technologies fasst die Aktivitäten von DigitalGlobe, SSL und Radiant Solutions unter einem Dach zusammen. MDA bleibt ein unabhängiges Unternehmen innerhalb der Maxar-Organisation.
Im Mai 2023 wurde Maxar von der Private-Equity-Firma Advent International im Rahmen einer Bargeldtransaktion im Wert von 6,4 Milliarden Dollar übernommen. Im September 2023 wurde Maxar in zwei Geschäftsbereiche aufgeteilt: Maxar Space Infrastructure mit Sitz in Kalifornien und Maxar Intelligence mit Sitz in Colorado.
Der Prozess des Konvertierens analoger Karten und anderer Quellen in eine von Computern lesbare Form mit Hilfe einer Digitalisiermaus, eines -tabletts/-tisches (manuelle Verfahren) oder mittels eines Scanners. Bei der manuellen Digitalisierung entstehen Vektordaten, beim Scannen hingegen Rasterdaten.
Das Umsetzen von beliebigen analogen Quellen (z.B. Punkten, Linien und Flächen in Karten oder Texte, Zahlen in Karteien) in digitale Werte (z.B. Koordinaten oder Bildelemente, alphanumerische Daten) zur anschließenden Speicherung oder Datenverarbeitung.
Syn. Analog-Digital-Wandlung; engl. digitization, franz. numérisation; die Umwandlung von traditionellen, analogen Medien (gedruckter Text oder gedrucktes Bild/Karte auf Papier, laufender 35mm-Film, analoge Tonbandaufzeichnung) in eine digital gespeicherte, d.h. codierte Form. Dabei geht der Trend dahin, derartige Medien an ihrer Quelle, also möglichst nahe an ihrer Erzeugung/Entstehung/Produktion, bereits digital codiert vorzuhalten.
Ein analoges Bild stellt eine orts- und wertkontinuierliche Bildfunktion dar. Durch Analog-Digital-Wandlung kann ein photographisches (analoges) Bild in eine Matrix von diskreten (digitalen) Grauwerten, also in ein geordnetes Feld von Bildelementen (Pixeln) umgewandelt werden.
Die Digitalisierung erfolgt in zwei Schritten:
Durch die Abtastung mit einem Scanner wird die flächenhafte kontinuierliche Grauwertfunktion eines photographischen Bildes in quadratische Bildelemente zerlegt, die in Zeilen und Spalten angeordnet sind (geometrische Diskretisierung nach dem Ort).
Durch die folgende Quantisierung (Darstellung einer Größe in einem System, in dem sie nur diskrete Werte annehmen kann) wird der für ein Pixel gemessene Grauwert in eine diskrete Zahl gewandelt. Bei der gemessenen physikalischen Größe handelt es sich um die (mittlere) Reflexion bzw. Transparenz. Die in Frage kommenden Grauwerte sind eine Teilmenge der natürlichen Zahlen unter Einschluss der Null. Gewöhnlich wird in 8 bit quantisiert, was 256 Werte (von 0 bis 255) ergibt. Dies ist rechentechnisch zweckmäßig und gilt deshalb in der digitalen Bildverarbeitung als Standard. Mit den dann möglichen Grauwerten zwischen 0 und 255 kann ein Bild digital so beschrieben werden, dass für das menschliche Auge keine Grauwertstufen erkennbar sind.
Die Bildinformation des Originals kann in den digitalen Daten nur dann ohne spürbaren Verlust wiedergegeben werden, wenn die Rasterelemente sehr klein und die Grauwerte entsprechend fein abgestuft sind.
Diese Norm (Photogrammetrie und Fernerkundung - Begriffe) mit Ausgabedatum August 2012 legt die Begriffe der Fernerkundung der Erde, einschließlich darauf befindlicher Objekte, mit abbildenden digitalen Sensorsystemen von Standorten auf der Erde, von Luftfahrzeugen (insbesondere Flugzeugen) oder Satelliten fest. Sie dient der Vereinheitlichung der Grundbegriffe und Benennungen. Anwendung findet die Fernerkundung zur Erfassung und Beobachtung der Erdoberfläche im weitesten Sinne, insbesondere zur Kartierung und Überwachung der Geo- und Biosphäre, zur Datengewinnung im Geoinformationswesen, Erstellung von Planungsunterlagen und zur Beobachtung natürlicher und anthropogener Veränderungen von Ökosystemen.
Darunter fallen auch Anwendungen in Vermessungswesen und Kartographie, darüber hinaus aber in einem breiten Spektrum weiterer Fachgebiete, wie Raumordnung und Landesplanung, Forstwirtschaft, Bauingenieurwesen, Architektur, Denkmalschutz und Archäologie, Industriemessung, Unfallaufnahme und Kriminalistik, Medizin und andere. Die Aussagen gelten sinngemäß auch für die Erkundung extraterrestrischer Körper. In der Ozeanographie und in der Meteorologie wurden eigene Fernerkundungsverfahren entwickelt. Die damit zusammenhängenden Begriffe sind nicht Gegenstand dieser Norm. Diese Norm bezieht sich auf die Detektion und Auswertung elektromagnetischer Strahlung und nicht auf Magnet- und Schwerefelder. Für diese Norm ist das Gremium NA 005-03-02 AA "Photogrammetrie und Fernerkundung" im DIN zuständig.
Eine Direktempfangsstation (DRS) ermöglicht den direkten Zugang zu einer bestimmten Satellitenkonstellation. Im Falle von Airbus Defence and Space ist dies deren komplette Konstellation an Erdbeobachtungssatelliten mit den Satelliten Pléiades Neo, SPOT, Pléiades, TerraSAR-X, TanDEM-X. Damit bietet Airbus direkten Zugang zu Sensoren, die zu 100 % kommerziell zugänglich sind. Mit einem DRS kann man laut Airbus ein Bild bis zu 30 Minuten nach seiner Aufnahme empfangen.
Engl. direct method of transformation, franz. méthode directe de la transformation; nach DIN 18716 ein "Verfahren, bei dem die Grauwerte des Eingabebildes mittels der Transformationsgleichung direkt in das Ausgabebild übertragen werden".
Engl. discrete data; aus getrennten Einheiten bestehende Daten, z. B. kategorische Daten wie Vegetationstypen oder klassifizierte Daten wie Geschwindigkeitsbereiche. Jeder Block von Informationen wird für sich genommen, "diskret" gespeichert. In geographischer Hinsicht können diskrete Daten von Polygonen repräsentiert sein. Im Gegensatz dazu stehen kontinuierliche Daten.
Zoomt man weit genug in ein Satellitenbild hinein, entdeckt man viele kleine Quadrate verschiedener Farbe. Dies rührt daher, dass das Bild nicht kontinuierlich aufgebaut ist, sondern ein Gitterraster (Matrix) von Pixeln (quadratischen Bildpunkten) aufweist. Das ist eines der wichtigsten Merkmale von digitalen Formaten.
Engl. discretisation; zeitliche und räumliche Kontinua (Oberflächen, geschwungene Linien) müssen zur digitalen Handhabung je nach angestrebter Auflösung bzw. Maßstab diskretisiert - in kleine Abschnitte bzw. einzelne Punkte zerlegt - werden.
So werden zeitlich kontinuierlich anfallende (Mess-)Daten wie Lufttemperatur, Niederschlag, Pegelstände oder Verkehrsströme nur in bestimmten Zeitintervallen erhoben oder auf Zeiträume bezogen und als Einzelwerte gespeichert. Insbesondere ist die räumliche Diskretisierung von Geoobjekten eine wesentliche Voraussetzung zur Erfassung und Modellierung in Geoinformationssystemen:
Punkthafte Geoobjekte sind bereits diskrete Daten.
Linienhafte Geoobjekte wie z.B. ein Bach oder ein Weg werden in einzelne Teilstrecken zerlegt, wobei nur deren Anfangs- und Endpunkt digital erhoben und der Verlauf dazwischen als geradlinig angenommen werden. Dieses Prinzip entspricht der Festlegung von Flurstücksgrenzen, bei der an jeder Ecke oder bei jeder Richtungsänderung der Grenze ein Grenzstein gesetzt ist. Zuweilen werden Anfangs- und Endpunkte erfasst und das Zwischenstück durch Angabe einer Funktion modelliert und diskretisiert (z.B. als Bogenstück durch Festlegen eines Radius).
Flächen werden durch Grenzlinien erfasst, die nach dem gerade beschriebenen Prinzip modelliert werden.
Bei Rasterdaten wird eine Linie (bzw. Fläche) durch einzelne bzw. benachbarte Pixel diskretisiert.
Schritt bei der Bildverarbeitung. Einer analogen Szene wird in der Diskretisierungsstufe ein Raster aufgesetzt, so dass sich quadratische oder rechteckige Bildelemente ergeben. Räumliche Elementarbereiche werden dabei also in je einem solchen Bildelement (Pixel) zusammengefasst.
Die Diskretisierungsgenauigkeit wird bei Bildern Auflösung genannt. Es gilt: Je höher die Auflösung, also je kleiner die Pixel, desto genauer entspricht das digitale Bild dem Original. Der Nachteil bei höherer Auflösung ist, dass auch mehr Pixel abgespeichert werden müssen, die Bilddatei also größer wird, was wiederum einen höheren Aufwand bei der Verarbeitung bedeutet.
Die spektrale Zerlegung einer Strahlung, insbesondere die Farbzerlegung der Lichtstrahlung, beim Übergang zwischen zwei Medien mit unterschiedlichem Brechungsindex.
Jugendgemäßer Internetauftritt zu den Aktivitäten des Deutschen Zentrums für Luft- und Raumfahrt in den Bereichen Luft- und Raumfahrt, Energie und Verkehr. Dazu gehören auch Schülerwettbewerbe und Materialien für den Unterricht. Die Galerie "Das Bild der Erde" führt mit leicht verständlichen Texten zu den Aufgaben der Satellitenfernerkundung hin.
Außerschulisches Lernangebot des DLR an 9 verschiedenen DLR-Standorten mit standortspezifischen Angeboten an wissenschaftsnahen Experimenten. Die evaluierten DLR-Schülerlabore sind eine innovative Ergänzung zum Schulunterricht und gleichzeitig Impulsgeber für die Lehrerfortbildung. Weitere Labore sind im Aufbau.
Unter Fernerkundungsgesichtspunkten bietet insbesondere das Schülerlabor in Oberpfaffenhofen, aber auch das in Neustrelitz relevante Experimente.
Das DLR hat seit den 1990er Jahren eine Vielzahl nationaler und internationaler Missionen zur Erdbeobachtung unterstützt. Aus diesen Missionen stehen weltraumgestützte und flugzeuggetragene Radardaten, optische Satellitenbilddaten, und Atmosphärendaten im Deutschen Satellitendatenarchiv des EOC für die Nutzer bereit. Die Daten werden ergänzt durch eine große Anzahl fernerkundungsbasierter, höherwertiger Produkte aus wissenschaftlichen Projekten. Die Produktpalette schließt unter Anderem digitale Höhenmodelle der SRTM- und TanDEM-X-Missionen ein, aber auch aktuelle Radarbilddaten der TerraSAR-X-Mission, tagesaktuelle Ionosphärendaten, Ozonkarten und Feinstaubvorhersagen.
Die folgende Tabelle gibt einen Überblick über die Datenportale und -services des DLR Earth Observation Centers EOC, die den Zugriff auf die Erdbeobachtungsdaten und -produkte des EOC ermöglichen. Die meisten der Datenportale sind auf fachliche Nutzer zugeschnitten. Gelegenheitsnutzer finden hier tagesaktuelle Wetterbilder und können auch auf Beispieldaten verschiedener Satellitenmissionen zugreifen.
CORINE Land Cover (CLC) bietet eine europaweit einheitliche Kartierung der Flächennutzung. Sie wurde innerhalb des Programmes 'Coordination of Information on the Environment' (CORINE) der Europäischen Union erstellt. Über dieses Portal des EOC erhalten Sie Zugriff auf die CORINE Land Cover Daten von Deutschland.
Der EOC-Geoservice bietet über OGC-konforme Katalog-, Visualisierungs- und Downloaddienste Zugriff auf eine Auswahl der Geodaten des deutschen Satellitendatenarchivs (D-SDA). Dieses Portal gibt einen Überblick über die Dienste, deren Einsatzmöglichkeiten sowie über die verfügbaren Datensätze. Die Geodatendienste des EOC Geoservice lassen sich mit Hilfe OGC-konformer Client-Software nutzen.
EOWEB GeoPortal (EGP), das neue Erdbeobachtungsdatenportal des DLR, ist nun für alle Nutzer verfügbar. EGP bietet die gleichen Funktionalitäten wie EOWEB - und Vieles mehr. Neben einem neuen Look verfügt es über eine zweistufige Suche auf Collection- und Produktebene, einen direkten Download ausgewählter Produkte sowie ein Mapping-Tool. Für die Bestellung neuer TerraSAR-X Aufnahmen bitte weiterhin EOWEB verwenden.
EOWEB ist das traditionelle Portal mit dem man Erdbeobachtungsdaten und -produkte des EOC finden und bestellen kann. Über EOWEB können existierende Produkte aus dem Archiv bestellt werden, aber auch die Beauftragung von Neuaufnahmen für einzelne Missionen ist möglich. Die Funktionalitäten von EOWEB werden stufenweise in das neue EOWEB GeoPortal migriert. Um TerraSAR-X Neuaufnahmen zu bestellen bitte vorerst weiterhin EOWEB verwenden.
Als Teil der EUMETSAT Satellite Application Facility on Ozone and Atmospheric Chemistry Monitoring (O3M-SAF) leitet das EOC eine Anzahl von Spurengasen und Wolkenparametern aus den GOME-2-Daten der MetOp-Satelliten ab. Endnutzer erhalten die Produkte innerhalb von zwei Stunden nach der Aufnahme - 24 Stunden täglich, 365 Tage im Jahr.
Das Zentrum für satellitengestützte Kriseninformation des EOC betreibt einen operationellen Service zur Detektion von Brandherden in Europa. Dazu empfängt und prozessiert das EOC täglich MODIS-Daten von bis zu acht Überflügen der Satelliten Terra-1 und Aqua-1. Der zur Feuerdetektion verwendete Algorithmus wurde an der University of Maryland entwickelt und gilt international als Standard.
Über das Rapid Eye Science Archive (RESA) können Wissenschaftler kostenfrei optische Satellitenbilddaten der RapidEye Satellitenflotte erhalten. Die Bilddaten werden nach Einreichen eines Projektvorschlages über das RESA-Portal - und dessen positiver Beurteilung durch unabhängige Gutachter - zugewiesen.
Störungen der Ionosphäre können einen gravierenden Einfluss auf Kommunikations- und Navigationssysteme ausüben. Innerhalb eines Forschungsprojektes, das die Grundlagen für das geplante Neustrelitzer Ionosphärenzentrum (NIC) entwickeln soll, stehen über das Portal des Space Weather Application Center - Ionosphere (SWACI) aktuelle Informationen zum Zustand der Ionosphäre zur Verfügung.
Zur wissenschaftlichen Verwendung können Nutzer Daten und Produkte der deutschen interferometrischen Radar-Erdbeobachtungsmission TanDEM-X über das DLR beziehen. Die Daten werden nach Einreichen eines Projektvorschlages über das TanDEM-X Science Service System - und dessen positiver Beurteilung durch unabhängige Gutachter - zugewiesen.
Zur wissenschaftlichen Verwendung können Nutzer Daten und Produkte der deutschen Radar-Erdbeobachtungsmission TerraSAR-X über das DLR beziehen. Die Daten werden nach Einreichen eines Projektvorschlages über das TerraSAR-X Science Service System - und dessen positiver Beurteilung durch unabhängige Gutachter - zugewiesen.
Das Weltdatenzentrum für Fernerkundung der Atmosphäre (WDC-RSAT) bietet Wissenschaftlern und der Öffentlichkeit kostenfreien Zugriff auf satellitenbasierte Produkte der Atmosphärenfernerkundung. Im Focus stehen Spurengase, Aerosole, Atmosphärendynamik, Strahlung und physische Wolkenparameter. Darüberhinaus biete das Portal ergänzende Information wie auch Produkte zur Landoberfläche.
Das Zentrum für satellitengestützte Kriseninformation (ZKI) des EOC bietet einen 24/7 Notfall-Kartierungsservice zur Unterstützung humanitärer Hilfseinsätze und der zivilen Sicherheit. Die resultierenden satellitenbasierten Informationsprodukte werden Hilfsorganisationen und Institutionen der öffentlichen Hand zur Verfügung gestellt. Über das ZKI Portal erhalten Sie weiterführende Informationen und eine Auswahl der erstellten Notfallkartenprodukte.
Engl./dt. Akronym für Differential Optical Absorption Spectroscopy / Differentielle Optische Absorptionsspektroskopie; ein in der Physik und physikalischen Chemie gebräuchliches Fernerkundungsverfahren, mit der sich Spuren chemischer Verbindungen qualitativ und quantitativ nachweisen lassen. Mit DOAS können NO2, O3, SO2, NH3, NO, HCHO, Benzol, Toluol, NO3, und HNO2 gemessen werden.
Die DOAS basiert auf der von Frequenz bzw. Wellenlänge abhängigen Absorption von Licht in gasförmiger Materie. Das Licht kann hierbei von einer künstlichen Quelle wie einer Xenon-Hochdrucklampe oder Halogenlampe als auch von einer natürlichen, extraterrestrischen Quelle wie der Sonne stammen. DOAS-Geräte arbeiten mit sichtbarem und UV-Licht. Die Spurengaskonzentrationen in einem Luftvolumen werden dabei aus den jeweils charakteristischen Absorptionsstrukturen durch Vergleich mit Absorptionslinien in Referenzspektren bestimmt. Hierauf geht die Bezeichnung "differentielle Absorptionslinien" zurück.
In der Satellitenfernerkundung ist das DOAS-Prinzip beispielsweise bei den Sensoren GOME auf ERS-2 sowie GOMOS und SCIAMACHY auf ENVISAT realisiert. Die DOAS-Methode zur Messung atmosphärischer Spurengase wird auch eingesetzt, um den Austausch von Gasen zwischen der Atmosphäre und dem Meer in Laboruntersuchungen zu erforschen und flächenaufgelöst direkt den Wassergehalt und die Konzentration verschiedender Substanzen in Pflanzenblättern zu messen.
Engl. Dobson Unit (DU); Einheit für die Ozon-Säulendichte über einer bestimmten Stelle der Erdoberfläche, benannt nach dem Atmosphären-Wissenschaftler G. M. B. Dobson (1920-1960). 100 Dobson-Einheiten (Dobson-Units, DU) entsprechen einer Ozonschicht von 1 mm Dicke unter Normalbedingungen (Luftdruck 1013 hPa, Temperatur 273 K).
Fähigkeit einer Trägerrakete, zwei statt nur einem Großsatelliten zu transportieren und auszusetzen. Dazu werden die Satelliten mit Hilfe einer Doppelstartvorrichtung übereinander in der Spitze der Trägerrakete untergebracht. Durch Doppelstarts lassen sich signifikante Einsparungen bei den Startkosten pro Satellit erzielen.
Engl. Doppler effect, franz. Doppler effet; Veränderung der Wellenlänge einer akustischen oder elektromagnetischen Strahlung durch eine (Relativ)Bewegung von Sender und/oder Empfänger. Danach registriert ein Beobachter, der sich relativ zu einem Wellensender bewegt, eine andere Frequenz als die tatsächlich von der Quelle erzeugte. Bewegen sich Sender und Empfänger aufeinander zu, erhöht sich der Ton/die Frequenz (Blauverschiebung), entfernen sich die beiden voneinander, erniedrigt sich die Tonhöhe/Frequenz (Rotverschiebung). Dieses Phänomen ist nach dem österreichischen Physiker Christian Johann Doppler benannt, der 1842 das zugrunde liegende Prinzip formulierte.
Prinzip des Dopplereffektes
Im Punkt A wird eine Strahlung ausgesendet. Die Strahlung wird im Punkt B empfangen und auch reflektiert. Die empfangene Frequenz ist bei konstantem Abstand beider Punkte zueinander unverändert. Bewegen sich beide Punkte jedoch relativ zueinander, wird die empfangene Frequenz verändert. Bei einer Bewegung voneinander weg verringert sich die Frequenz, anderenfalls erhöht sie sich. Die Veränderung der Empfangsfrequenz ist ausschließlich von der Relativbewegung zueinander abhängig.
In der Satellitennavigation wird der Doppler-Effekt dazu genutzt, aus der Frequenzänderung eine Entfernungsdifferenz zwischen einer Beobachterantenne und zwei Satellitenpositionen zu unterschiedlichen Zeitpunkten abzuleiten. Diese Entfernungsdifferenz gilt dann als Beobachtungsgröße für die Standortbestimmung. Das Dopplerprinzip wurde sehr erfolgreich zur Navigation und zur geodätischen Positionsbestimmung mit dem System Transit etwa von 1967 bis 1996 eingesetzt und findet Anwendung beim DORIS. Beim GPS wird die Dopplermessung für die Geschwindigkeitsbestimmung der Empfangsantenne und als zusätzliche Beobachtungsgröße verwendet.
Radarsystem, das zwischen festen und bewegten Objekten unterscheidet, indem es die aufgrund des Dopplereffektes veränderte Frequenzänderung der reflektierten Wellen registriert. In der Atmosphäre sind kleinste Partikel erkennbar. Innerhalb von Gewitterzellen können so Regen, Schnee, Hagel oder Graupel unterschieden werden. Die Reflexion der Teilchen ermöglicht ein farbiges Bild des Wolkeninneren. Mit dem Dopplerradar können auch Messungen der Windgeschwindigkeit innerhalb einer Wolke durchgeführt werden.
Ein Dopplerradar liefert hervorragende Daten, wenn es um die Untersuchung von Konvektionszellen geht, deren räumliche Struktur ansonsten schwer erfassbar ist. Solche Systeme werden daher auch eingesetzt, um gefährliche Rotationsbewegungen in Superzellen zu identifizieren, da diese Windbewegungen als wesentliche Vorstufe der Bildung von Tornados gelten.
Beispiel Hagelzellen im Schweizer Mittelland (8.5.2003)
Am ersten grossen Gewittertag des Jahres zogen mehrere Hagelzellen durchs Mittelland. Lokal wurden Hagelkörner von Tennisballgröße beobachtet. Mit dem ETH-Radar wurde vor allem eine Hagelzelle gut erfasst: Die Zelle bildete sich um 18:50 Uhr bei Willisau, zog nordostwärts und schwächte sich erst nach 21 Uhr, nach Überqueren der Stadt Zürich, langsam ab.
Eine Sonderform des Dopplerradars ist das Polarisations-Dopplerradar, das ebenfalls für meteorologische Aufgaben eingesetzt wird. Es vermag Art und Quantität der beobachteten Niederschlagsteilchen noch präziser bestimmen als mit einem konventionellen Radar möglich. Hierbei wird die Tatsache ausgenutzt, dass die verschiedenen Niederschlagsteilchen eine unterschiedliche Form und somit ein unterschiedliches Rückstreuverhalten für unterschiedliche polarisierte elektromagnetische Wellen haben.
Eine Änderung in der beobachteten Frequenz elektromagnetischer Strahlung oder anderer Wellen durch die relative Bewegung zwischen Quelle und Empfänger. Das Prinzip wird vor allem bei der Erstellung von SAR-Bildern angewandt.
Franz. Akronym für Détermination d'Orbite et Radiopositionnement Intégré par Satellite, alternativ engl. Akronym für Doppler Orbitography and Radiopositionning Integrated by Satellite; auf dem Doppler-Effekt basierendes Zweifrequenz-Mikrowelleninstrument der CNES zur zentimetergenauen Bahnbestimmung von Satelliten mit integrierter Funkpositionierung. An Bord der Raumflugkörper werden Doppler-Signale von einem Netz kleiner Sender (sog. Beacons) auf der Erde empfangen und verarbeitet. Aufgrund der schnellen Relativbewegung von Satelliten und Bodenstationen unterliegt das Signal einer starken Frequenzverschiebung (Dopplereffekt), die beobachtet wird. Aus der Änderung der Frequenzverschiebung während eines Satellitendurchgangs kann Information über die Position der Beobachtungsstation auf der Erdoberfläche abgeleitet werden. Die daraus ermittelten Bahndaten gelangen dann in Verbindung mit den Sensorinformationen zur Bodenstation zurück. DORIS stellt heute im Bereich der Höhenmessung eine Referenz dar. Es wird/war eingesetzt auf TOPEX/POSEIDON, Jason 1-3, SPOT-3/4/5, ENVISAT, HY-2A, CryoSat-2, SARAL, Sentinel-3, HY-2B, Jason CS2/Sentinel6B. Das Bodensegment wird von allen DORIS-Missionen genutzt. Zusätzlich zur Bahnbestimmung werden die DORIS-Daten genutzt, um die Dynamik der festen Erde besser verstehen zu lernen, Gletscher, Erdrutsche und Vulkane zu überwachen sowie um die Modellierung des irdischen Schwerefeldes und der Ionosphäre zu verbessern. DORIS trägt im Rahmen des IERS (International Service for Earth Rotation and Reference Systems) zur Realisierung und Laufendhaltung des terrestrischen Referenzsystems ITRF (IERS Terrestrial Reference Frame) bei.
Gemeinsames Projekt zwischen der ESA und der chinesischen Raumfahrtbehörde (CNSA) zur Untersuchung der Auswirkungen der Sonne auf die irdische Umwelt, insbesondere die Magnetosphäre. Die Mission umfasst zwei Satelliten, die in komplementären Bahnen die Erde umkreisen, einer auf einem polaren Orbit, der zweite in Äquatornähe. Die Orbitalkonfiguration erlaubt es Wissenschaftlern, zeitgleich in verschiedenen Gebieten der Magnetosphäre Daten über Veränderungen im Magnetfeld sammeln zu können.
Die Satelliten wurden von chinesischer Seite entworfen, gebaut und ins All gebracht, Gleiches gilt für die operationelle Betreuung. Die Hälfte der Experimente stammt von europäischer Seite.
Das Duo (TC-1/-2) wurde von zwei verschiedenen Startplätzen in China (Xichang und Taiyuan) im Dezember 2003 und im Juli 2004 ins All transportiert. TC-1 (syn. DSP-E), der äquatornahe Satellit läuft auf einer elliptischen Bahn in Höhen zwischen 550 und 66.970 km mit einer Neigung von 28,5 Grad zum Äquator. Diese Bahn ermöglicht insbesondere auf die Untersuchung des Magnetschweifes der Erde. In diesem Bereich werden hochenergetische Partikel erzeugt und in Richtung der irdischen Magnetpole beschleunigt. Wenn diese Partikel die Erde erreichen, können sie Unterbrechungen der Stromversorgung und der Kommunikationsstrukturen verursachen und Satelliten beschädigen. Der polare TC-2 (syn. DSP-P)konzentriert sich auf die über den Magnetpolen ablaufenden physikalischen Prozesse und die Bildung von Nord- und Südlicht (Aurora). Seine Bahnhöhe schwankt zwischen 700 und 39.000 km. Für TC-1 wird mit einer Missionsdauer von wenigstens 18 Monaten, für TC-2 von wenigstens einem Jahr gerechnet.
Dieser Fahrplan erlaubt die synchrone Arbeit zusammen mit der Cluster-Mission der ESA, einer seit dem Sommer 2000 im All befindlichen Kleinflotte von vier identischen Raumflugkörpern auf elliptischen Erdorbits.
Die Dove-Satelliten sind kleine Satelliten (Cubesats), die im Schwarm fliegen. Die von der Firma Planet betriebenen Satelliten bilden die PlanetScope-Konstellation von etwa 130 Satelliten, die täglich die gesamte Landoberfläche der Erde abbilden können (eine tägliche Erfassungskapazität von 200 Millionen km²/Tag). Die PlanetScope-Bilder haben eine Auflösung von etwa 3 Metern pro Pixel.
Die PlanetScope-Satellitenkonstellation besteht aus Mehrfachstarts (engl. flocks, dt. Schwärmen) von Dove-Satelliten. Die On-Orbit-Kapazität wird ständig in Bezug auf Kapazität und Quantität verbessert, wobei technologische Verbesserungen in schnellem Tempo umgesetzt werden. Jeder Satellit ist ein CubeSat mit 3U-Formfaktor (10 cm x 10 cm x 30 cm).
Eine ausgewählte Anzahl von SuperDoves wurde im Rahmen der Zusammenarbeit von Planet mit der Boldly Go-Kampagne der Roddenberry Foundation mit Kunstwerken und Zitaten geschmückt, die das Vermächtnis des Star Trek-Schöpfers Gene Roddenberry würdigen.
Die Roddenberry Foundation hat diese Kampagne im Jahr 2021 ins Leben gerufen, um Genes hoffnungsvolle Vision von der Zukunft der Menschheit zu feiern - eine Vision der Integration, des wissenschaftlichen Fortschritts und der Zusammenarbeit. Fünf der SuperDoves in der Mission Flock 4y (3.1.2023) wurden mit einem Kunstwerk versehen, das auf ihre seitlichen Panele gelasert wurde. Dieses Kunstwerk wurde von den über 1.500 Einsendungen im Rahmen der Boldly Go-Kampagne inspiriert, bei der die Welt aufgefordert wurde, mitzuteilen, was ihnen Hoffnung für die Zukunft der Menschheit gibt.
A Planet SuperDove with the Boldly Go Campaign artwork laser etched onto its side panels Quelle: Planet
Planet Labs PBC entwickelt und fertigt diese Cubesat-Miniatursatelliten, die als sekundäre Nutzlast bei Raketenstarts in die Umlaufbahn gebracht werden. Jede Dove ist mit einem leistungsstarken Teleskop und einer Kamera ausgestattet, die so programmiert sind, dass sie täglich Teile der Erdoberfläche erfassen. Jeder Dove-Erdbeobachtungssatellit scannt die Erde kontinuierlich und sendet mit Hilfe eines Bildsensors Daten, sobald er eine Bodenstation überfliegt.
Seit der ersten Version im Jahr 2014 hat Planet drei PlanetScope-Instrumententypen eingeführt:
Instrumentenname
Instrumenten - ID
Beschreibung
Dove Classic
PS2
Dieses Instrument, das mit einem Teleskop namens "PS2" ausgestattet ist, erfasst rote, grüne, blaue und Nahinfrarot-Kanäle. Es erzeugt Szenen-Produkte, die etwa 25,0 x 11,5 km² groß sind. Die frühesten Bilder sind von Juli 2014 bis zum 29. April 2022 verfügbar.
Dove-R
PS2.SD
Mit dem gleichen "PS2"-Teleskop gebaut, aber mit aktualisierten Bayer-Mustern und Passbandfiltern, erfasst dieses Instrument rote, grüne, blaue und Nahinfrarot-Kanäle. Es erzeugt Szenen-Produkte, die etwa 25,0 x 23,0 km² groß sind. Die frühesten verfügbaren Bilder sind vom März 2019 bis zum 22. April 2022 verfügbar.
SuperDove
PSB.SD
Mit einem Teleskop, das die Bezeichnung "PSB" trägt, und dem gleichen Filterverhalten wie das Instrument PS2.SD erfasst dieses Instrument die Farben Rot, Grün, Blau und Nahinfrarot sowie einen neuen Kanal für die rote Kante (red edge), Grün I, Küstenblau und Gelb. Es erzeugt Szenen-Produkte, die etwa 32,5 x 19,6 km² groß sind. Frühestes verfügbares Bildmaterial betrifft den Zeitraum Mitte März 2020 bis zum aktuell laufenden Monitoring.
Die von den Dove-Satelliten gesammelten Bilder liefern aktuelle Informationen, die z. B. für den Klima- und Umweltschutz, die Beobachtung von Wäldern und deren Schäden, die Vorhersage von Ernteerträgen, die Überwachung der Wasserqualität in Seen und den Katastrophenschutz relevant sind. Nutzer können online auf die Daten zugreifen. Einige Bilder sind im Rahmen des offenen Datenzugangs verfügbar.
Bezeichnung für das 'nachgelagerte' Segment der drei Segmente innerhalb der Raumfahrtindustrie. Der Downstreamsektor umfasst Aktivitäten für die terrestrische Nutzung sowie Produkte und Dienstleistungen, die auf Satellitentechnologie, -signale und -daten angewiesen sind (z. B. Satellitenrundfunk, ausgewählte GIS, GNSS-gestützte Geräte, Erdbeobachtungsdaten). "Nachgelagert" wird hier implizit als das Ende der Kette definiert, wo Erdbeobachtungsdaten als Input verwendet und mit anderen Inputs zur Wertschöpfung kombiniert werden. Einige, aber nicht alle Aktivitäten in diesem Segment sind mit amtlichen und Industriestatistiken leicht zu messen.
Die Wertschöpfungskette des nachgelagerten Erbeobachtungssektors kann in zwei Hauptteile unterteilt werden:
Datenerfassung und -verteilung, wobei die Akteure kommerzielle Rohdaten, unverarbeitete oder vorverarbeitete Daten von Satelliten, Online-Plattformen und Datenkatalogen liefern.
Datenverarbeitung, bei der die Akteure Mehrwertdienste anbieten, maßgeschneiderte Algorithmen und spezifische Anwendungen entwickeln.
Downstreamsektor im Bereich der Erdbeobachtung (EO)
Daten aus Erdbeobachtungsmissionen werden im Downstream (Business) Sektor veredelt und zu wertvollen Anwendungen weiterentwickelt. Die Bedarfe der Kunden sind hierbei oft sehr individuell die Anwendungen müssen für jeden Fall genau zugeschnitten werden. Hier sind hohes Maß an Expertise und Qualifikation gefragt. In Deutschland sind im Bereich Downstream Business vor allem kleine und mittlere Unternehmen (KMU) tätig und sehr erfolgreich. Durch ihr Know-How für die Verarbeitung und den Vertrieb von hochaktuellen und präzisen Satellitendaten sind sie Experten auf ihrem jeweiligen Anwendungsgebiet.
Diese Unternehmen entwickeln zum Beispiel Algorithmen, Software oder bieten fertige Geoinformationsdienste für unterschiedlichste Themenbereiche, bspw. in der Landwirtschaft, bei der Überwachung von Infrastruktur oder der Gewässerkontrolle an. Der Downstream Business Sektor ist also sehr breit gefächert und schließt unterschiedlichste Unternehmen mit ein, die Produkte und Dienstleistungen im Zusammenhang mit der Erdbeobachtung erstellen.
Nutznießer von operationellen Anwendungen aus dem Downstream Business Sektor sind die öffentliche Hand, Unternehmen, die Wissenschaft und auch private Nutzer. Die Verfügbarkeit und Kontinuität von Erdbeobachtungsdaten aus öffentlichen und kommerziellen Quellen nimmt stetig zu und der Downstream Business Sektor befindet sich in den letzten Jahren in einem starken Wachstum.
Der weltweite Bedarf an standortbezogenen Informationen und Wissen über den Zustand von natürlichen Ressourcen und unser System Erde auf Basis von Satellitendaten wird auch in Zukunft weiter wachsen und der Downstream Business Sektor wird zunehmend branchenübergreifend ein wichtiger Wirtschaftsfaktor in Deutschland sein.
Copernicus Downstream Dienste und nationale Programme
Alle teilnehmenden Länder an Copernicus können auf Basis der frei verfügbaren Daten und Informationen weitere nationale oder kommerzielle Informationen erzeugen oder Dienste anbieten. Auch Deutschland unterstützt solche Initiativen. Die Koordination solcher Nutzung von Copernicus liegt hierbei bei der Raumfahrtagentur im DLR.
Neben dem Zugriff auf die Sentinel-Daten über die „collaborative Hubs“, die nationalen Datenportale (z.B. CODE-DE), die weitergehenden nationalen Dienste durch Behörden und kommerziellen Aktivitäten, ermöglicht das sog. Copernicus kollaborative Bodensegment auch, Sentinel-Daten mit nationalen Stationen direkt zu empfangen. Dies ist z.Zt. nur für die Sentinel-1 SAR Satelliten möglich. So werden die Daten der beiden Sentinel-1-Satelliten direkt, während des Überfluges über Europa von der DFD Bodenstation in Neustrelitz empfangen. Die Daten werden unmittelbar nach dem Empfang mit dem von der ESA lizensierten Prozessor zu Bildprodukten direkt in nahe Echtzeit verarbeitet. Basierend auf den am IMF und DFD entwickelten Algorithmen werden anschließend unterschiedliche Informationsprodukte für die maritime Sicherheit generiert und bereitgestellt. Auch für das Hochwasser-Monitoring werden diese direkt empfangenen Daten genutzt (siehe Team: Forschungsstelle Maritime Sicherheit).
Angesichts der Tatsache, dass die neuen Copernicus-Missionen zusätzliche Daten liefern und die Marktkapazitäten erweitern werden, schlägt der EO-Branchenverband EARSC schlägt ein neues, aus drei Säulen bestehendes Programm vor: Preparing the future downstream services.
Methode der Ausrichtung von Satelliten. Die Orientierung der Satelliten auf ihrer Umlaufbahn wird dabei so geregelt, dass Längs- und Querachse stets parallel zur Erdoberfläche orientiert sind. Der Vorteil der Drei-Achs-Stabilisierung z. B. bei Wettersatelliten im Gegensatz zur Spin-Stabilisierung ergibt sich in der einfacheren Möglichkeit, Sondierungsinstrumente einzusetzen, welche stets zur Erdoberfläche hin ausgerichtet sind. Zur Erzielung der Stabilisierung werden drei Gyroskope benötigt, eines für jede Achse.
Sammelbegriff für ein Bild, das bei beidäugiger Betrachtung echte Tiefenwahrnehmung und damit räumliche Wirkung vermittelt. Siehe auch Anaglyphenbild, Stereobild
Umgangssprachliche Bezeichnung für ein unbemanntes, in der Regel wiederverwendbares Luftfahrzeug (engl. drone). Der Begriff wird sowohl für militärisch oder kommerziell genutzte unbemannte Luftfahrzeuge als auch für per First Person View gesteuerte Flugmodelle wie Quadrocopter genutzt. Sie können autark durch einen Bordcomputer oder vom Boden über eine Fernsteuerung betrieben und navigiert werden.
Das Luftrecht unterscheidet in Deutschland zwischen unbemannten Luftfahrtsystemen und Flugmodellen. Gemäß § 1 Luftverkehrsgesetz handelt es sich bei unbemannten Luftfahrtsystemen um ausschließlich gewerblich genutzte Geräte. Flugmodelle sind hingegen privat, also zum Zwecke des Sports oder der Freizeitgestaltung genutzte Geräte.
Die zivile Luftfahrtorganisation der Vereinten Nationen ICAO hat Anfang 2015 für die unbemannte Luftfahrt weltweit verbindlich die Bezeichnung „Unmanned Aircraft System“, abgekürzt UAS, festgelegt. Dabei wird mit dem Begriff UA (engl. Unmanned Aircraft) das eigentliche Luftfahrzeug ohne Luftfahrzeugführer bezeichnet und mit UAS (Unmanned Aircraft System) das unbemannten Fluggerät einschließlich des Systems zur Kontrolle oder Fernsteuerung. Das Europäische und Deutsche Luftrecht haben die Bezeichnung UAS übernommen.
In erweitertem Sinn wird der Begriff analog auch für Geräte mit ähnlicher Charakteristik verwendet, die sich am Boden oder im Wasser bewegen.
Luftgetragene Drohnen können Spannweiten einer Libelle bis zu der eines Airbus A320 aufweisen. Weitere Klassifikationsmöglichkeiten betreffen Aktionsradius, Flughöhe und -dauer sowie den Einsatzzweck.
Drohnen werden zu militärischen, wie auch zu zivilen Zwecken eingesetzt. Einige Drohnen, etwa der amerikanische RQ-1 Predator, können bewaffnet sein und werden im militärischen Sprachgebrauch als unmanned combat air vehicle (UCAV) bezeichnet. Andere dienen der Aufklärung und Überwachung. Ferner werden ausrangierte Flugzeuge nach Einbau einer Fernsteuereinrichtung als Zieldrohnen zu Übungszwecken und zur Erprobung der Wirkung von Abwehrwaffen verwendet.
Zivile Einsatzbereiche von Drohnen betreffen z.B. Luftbildphotogrammetrie, Grenz- und Küstenschutz, Überwachung von Großveranstaltungen, Überwachung von Gefahrenstellen (z.B. vulkanische Gase), Brandbekämpfung, Rettungseinsätze oder Fernerkundungsaufgaben für die Landwirtschaft.
Dabei steht insbesondere die Präzisionslandwirtschaft (Precision farming) im Fokus. Ihre Methoden haben das Ziel, alle Maßnahmen in der Landwirtschaft möglichst präzise auszuführen. Als kleinste Behandlungseinheiten werden daher die kleinsten differenzierbaren Teilflächen innerhalb eines Schlages herangezogen und die durchzuführenden Maßnahmen an die Erfordernisse dieser kleinsten Teilflächen angepasst.
Flächendeckende Informationen über die teilflächenspezifische Variabilität der Schläge werden verwendet, um die Intensität verschiedener Applikationsmaßnahmen für jede einzelne Teilfläche angepasst zu berechnen. Entsprechend dieser teilflächenspezifisch variablen Applikationskarten werden die Betriebsmittel dann variabel auf der Fläche appliziert (Modulation der Betriebsmittel).
Aufbau eines UAV-Systems für Zwecke der Datenerfassung im Bereich Präzisionslandwirtschaft
Zur Umsetzung sowohl ökologisch als auch ökonomisch erstrebenswerter Ziele, sind flächendeckende Informationen über die teilflächenspezifische Variabilität und die Möglichkeit der Verortung der Applikationsmaßnahmen durch GPS gestützte Landmaschinen erforderlich.
Durch den Einsatz von Fernerkundung ist es möglich, relevante Informationen über die teilflächenspezifische Variabilität flächendeckend und schnell zu erhalten. Für diesen Zweck eignen sich UAV als Trägerplattformen für Fernerkundungssensorik besonders gut, da sie kostengünstig zeitnah und spontan einsetzbar sind. Sie decken damit entscheidende Kriterien ab, die für ein Monitoring der starken Dynamik des Pflanzenwuchses auf landwirtschaftlichen Flächen benötigt werden.
Projektmittelpunkt ist die Erfassung der teilflächenspezifischen Variabilität des Vegetationsindexes "NDVI". Es werden daher für die Anwendung geeignete UAV Trägerplattformen aufgebaut, die in der Lage sind, die notwendige Fernerkundungssensorik zu tragen und damit entsprechende Informationen flächendeckend zu erfassen. Dabei leiten sich die Flugführungsaufgaben zur flächendeckenden Erfassung der teilflächenspezifischen Variabilität unmittelbar aus dem Landwirtschafts - GIS des Betriebes ab. Die automatisierte Flugführung muss dabei den Anforderungen für die landwirtschaftliche Datenerfassung gerecht werden und stellt die entscheidende Herausforderung im Projekt dar. (vgl. Grafik)
Das deutsche Recht kennt die Kategorie der unbemannten Luftfahrtsysteme (UAS, nach engl. Unmanned Aircraft System). Dabei handelt es sich um unbemannte Fluggeräte, die nicht zu Zwecken des Sports oder der Freizeitgestaltung betrieben werden. Dabei erfolgt die Abgrenzung zwischen unbemannten Luftfahrtsystemen und Flugmodellen1 ausschließlich über den Zweck der Nutzung: Dient die Nutzung des Geräts dem Zwecke des Sports oder der Freizeitgestaltung, so gelten die Regelungen über Flugmodelle. Ist mit dem Einsatz hingegen ein sonstiger, insbesondere ein gewerblicher Nutzungszweck verbunden (z. B. Bildaufnahmen mit dem Ziel des Verkaufs), so handelt es sich um ein unbemanntes Luftfahrtsystem.
Zivile Einsatzmöglichkeiten von Drohnen
Landwirtschaft
Nach Einschätzung der Association of Unmanned Vehicle Systems International (AUVSI) kann der Einsatz von Drohnen in der Landwirtschaft 80 % des gesamten Marktes ausmachen. Die Gründe liegen in der Möglichkeit zur genauen Überwachung der Feldfrüchte, um die Bewirtschaftung und den Ertrag zu verbessern und dies in regelmäßigen Abständen und zu geringen Kosten. Sensoren im nahen Infrarot können zur Erkennung der Pflanzengesundheit so abgestimmt werden, dass die Landwirte auf die Befunde reagieren und z.B. den Einsatz von Dünger und Insektiziden gezielt vornehmen können.
Bergbau
Bergbauunternehmen setzen Drohnen weltweit mit großer Effektivität und Sicherheitszugewinn ein, um die Minenverhältnisse genau zu vermessen, Tagebauwände zu inspizieren, Mengen zu berechnen und 3D-Kartierungen zu erstellen. Künftig werden dabei konventionelle Photogrammetrieverfahren von präziseren Lidar-Sensoren auf UAV-Plattformen abgelöst.
Baustellen
Das Monitoring aus der Vogelperspektive bietet neuartige Informationen während jeder Phase eines Bauprojektes. Gegenwärtig wird die Luftbildphotographie nur für sehr große Bauprojekte eingesetzt. Die mit solchen Verfahren gelieferten Informationen würden aber mit Drohnen viel umfassender und häufiger verwendet werden, wären sie leichter verfügbar. Die Fähigkeit, von oben und mit zunehmender Präzision ein 3D-Modell zu erzeugen, wird einen guten Abgleich von Baufortschritt und Plan ermöglichen und auch eine bessere Koordination der Baumaterialien auf der Baustelle.
Infrastrukturkontrolle
Pipelines, Stromleitungen, Türme, Fabriken – die Inspektion von komplexer Infrastruktur profitiert von regelmäßigem Monitoring aus der Luft. Die Fähigkeit, in drei Dimensionen zu beobachten, Thermalaufnahmen zu machen und Metallermüdung aufzuspüren, verbessert die Infrastrukturkontrolle.
Wildtierforschung
Drohnen werden international eingesetzt um das Leben von wilden Tieren zu beobachten, was neue Erkenntnisse über das Verhalten von Tieren ermöglicht und gleichzeitig hilft, sie vor Wilderern zu schützen. Dies wird u.a. durch die Nachtflugtauglichkeit von Drohnen und ihre Ausstattung mit Thermalkameras ermöglicht.
Lagerstättenprospektion
Die Exploration von Mineral- und Öl-, sowie Gaslagerstätten ist ein idealer Einsatzbereich für Drohnen, die das Handwerkszeug der Prospektoren um luftgetragene Sensoren ergänzt, um ihre Befunde zu bestätigen oder zu erweitern. Beispielsweise können Magnetometer eingesetzt werden, um Eisenmetalle aufzuspüren.
Sturmbahnverfolgung Sturmvorhersage
Der Einflug von Drohnen in Hurrikane und Tornados liefert neue Erkenntnisse über deren Verhalten und Zugbahnen. Unbemannte Systeme mit speziellen Wettersensoren sind die sinnvollste Methode, sich derartigen gefährlichen Situationen auszusetzen.
Katastrophenhilfe
Nach einer naturbedingten oder menschenverursachten Katastrophe liefern Drohnen rasch Informationen und helfen dabei, Trümmer abzusuchen. Hilferufe werden durch ihre geringe Lautstärke nicht übertönt, und Rettungskräfte können die Technik leicht vor Ort einsetzen.
Umweltmonitoring
Drohnen füllen eine Lücke zwischen bemannten Inspektionen aus der Luft und traditioneller Feldarbeit, wobei sie schwer erreichbare Gebiete überwachen können oder kontaminierte Gebiete untersuchen, wo die menschliche Gesundheit gefährdet wäre. Sensoren im nahen Infrarot liefern Details über die Pflanzengesundheit, ihrerseits ein Umweltindikator. Die Informationen helfen bei der Wiederherstellung von Habitaten, der Umweltsanierung und dem Monitoring.
Search and Rescue
Bei Such- und Rettungsaufgaben besteht ein Wettlauf mit der Zeit, besonders unter harschen Bedingungen. Ihr leichter Einsatz macht Drohnen zu einem machtvollen Hilfsmittel. Beispielsweise können mit Thermalsensoren vermisste Personen rasch aufgespürt werden, sie sind besonders bei Nacht und in unwegsamem Gelände hilfreich.
Vulkanüberwachung
Mit Kameras und Gassensoren ausgestattete Drohnen minimieren die Risiken, die bei der Feldbeobachtung an aktiven Vulkanen für Forscherinnen und Forscher zwangsläufig entstehen. Neben der Datenerhebung bieten sich durch Drohnen auch neue Möglichkeiten bei der Kartierung von vulkanischen Gebieten. Dies ist besonders wichtig, da sich die Landschaft an Vulkanen ständig ändert. Drohnen spielen auch eine direkte Rolle im Krisen- und Risikomanagement in Vulkangebieten.
Engl. Akronym für Deep Space Climate Observatory, frühere Bezeichnung Triana (Rodrigo de Triana - Name des Besatzungsmitglieds auf Kolumbus' Schiff Pinta, der als erster amerikanisches Land entdeckt hatte); das klimabezogene DSCOVR der NASA ist die erste Erdbeobachtungsmission zum Lagrange-1(L1)-Punkt zwischen Erde und Sonne. Dessen Lage entspricht 1 Prozent der Wegstrecke Erde-Sonne oder ca. 1,5 Mio km. Dies ist der Ort, an dem die Sonne die gleiche Anziehung auf ein Raumfahrzeug ausübt wie die Erde. Der Satellit wird wie die Erde ein Jahr Umlaufzeit um die Sonne benötigen. Von dort wird DSCOVR einen kontinuierlichen Blick auf die sonnenbeschienene Seite der Erde mit großer zeitlicher Auflösung haben. Die Mission erlaubt die Erdbeobachtung gleichzeitig mit den LEO- und GEO-Satelliten und bietet so die Chance zu Synergismen und Kalibrierungsvergleichen. Durch diesen Einsatz mehrerer Satelliten können einzigartige Datensätze erstellt werden.
Zu den Sensoren des Satelliten gehören:
ein Radiometer, das sog. National Institute of Standards and Technology Advanced Radiometer (NISTAR); es misst die Bestrahlungsstärke der sonnenbeschienenen Erdseite. Diese Daten werden verwendet um Änderungen im Strahlungshaushalt der Erde zu untersuchen, die durch natürliche Vorgänge oder durch menschlichen Einfluss verursacht werden. Das Radiometer misst in vier Kanälen:
für die Gesamtstrahlung in den Bereichen ultraviolett, sichtbar und infrarot (0,2-100 µm)
für die reflektierte Sonnenstrahlung in ultraviolett, sichtbar und nahes Infrarot (0,2-4 µm)
für die reflektierte Sonnenstrahlung in infrarot (0,7-4 µm)
für Kalibrierungszwecke im Bereich 0,3-1 µm
ein 10-kanaliges abbildendes Spektroradiometer, die sog. Earth Polychromatic Imaging Camera (EPIC); sie macht Aufnahmen (ultraviolett bis nahes Infrarot) von der sonnenbeschienenen Seite der Erde zu verschiedenen erdwissenschaftlichen Verwendungszwecken.
das Plasma-Magnetometer (PlasMag) für Vorhersagen des Weltraumwetters mit drei Einzelinstrumenten:
ein Magnetometer zur Messung des Magnetfeldes
ein Faraday-Becher zur Messung positiv geladener Teilchen
Elektrostatischer Analysator (engl. electrostatic analyzer) zur Messung von Elektronen
Ein neues Blue Marble-Bild der Erde
Nach einer Reise von rund 1,6 Millionen Kilometern zum Lagrange-Punkt L1 hat der Satellit mit seiner Earth Polychromatic Imaging Camera (EPIC) erstmals einen Blick auf die gesamte sonnenbeschienene Seite der Erde geworfen. Bei L1 - viermal weiter entfernt als die Umlaufbahn des Mondes - hebt sich die Gravitationskraft von Sonne und Erde auf, so dass eine stabile Umlaufbahn und ein kontinuierlicher Blick auf die Erde entsteht. Das Bild unten wurde durch die Kombination von Informationen aus den roten, grünen und blauen Bändern von EPIC erstellt.
Dieses erste öffentliche Bild zeigt die Auswirkungen des Sonnenlichts, das von Luftmolekülen gestreut wird und der Scheibe einen charakteristischen bläulichen Farbton verleiht. Das EPIC-Team entwickelt Datenverarbeitungstechniken, mit denen die Landmerkmale hervorgehoben und dieser atmosphärische Effekt entfernt werden kann. Sobald das Instrument mit der regelmäßigen Datenerfassung beginnt, werden täglich neue Bilder verfügbar sein. Die Daten von EPIC werden verwendet, um die Ozon- und Aerosolwerte in der Erdatmosphäre sowie die Wolkenhöhe, die Eigenschaften der Vegetation und das Ultraviolett-Reflexionsvermögen der Erde zu messen. Die NASA wird diese Daten für eine Reihe von geowissenschaftlichen Anwendungen nutzen, darunter auch für Staub- und Vulkanaschekarten des gesamten Planeten.
Seit die Apollo-17-Astronauten 1972 das ikonische Blue Marble-Foto aufgenommen haben, war es nicht mehr möglich, die gesamte Sonnenseite der Erde auf einmal zu fotografieren. Zwar hat die NASA im Laufe der Jahre weitere Blue Marble-Bilder veröffentlicht, doch handelte es sich dabei meist um Mosaike, die mit Bildbearbeitungssoftware zusammengefügt wurden - nicht um eine einzige Ansicht der Erde, die zu einem bestimmten Zeitpunkt aufgenommen wurde.
Die Messungen der von der Erde emittierten Infrarotstrahlung werden zum Monitoring der globalen Erwärmung und der Klimavariabilität herangezogen. Messungen von Sonnenwinden, Magnetfeldern und Plasma werden neue wissenschaftliche Erkenntnisse liefern und als Frühwarnsystem fungieren für Gefahren, die von Sonnenereignissen für erdnahe Satelliten ausgehen (Sonnenwinde erreichen L1 ca. 1 h früher als die Erde). Weitere Untersuchungsobjekte sind die Dynamik der oberen Atmosphäre sowie die Wolkendecke mit ihren klimawirksamen Eigenschaften. Parallel zur DSCOVR-Mission wird umfangreiches Lehrmaterial mit interdisziplinärem Charakter entwickelt.
Jahrelang wurde der Satellit wegen politischer Kontroversen eingelagert. Im Dezember 2012 gab das Unternehmen SpaceX bekannt, dass der DSCOVR-Satellit 2014 mit einer SpaceX-eigenen Falcon-9-Rakete gestartet wird. Nach mehreren Verschiebungen erfolgte der Start am 11. Februar 2015.
Erster Erdbeobachtungssatellit der Vereinigten Arabischen Emirate. Er wurde am 29. Juli 2009 mit einer russischen Dnepr von Baikonur aus zusammen mit zwei Satelliten des weltweiten Katastrophenüberwachungssystems DMC, dem spanischen DEIMOS-1 und dem britischen UK-DMC 2 ins All gebracht. Die Satelliten umkreisen die Erde in 680 km Höhe auf einer sonnensynchronen Bahn mit einer Umlaufgeschwindigkeit von 27.000 km/h. DubaiSat 1 wurde vom Emirates Institute for Advanced Science and Technology (EIAST) - seit 2015 umbenannt in Mohammed Bin Rashid Space Center (MBRSC) - in Zusammenarbeit mit der südkoreanischen Satrec-Initiative für 50 Millionen Euro (Dh 184 Mio.) entwickelt und hatte eine geplante Lebensdauer von fünf Jahren. Im Jahr 2016, zwei Jahre nach dem Ende seiner geplanten Lebensdauer, ging DubaiSat 1 außer Betrieb und wird nur noch gelegentlich für Tests kontaktiert.
Der Satellit verfügt über ein optisches Abbildungssystem mit einer Schwarz-Weiß-Auflösung von fünf Metern und einer Auflösung im Multispektralbereich (vier Kanäle, rot, grün, blau und NIR) von zehn Metern. Zusätzlich ist ein Radiometer zur Bestimmung der ionisierenden Strahlung mit an Bord. Die Bilder von DubaiSat 1 sollen für die Stadtplanung, wissenschaftliche Forschung, Telekommunikation, Transport, Bauwesen und Kartierung verwendet werden. Der Satellit basiert auf dem südkoreanischen SI-200-Satellitenbus und wiegt etwa 200 kg. Er besitzt einen zylinderförmigen Grundriss mit 1,20 m Durchmesser und 1,35 m Höhe. Die Energieversorgung wird durch drei Solarzellenausleger mit etwa 330 Watt und drei Akkumulatoren von 18 Ah sichergestellt. Die Telemetrieübertragung erfolgt über jeweils zwei S-Band-Empfänger und Sender (2 Watt Leistung), die Datenübertragung der Bilder mit zwei 5 Watt Sendern, deren Signale QPSK moduliert sind.
Der Start des Nachfolgers DubaiSat 2 erfolgte am 21. November 2013.
Elektrooptischer Erdbeobachtungssatellit der Vereinigten Arabischen Emirate (VAE) als Nachfolger von DubaiSat 1. Er wurde am 21. November 2013 vom KosmodromJasny aus mit einer Dnepr-Rakete zusammen mit dem südkoreanischen STSAT-3 und 31 anderen, meist experimentellen Sekundärnutzlasten aus 17 Ländern auf eine sonnensynchroneUmlaufbahn in ca. 600 km Höhe gebracht. 2009 begann EIAST (Emirates Institute for Advanced Science and Technology - seit 2015 umbenannt in Mohammed Bin Rashid Space Center (MBRSC) - die Entwicklung von DubaiSat 2 in Zusammenarbeit mit der koreanischen Firma SI (Satrec Initiative).
DubaiSat 2 dient der Lieferung von Bildmaterial, das in den VAE und darüber hinaus vermarktet wird. Gleichzeitig wurden neue Technologien entwickelt und implementiert, die in DubaiSat 1 noch nicht zum Einsatz kamen.
Engl. haze, franz. brume; Trübung der - in der Regel bodennahen - Atmosphäre, wodurch sich eine horizontale Sichtweite zwischen 1 und 8 km ergibt. Dunst entsteht durch Partikel wie Wassertröpfchen, Rauch oder Staub. Durch die wellenlängenunabhängige Mie-Streuung an diesen Partikeln erscheint die Atmosphäre milchig-weiß bis grau. Dunst entsteht häufig bei austauscharmen Wetterlagen, wenn in der bodennahen Atmosphäre eine große Zahl von Aerosolen vorliegt. Dies ist besonders unterhalb von Inversionen der Fall, welche den Vertikalaustausch unterbinden. Durch die Ansammlung von Aerosolen und Wassertröpfchen mit einer scharfen vertikalen Begrenzung spricht man auch von einer Dunstglocke. Dunst verringert die atmosphärische Transparenz und reduziert die Objektkontraste vor allem in kurzen Wellenlängen.
Korrektur der durch Atmosphärilieneinfluss erhöhten Grauwerte (Atmosphärenkorrektur). Dunst erzeugt atmosphärische Streuung, welche sich in reduzierten Bildkontrasten widerspiegelt. Der Kontrast eines Bildes wird durch die Korrektur dieses Effektes verbessert. Gerade in Gebirgen mit großen relativen Höhen und Unterschieden in der Luftfeuchtigkeit kommt einer Dunstkorrektur nicht nur für die Herstellung von Satellitenbildern, sondern vor allem bei der digitalen Klassifizierung Bedeutung zu.
Engl. transmittance of the atmosphere; die gasförmigen Bestandteile der Atmosphäre zeigen jeweils charakteristische Absorptionseigenschaften. In den oberen Schichten der Atmosphäre ist beispielsweise der Einfluss des Ozons besonders stark. Das Zusammenwirken aller Bestandteile der Atmosphäre führt zu deren spektraler Durchlässigkkeit und definiert atmosphärische Fenster.
Klimatisch bedingte Trockenperiode mit sehr geringen Niederschlägen und hohen Temperaturen. Je größer das Wasserangebot vom Mindestbedarf der Vegetation abweicht, desto gravierender ist eine Dürre.
Man unterscheidet:
Landwirtschaftliche Dürren beziehen sich auf Feuchtigkeitsdefizite ungefähr im obersten Meter des Bodens (die Wurzelzone), der die Nutzpflanzen beeinflusst;
meteorologische Dürren sind hauptsächlich anhaltende Niederschlagsdefizite;
hydrologische Dürren beziehen sich auf unterdurchschnittlichen Abfluss, See- oder Grundwasserspiegel.
Eine Dürre wird zur Dürrekatastrophe, wenn durch die Degradation der Vegetation und den Wassermangel die Lebensgrundlagen der Menschen zerstört sind. Totale Ernteausfälle, Viehsterben, Hungertod und Massenmigration können die Folgen sein. Dürrekatastrophen sind auf eine Kombination klimatischer und anthropogener Faktoren zurückzuführen: Ökologisch nicht angepasste Landnutzung wie Überweidung, ackerbauliche Übernutzung und übermäßiger Holzeinschlag können im Falle einer Dürre zur Dürrekatastrophe führen. Eine Megadürre ist eine sich lange hinziehende und verbreitete Dürre, die viel länger als normal dauert, üblicherweise ein Jahrzehnt oder mehr.
Engl. dynamic range of image data, franz. dynamique des données d'image; nach DIN 18716 der "Bereich zwischen minimalen und maximalen Grauwerten in jedem Bildkanal".