War ja gerade meine anmerkung, was geht, wieviel kleiner als 0,5m optisch? Und meine Theorie auch wenn es nicht überall verfügbar ist, mehr nicht per Konsens als 0,5m an Zvilisten geht. Aber wissen nicht alle großen Militärs was die anderen können, und ist das nicht auch sogar sehr ähnlich, muß man das noch geheimhalten?
So weit man in der zivilen Welt der Erderkundung weiß ist liegt die maximale Auflösung die militärisch genutzt wird um die 10 cm. Gleichzeitig muss der Sensor aber eine sehr hohe Dynamik haben um aus dem wenigen Licht das von dieser kleinen Fläche in dem winzigen Augenblick in der der Sensor von dieser Oberfläche Licht enpfangen kann ausreicht um ein paar bit zu füllen. zusätzlich darf der Sensor keinen Memory Effekt haben d.h. dass Information vom Pixel vorher noch mitgeschleppt wird z.B. von sehr hell auf sehr dunkel. Das ist sehr anspruchsvoll den Sensor in der kurzen Zeit wieder auf Null zu bringen um saubere Daten für das nächste Pixel zu erhalten. Wer sich frühe digitale Satellitendaten ansieht kann diesen Effeckt deutlich erkennen extrem von Schneeflächen auf dunkle Oberflächen ist dieser Effekt of noch 20 Pixel weit sichtbar. Bei pushbroom Scannern (Schwenkspiegel) führt das zu sägezahnartigen Effekten.
Zusätzlich ist das Rauschsignal noch ein Thema das zwar mit viel technischem Aufwand reduziert werden kann, aber im All Einflußfaktoren existieren wie z.B. die permanenten Temperaturwechsel und in ihrer Stärke nicht immer quantifizierbare elektromagnetische Einflüsse (Sonnenwind).
D.h. pure technische Auflösung heißt nicht immer dass dann auch mehr Details erkennbar sind, die Optik ist im Moment nicht das Limit sondern die Technik dahinter.
Wenn man dann überschlägt dass bei 10 cm Auflösung und einer Zeile von 20.000 Pixeln nur noch eine Pfadbreite von 2 km herauskommt wird klar wie teuer erkauft diese hohe Auflösung ist und dass man beim Einsatz solch hochauflösender Kameras ganz genau wissen muß wo und wonach ich suche. Bei frei beweglichen Objekten ist diese hohe Auflösung eher Kontraproduktiv, es sei denn es sind gleichzeitig Hinweise aus anderen Quellen auf die Position verfügbar.
Zu dem RT Artikel ist zu sagen. dass es sich bei den gezeigten Daten um Daten handelt, die jeder von uns kaufen oder auch deren Aufnahme ordern kann wenn er dafür Geld ausgeben möchte. Der farbige Datensatz ist hochauflösend RGB von Digitalglobe (jetzt Maxar)siehe Copyrigth Vermerk der s/w Datensatz ist vermutlich von einem Sensor, der eine hochauflösenden panchromatischen Kanal z.B. 1x1m und multispektrale Kanäle 3x3 m hat um die Datenmenge unter Kontrolle zu halten. Diese 3m x 3m Kanäle können dann mit einem geeigneten Prozess, der Auflösung und Helligkeitsverteilung im panchromatischen Bild mit der Farbinformation der Mulispektralkanäle zu einem 1x1m Farbbild verschnitten werden.
Allerdings stellt sich immer wieder die Frage wer braucht die Farbe, wir Menschen mit unserem Hintergrundwissen im Gehirn brauchen sie selten, sieht einfach nur besser aus, denn wenn wir uns ein s/w Bild ansehen erkennen wir bereits zwischen 95 und 98% der Objekte eindeutig.
Geleichzeitig hat s/w den Vorteil, daß ich ein viel breiteren Ausschnitt des solaren Spektrums abgreifen kann als wenn ich nur sehr schmalbandige Farbkanäle wähle. Daher ist mein Rausch-Signal Verhältnis gleich viel besser.
Aus diesen Aufnahmen zu schließen wie es der Artikel suggeriert, dass hier nur mit zweitklassiger Technik beobachtet wird ist technisch gesehen absurd und zudem handelt es sich um zivile Aufnahmen, die militärischen bekommen wir nicht zu sehen und es wird ja nicht nur mit optischen Sensoren gearbeitet sondern auch mit Synthetic Aperture Radar (SAR) mit unterschiedlichen Wellenlängen und Polarisationen und Auflösungen, da lassen sich Objekte unabhängig von Sonnenlicht, Wolken und anderen störenden Phänomenen wie Rauch, Sandsturm etc. identifizieren und durch Methoden wie Permanent Scatterer oder Köhärenzvergleiche auch in ihrer Aktivität beobachten.
Was geht muss man nicht geheimhalten, aber was man wirklich weiß ob man wirklich zum richtigen Zeitpunkt aufgenommen hat, ob man die aufgenommene Information richtig gedeutet hat. Durch die Steuerbarkeit der Sensoren kann man aus dem Orbit nicht mehr schließen was aufgenommen wurde, da fast alles in der Zwischenzeit off-nadir aufgenommen wird.
Was man aber geheim hält ist die Prozessierungstechnik dahinter die sich permanent weiterentwickelt, die aus einem Bild oder besser noch vielen Bildern erst echte Information macht über Typ und Aktivität der Objekte. Bild ist auch der falsche Ausdruck, das Bild interessiert eigentlich nur noch zum zeigen, wichtig ist die Information die ich aus den Daten hole und bei SAR muss man sich schon ganz schön bemühen um aus den von Geometrie, Rauhigkeit und Leitfähigkeit ein Bild zu machen, die Information liegt da eher in den Messwerten.