Satellitenfotos: US-Regierung lockert Grenzen für Auflösung

Die US-Regierung hat die Freigabe dafür erteilt, dass zukünftig auch höher auflösende Satellitenbilder außerhalb des militärischen Bereichs verkauft und eingesetzt werden dürfen. Das teilte der Satelliten-Betreiber DigitalGlobe mit. mehr... Satellitenbilder, Hurrikan, Sturm Bildquelle: NASA Satellitenbilder, Hurrikan, Sturm Satellitenbilder, Hurrikan, Sturm NASA

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Da bin ich mal gespannt, wann man diese Bilder dann in Google/Bing Maps sehen kann.
Indienststellung ... Indien; Indienststellung ... Indien; Indienststellung ... Indien; InDIENSTstellung aaaah
 
@links234: Also ich bin voll drauf reingefallen... Indienststellung xD
 
@links234: "Indienststellung" hardest word ever
 
@links234: haha hab auch immer nur Indien gelesen.
 
@links234: lol....Ich habe vermutlich schon zu häufig "Indienststellung" gelesen und geschrieben. Das Wort ist mir nicht einmal besonders aufgefallen als ich den Satz überflogen habe, dabei habe ich einen Webserver in Indien stehen, so das mein Hirn "Indien" eigentlich gebräuchlicher vorkommen müsste als "Dienst".
 
Sorry, ich verstehe nicht viel von Fotographie was heißt "50 / 25 Zentimetern pro Pixel" Quantitativ und oder Qualitativ, und wie ist das Verhältnis zur Auflösung (dpi)?
Dass es eine Verdoppelung des Bild Details ist, ist mir klar, ich kann nicht einordnen was es im Vergleich zur einer (Beispiel) 16 MP "Normal" Kamera ausmacht?
 
@Kribs: Ein Pixel entspricht einer Fläche von 50x50cm. Jetzt ist ein Pixel eine Fläche von 25x25cm. Also eine viermal so hohe Auflösung wie vorher. Korrigiert mich, ganz sicher bin ich mir grad nämlich nicht.
 
@Chosen_One: Richtig, die Halbierung der Kantenlänge bedeutet hier eine vierfache Auflösung.
 
@Chosen_One: Du hast Recht , mein Ausgangswert waren die "Möglichen 41 cm".
Aber sind die Angaben nicht eher pro Bildpunkt/Pixel, so dass man eigentlich nicht von Auflösung schreiben kann?
Sind dann die Angaben Korrekt, weil eine eigentlich Viel höhere Auflösung im gesamten Bild möglich sein sollte?
Bei Maps wäre z.B. ein Menschlicher Kopf kleiner als die möglichen 41 cm, somit von der Gesamt Auflösung nicht im Bild zu sehen?
 
@Kribs: Doch schon wirst du den Kopf sehen können. aber nun komms... ;)

Gehen wir mal davon aus das die Aufnahme Lot recht gemacht wird, dann wird nicht nur der Kopf auf diesem Pixel zu sehen sein. Steht diese Person nun auf einem gepflasterten Fußweg so wir das auch in diesem Pixel mit eingerechnete. Das bedeutet das eine schwarz haarige Person(der Pixel) auf einem roten Gehweg einen leichten Rotschimmer haben wird. Im übrigen sind das wohl Bilder die runter gerechnet wurden. Also das Original in einer weitaus höheren Auflösung vorliegen. Wissen wir was das Ding da oben wirklich kann?
 
@Kribs: 16 MP sagen dir erst mal nur, dass das Bild eben aus 16 Millionen Pixeln besteht, du hast jedoch noch keine Information dadrüber, was du darauf alles abbilden kannst bzw. in diesem Fall darfst.
Beispiel: Nehmen wir an, mit deiner ~ 16 MP-Kamera kannst du ein Bild in der Größe 5000*3333 Pixel erzeugen, das wären dann etwas genauer 16,7 MP. Jetzt wählst du indem du zoomst oder dich selber mit der Kamera bewegst, einen Bildausschnitt, sodass du eine 1,80m große Person im Hochformat recht formatfüllend ins Bild bekommst, vllt lässt du oben und unten noch 10 cm Platz. Dann hast du etwa 2m Höhe aus der realen Welt aufgenommen und diese 2m vertikal werden mit den 5000 Pixeln vertikal abgebildet. Damit bildest du pro einzelnem Pixel 2000 mm/5000px = 0,4 mm pro Pixel ab. Das ist schon sehr genau.
Jetzt stell dir vor, du gehst mit der selben Kamera in den Garten und fotografierst sagen wir im Querformat die schöne Landschaft. Dein Bildausschnitt, d.h. die fotografierte Landschaft, ist dann sagen wir mal 5 km breit. Alle Details auf diesen 5 km müssen sich jetzt aber genauso auf die 5000 Pixel aufteilen, die deine Kamera zur Verfügung stellt. 5000 m / 5000 px = 1 m pro Pixel.

Während du also auf dem ersten Bild bei 0,4mm pro Pixel noch ein einzelnes Knopfloch an der Jacke der Person erkennen konntest, weil es von der Größe her deutlich auf mehrere Pixel aufgeteilt wurde, können bei deiner Landschaftsaufnahme auch mal 2 größere Steine von je 30 cm Größe auf der weit entfernten Straße liegen und du würdest sie auf dem Bild nicht einzeln erkennen können, weil sie sich zusammen mit anderen Details einen Pixel teilen müssen.

Jetzt wird klar, warum du das in dem Artikel nicht so einfach mit ner Mexapixel-Angabe deiner Kamera vergleichen kannst. Ohne weitere Informationen wie den Bildausschnitt ist eine Megapixel-Angabe relativ wenig wert. Von der Qualität der eingesetzten Optik mal ganz abgesehen. Wie die jetzt also diese Verbesserung der Bildqualität erreichen, wird hier nicht gesagt, aber im Wesentlichen haben sie diese beiden Möglichkeiten:
1. Neuer Bildsensor mit mehr Megapixel und entsprechend bessere Optik
2. Einfach weiter ranzoomen und den Bildausschnitt eines einzelnen Fotos verkleinern und dafür halt mehr Fotos machen. -> Dafür braucht man auch ne bessere Optik ;)
 
@Tschramme86: Danke für deine/Eure Antworten, der 16 MP vergleich bezog sich auf die mir fehlende Ausgangsgröße, leider kann ich die Antworten noch nicht mit meiner Frage zusammenbringen deshalb versuche ich das nachstehend nochmal zu konkretisieren auch auf die Gefahr das ich voll daneben liege:

Ich hab nachfolgende Sätze aus (http://de.wikipedia.org/wiki/Punktdichte) "geborgt":
"Umgangssprachlich wird in allen o. g. Bereichen oft nur der variantenreiche Begriff der „Auflösung“ verwendet. Dabei ist im Einzelfall jedoch zu unterscheiden, ob es sich beispielsweise um Druckpunkte (englisch „dots“), Pixel, eine Anzahl Zeilen beziehungsweise Spalten, eine Gesamtanzahl von Pixeln oder um eine rein rechnerische Größe (zum Beispiel mittels Interpolation) handelt."

Demnach wäre "Ein Pixel" nicht die Auflösung sondern "1 Bildpunkt", was mich Irritiert ist bei einer Auflösung von "möglichen 41 cm" pro Bildpunkt wäre (zum Beispiel ) ein Menschlicher Kopf kleiner als ein Bildpunkt?
Die mögliche Auflösung lässt aber bei (Beispiel) Maps fast die "Augenfarbe erkennen"?
 
@Kribs:
Ein Pixel ist zunächst mal nur etwas abstraktes, eine Fläche undefinierter Größe, die genau eine bestimmte Farbe annehmen kann (wenn wir jetzt mal Farbmischung und RGB-Subpixel weglassen).
Wenn du jetzt recherchierst über den Zusammenhang zwischen Pixel und irgend ner Größenangabe, dann musst du zuerst mal grundsätzlich unterscheiden ob es dir um die Bildaufnahme oder um die Bildwiedergabe geht. Eine Angabe von z.B. dpi bei Bildschirmen und Druckern gibt dir Auskunft über die Bildwiedergabe. Wie viele Pixel pro cm oder Zoll (dpi = dots per Inch) kann der Drucker abbilden? Ein einzelner Pixel hat immer nur genau eine Farbe, wenn du also auf die Länge von einem Zoll 300 verschiedenfarbige Punkte malen kannst, dann ist das deutlich detailgetreuer als wenn da vllt nur 50 Punkte sind, die du dann sogar mit bloßem Auge unterscheiden kannst. Das gedruckte Bild wirkt dann pixelig.

Hier geht es jetzt aber nicht um die Bildwiedergabe, sondern um die Bildaufnahme, d.h. wie kommt ein einzelner Pixel überhaupt zu seiner Farbe? Und jetzt sind wir wieder bei meinem Beispiel aus meiner vorherigen Antwort. Bei dem Landschaftsfoto fällt das Licht von 1x1 Meter Landschaft auf diesen Pixel des Kamerasensors und belichtet ihn. Da dieser Pixel aber nur genau eine Farbe haben kann, nimmt er dann also einfach den durchschnittlichen Farbwert und die durchschnittliche Helligkeit von dem Licht, was ihn erreicht, als Farbe an. Bei dem Portrait-Bild dagegen erreicht den selben Pixel nur das Licht von 0,4x0,4mm aus einem Ausschnitt der abgebildeten Person. Die nächsten 0,4mm werden dann also schon vom benachbarten Pixel des Bildsensors eingefangen. Das aufgenommene Bild wird somit wesentlich detailreicher, weil für jeden Pixel nur über einen viel kleineren Bereich des realen Bilds die durchschnittliche Farbe ermittelt wird.

Wenn du jetzt also 41 cm reale Welt auf einen Pixel abbildest, dann ist ein menschlicher Kopf definitiv kleiner. D.h. der Pixel bekommt als Farbe den Durchschnitt aus der Farbe des Kopfes und vllt der Farbe des Gebäudes, was noch hinter dem Kopf zu sehen ist.
Wobei auch das hier wieder etwas ungenau ist, weil die 41 cm gelten ja nur auf einer Ebene. Wenn du also einen Mensch mit 41 cm Schulterbreite in einer Entfernung vor dir stehen hast, sodass diese 41 cm genau auf einen Pixel abgebildet würden, dann würde von dem 5 m hinter dem Kopf noch zu sehende Gebäude deutlich mehr als die 41 cm Breite zu sehen sein, eben weil die Blickstrahlen auseinanderlaufen. Aber das führt hier zu weit und ist auch bei dieser Anwendung zu vernachlässigen, weil bei einem Blick aus dem Weltraum die Erdoberfläche bei solchen Fotografien als flache 2D-Ebene angesehen werden kann.

Wenn du jetzt also ein Bild aufnehmen willst, auf dem du die Augenfarbe eines Menschen erkennen können willst, dann musst du dir nur überlegen, wie groß ist die Iris des Auges? Sagen wir, sie hat n Radius von 0,5 cm, dann könnte man jetzt sagen, naja wenn man so 4 Quadrate mit 0,5cm Kantenlänge über die Iris legt und jedes Quadrat halt den durchschnittlichen Farbwert der Stelle annimmt, die es abdeckt, dann wird man im Nachhinein schon zumindest ungefähr die Farbe der Iris erkennen können (natürlich noch keine feinen Strukturen). Die Optik und der Bildsensor müssen dann also darauf ausgelegt sein, höchstens 0,5 cm pro Pixel in der Entfernung zwischen Kamera und aufzunehmenden Objekt abbilden zu können.
Der Artikel spricht von 25 bzw. 50 cm pro Pixel - ist also noch etwas Zeit, bis man unsere Augenfarbe aus dem All erkennen kann ;)
 
Habe lange suchen müssen für eine Erklärung für die die es Interessiert:

Die obige Verbindung Maßeinheit Pixel ist nicht richtig, die Maßeinheit (in cm) gibt die Objektgröße an die mit der Aufnahme (ohne zu "verpixeln") real gemacht und wiedergegeben werden kann.
Ein Objekt/Struktur von Mindestenz 50 cm bzw. 25 cm (Möglich sind max 41cm) kann/darf aus einen Bild heraus gezoomt werden Ohne das es verschwimmt oder undeutlich wird.
http://www.digitalglobeblog.com/
 
Mir wären aktuelle Bilder wichtiger. Bei uns steht noch der Pavillon von der letzten Fußball-WM in Deutschland auf dem Hof.
 
@Jens002: Also eine Zeitmaschine!
 
@Jens002: Quasi eine Sommermärchen-Zeitmaschine ;-)
 
@Jens002: passt doch... Stell ihn jetzt wieder hin und du bist voll aktuell ;)
 
bin mal gespannt ob googles satelliten startup da als erster die entsprechende auflösung liefert.
 
Also wenn man ein Pixel als einfarbige kleinste Einheit eines Bildes definiert, dann sind quadratische Pixel mit 25cm Kantenlänge viel gröber als das, was schon seit Jahren an Pixelgrösse bei Satellitenfotos der Standard ist. Man kann bei Autos auf den Strassen teilweise die Form der Scheinwerfer in der Aufsicht erkennen. Da ein Scheinwerfer schon in der Frontansicht eines Autos recht klein ist, sollte er bei Pixeln mit 25cm Seitenlänge nur noch aus 1-2 einfarbigen quadratischen Pixeln bestehen und damit wäre seine Form kaum zu erahnen. Grössere Autos würden bei 25cm-Pixeln nur aus um die 150 Pixeln bestehen. Da erkennt man keine runde Scheinwerferform.

Ich würde also mal annehmen, dass mit der "Pixelgrösse" hier eher die kleinsten noch erkennbaren Details eines Objektes gemeint sind.

Das kommt auch ungefähr hin, da man auf heutigen Satellitenfotos Dachpfannen noch so gerade eben als Textur erkennen kann und diese von der grössten Kantenlänge her um die 40-50cm liegen dürften.

Insofern ist die Bezeichung Pixel im Artikel etwas irreführend.
 
@nOOwin: Nein, du vergisst dabei, dass es sich beim "Heranzoomen" bei einem Kartendienst nicht komplett um Satellitenaufnahmen handelt. Die "Nahaufnahmen", die du ansprichst, wurden vom Flugzeug aus gemacht.
 
Hmmm, was der Bericht nicht schreibt: Die Regelung gilt natürlich nur für US-Unternehmen. In anderen Ländern gelten natürlich andere Gesetze. Deutsche Satelittenunternehmen müssen sich natürlich nicht an die US-Gesetze halten.
Abgesehen davon liefern häufig die eigenen Stadt-/Kreisbehörden die detailreichsten Aufnahmen. Selbst kleinste Details sind dort problemlos auszumachen, während Google, Bing und Co. nur völlig veralteten Pixelbrei liefert. Außerdem kann man schön die zeitliche Veränderung nachvollziehen.
Größere Unternehmen lassen übrigens ihr eigenen Liegenschaften häufig im eigenen Auftrag überfliegen, da gibt es dann extrem hochaufgelöste Aufnahmen (<=10x10 cm).
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.