Sony auf Speed: 12 Fotos pro Sekunde mit 42,4 Megapixeln

Sony, ValueTech, Digitalkamera, Dslr, Photokina, Spiegelreflex, Photokina 2016, Alpha 99 II Sony, ValueTech, Digitalkamera, Dslr, Photokina, Spiegelreflex, Photokina 2016, Alpha 99 II
Auf der Photokina scheinen sich viele Hersteller überlegt zu haben, ihre Fans dann doch einmal zu überraschen und nicht die erwarteten Top-Produkte in den Mittelpunkt zu rücken. Das gilt auch für Sony. Die Japaner warten auf der Imaging-Messe in Köln nämlich mit der "Sony Alpha 99 II", die zumindest nach dem ersten Eindruck, den unsere Kollegen von ValueTech TV sich abholen konnten, schnell Freunde finden dürfte.

Die Sony-Ingenieure haben hier kräftig an der Geschwindigkeit gearbeitet. Die Technik in dem System erlaubt es, mit der vollen Auflösung, die der eingebaute 42,4-Megapixel-Sensor zu bieten hat, satte 12 Bilder pro Sekunde zu schießen. Da stellt es an den Speichercontroller schon einige Anforderungen, wenn die dabei entstehenden Datenmengen weggeschrieben werden sollen. Und auch sonst bietet das Produkt zumindest auf dem Papier sehr gute Leistungsdaten. Laut Sony soll die Kamera ab November für rund 3.200 Dollar zu haben sein. Vergleichbare Konkurrenzprodukte wie beispielsweise von Canon sind da um einiges teurer.

Mehr von ValueTech: ValueTech - Technik. Einfach. ValueTech auf YouTube

Winfuture-Special: Photokina 2016
Dieses Video empfehlen
Kommentieren11
Jetzt einen Kommentar schreiben
 
42,4 Photos pro Sekunde mit 12 Megapixeln fände ich der besseren Lichtstärke des 12-MP-Sensors wegen schon eher ansprechend und die Echtzeit-Bildbearbeitung in der Kamera müsste komplett abzustellen sein, damit man Photographien erzeugt und nicht bloß komplett durch die Algorithmen-Mangel gedrehte, schöngerechnete Computergraphiken aus verrauschten Sensordaten erhält, wie derzeit bei DSLRs der 3000EUR-Prosumer-Klasse leider der Fall.

In der Photographie stellt es nämlich die höchste erreichbare Qualität dar, das Abbild so nah wie möglich an das photographierte Original zu bekommen. Das ging vor 10 Jahren noch mit DSLRs für kaum 1000EUR (Heute können das nicht einmal mehr Kameras für 6000EUR.).

Dann wurde die Kameraelektronik leider so leistungsfähig, dass sie eine komplette Bildbearbeitung in Echtzeit in der Kamera ermöglichte und schon produzierte man billiger herzustellende, optisch minderwertige Hardware, deren Chroma- und Verzeichnungsfehler man dann eben mit Algorithmen in der Kamera so weit hinbastelte, dass dies dem Nutzer und den meisten Testredakteuren nicht mehr auffiel.

Statt mit der Sensorauflösung bei einer von der erreichbaren rauscharmen Lichtstärke her optimalen Pixel-pro-Fläche-Zahl zu bleiben, baute man lieber sinnlose, die Auflösung des optischen Systems heute sogar bei normalen Arbeitsblenden weit übersteigende Sensoren, weil sich die Megapixelzahl ja als Qualitätskriterium in den Köpfen der meisten Kunden schon fest etabliert hatte und man die Masse dieser Kunden offenbar für geistig nicht flexibel genug hält, ein anderes Qualitätskriterium zu akzeptieren und fortan hinter dem herzulaufen.

Weil 40 Megapixel auf einem Kleinbild-Vollformat-Sensor viel mehr Licht brauchen um nicht sichtbar zu rauschen als etwa 12 Megapixel auf derselben Fläche, rechnet man bei heutigen Kameras der 3000EUR Klasse schon bei den meisten mit normalen Tageslicht aufgenommenen Photos die rauschenden Pixel künstlich per Entrauschungsalgorithmus aus dem Bild, verliert dadurch reale Auflösung und erzeugt eine Computergraphik, da der Algorithmus auch nur schätzen kann, welche Pixel verrauscht sind und dabei Fehler macht und ins Bild einbaut. Danach muss das Bild dann zwangsläufig noch nachgeschärft werden, wobei ebenfalls kein Pixel auf dem anderen bleibt und weitere Artefakte ins Bild eingerechnet werden. Dazu kommen oft noch Algorithmen, welche geometrische und chromatische Aberrationen des montierten Objektivs aus dem Bild zu tilgen versuchen und dabei die Bildqualität noch einmal verschlechtern, da sie noch einmal alle möglichen Pixel umherschieben. Heraus kommt am Ende eine Computergraphik mit entfernter Anlehnung an die real photographierte Szene, aber niemals eine Photographie im eigentlichen Sinne, denn, wie ich schon schrieb, bleibt eine Photographie so nah wie möglich an der realen Szene die photographiert wurde und das kann man von so einer völlig kaputtgerechneten, mit Artefakten verseuchten Computergraphik wie man sie heute selbst aus 3000EUR+ Prosumer-Kameras herausbekommt nun wirklich nicht behaupten. Darin ist kein Pixel mehr, wie es der Sensor einmal gesehen hat. So ein Bild hat keine Photoqualität.

Heutzutage muss man daher leider über 10.000 EUR für eine Kamera ausgeben, damit die ein wirkliches Photo macht und einem keine zusammengepfuschte Computergraphik der photographierten Szene als RAW-Bild vorlegt. Das habe ich vor einiger Zeit nach Tests mit einer Nikon D800E und einer Canon 5D MkIII getan und mir danach eine Hasselblad H4D-40 gekauft, die eine der wenigen Kameras zu sein scheint, die nicht in den Sensordaten herumpfuscht. Bei deren RAWs konnte ich in Pixel-auf-Pixel-Ansicht am Monitor jedenfalls keine Entrauschungs-und-Nachschärfungs-Artefakte finden.

Allerdings suche ich bis heute eine handlichere Kamera als die Hasselblad für die Fun- und Extremsportphotographie im Urlaub und da ich dort heute eine ältere Minolta- und eine noch von Minolta entwickelte Sony-Kamera verwende und dafür eine Menge Objektive habe, wäre so eine Sony Alpha 99 II systembedingt schon nicht schlecht.

Aber bei der Sensorauflösung, welche die Sony Alpha 99 II mitbringt, mache ich mir keine Illusionen darüber, dass die auch kräftig in den Sensordaten herumrechnen wird, denn auf Hardware- bzw. Sensorebene ist seit der Rückseitenbelichtung bei CMOS-Sensoren eigentlich nichts weltbewegendes mehr passiert, was die Sensoren sensationell lichtempfindlicher gemacht hätte. Bilder bei wenig Licht/superhohen ISO-Zahlen jenseits von ISO 1600 ohne erkennbares Rauschen müssen also gänzlich durch Herumrechnen in den Sensordaten zustandekommen und damit taugt die Sony Alpha 99 II ebensowenig wie die von mir damals vor Kauf der Hasselblad getesteten Nikon D800E und Canon 5D MkIII.

Naja, ich habe Zeit. Bisher halten meine um die 10 Jahre alten DSLRs bei der Sportphotographie noch ganz gut durch. Wenn dann irgendwer mal eine sinnvoll konstruierte Kamera, die wieder Photos statt Computergraphiken erzeugt auf den Markt wirft, dann kaufe ich die. Sony hat ja sogar eine Kamera mit 12 Megapixel-Sensor im Prosumer-Segment im Programm. Leider ist das aber eine Systemkamera und wie ich auf deren Bildern gesehen habe, pfuscht die genauso in den Sensordaten herum wie fast alle anderen Kameras.

Schade eigentlich. Früher war bei mir immer kein Geld da, dafür gab es tolle Kameras die ich gerne gehabt hätte, heute ist Geld da, es gibt aber keine Kameras mehr die mir gefallen.
 
@resilience: Öhm, also meiner meinung nach sollte die Kamera das Bild nicht so einfangen wie es wirklcih aussieht, sondern so wie der Fotograph es möchte. Er sagt das der Kamera durch Iso, Blende und Belichtungszeit.

Alles andere kann man später dann noch per Photoshop & Co verändern.

Die Kamera muss je nach "schwierigkeit" des Motivs dann noch eine gewisse Aufnahme-Qualität mitbringen, aber wie gut das Bild wird bestimmt hauptsächlich der Mensch hinter dem Auslöser.

Ich habe gelernt dass leute mit deiner Einstellung mit einer Hasselbad schlechtere Bilder machen als ich mit dem Lumia 950 (und ich sehe mich selbst eher als begeisterter Amateur mit einer Nikon D5300).

Diese beiden Kameras rechnen im fertigen JPG natürlich das rauschen von sich aus raus, aber im RAW nicht.
 
@resilience: Jetzt noch ein paar Quellen und Vergleichsbilder wären nett um deine Theorien zu untermauern. Und damit meine ich keine Links zur allgemeinen Sensortechnik bzw. Rauschverhalten. Wie das entsteht weiß nun jeder. Dann doch schon eher was zu der Denoise-Blackbox, die auf jedes Foto angewendet wird, selbst wenn es Raw sein sollte.
 
find nach dem gigapixel-wahn diese ganzen x bilder/sekunde-rekorde einfach nur lächerlich. das hat mit fotografieren einfach 0 komma gar nix mit fotografieren zu tun, es sei denn, man knippst permanent sport oder andere schnellere bewegungen. ansonsten sind das reine technik-zahlen, die den nerd spitz machen, aber absolut keine garantie für ästhetisch schöne fotos sind.

mein wunschkamera für den prosumer: 15mp bei rauschfrei/armen iso 25600. da habe ich mehr davon als 12 bilder/s bei 42mp, die man eigentlich seltenst nutzt (ausnahme s.o.)
 
@palim: Du vergisst Sportfotografen. Für die können mehr Bilder pro Sekunde nicht genug sein.
 
@blume666: steht doch da: "es sei denn, man knippst permanent sport oder andere schnellere bewegungen"...
 
Viele denken immer noch das mehr Megapixel auch mehr Bildrauschen hat.
Das stimmt so nicht ganz, eine 48MP Kamera rauscht weniger als eine 12MP Kamera
wenn man das Bild auf 12MP runterskaliert. Jeder kann es selbst ausprobieren, nehmt ein Bild mit euer Kamera mit hoher ISO auf bis deutlich rauschen zu sehn ist dann skaliert ihr das Bild mit Corel oder Photoshop auf 1/4 runter.
Ein weiterer Vorteil ist das ein Pixelfehler in der hohen Auflösung weniger sichtbar ist.

Das Rausch Nutzungsverhältnis ist viel höher weil mehr Bildinformation als Rauschen aufgezeichnet werden.

Wer schon mal in 4K gefilmt hat weis das wenn man das Video in HD wandelt es immer besser ist als die beste HD Kamera.
Neue Kameras mehmen heute in 5 oder 8K intern auf um weniger Bildrauschen bei der Ausgabe in 4K zu haben.
 
@Montag: würde ich nicht sagen: je mehr mp, desto mehr pixel müssen auf den millimeter gequetscht werden. + höhrere iso=gleich mehr strom, d.h. elektronensprünge von pixel zu pixel steigen = rauschen. das was du beschreibst = runterskalieren ist einfach nur "beschiss". in der 1:1 ansicht bei 48mp ist das rauschen sicherlich stärker. aber der technische fortschritt ist natürlich auch ein faktor, der dem entgegenwirkt
 
@palim:
Einfach nach "Superpixel" suchen.

Hier ein ausschnitt von meiner DVX200
"The second effect is a notable reduction in image noise. Since four pixels are
being averaged together to create each superpixel, the minor fluctuations
in brightness that are caused by noise are also averaged together, which
results in the noise being less noticeable. In general you can consider that
a "superpixel" will have approximately twice the signal-to-noise ratio that
the individual pixels would have. This makes FHD mode footage noticeably
less noisy than UHD or 4K footage."

Das herunterskalieren ergibt ein schärferes und rauscharmes Bild als ein in native Auflösung gemachtes Bild.
 
@Montag: natürlich ist ein runterskaliertes besser als ein natives. trotzdem ist das beschiss :D
Kommentar abgeben Netiquette beachten!