SanDisk: Weltweit schnellste SD-Karte präsentiert

Superlative beim Speichern: Sandisk hat eine neue SD-Karte mit dem Namen Extreme Pro UHS-II vorgestellt. Eine Datenübertragungsrate von bis zu 280 Megabyte pro Sekunde soll sie zur schnellsten Speicher-Karte der Welt machen. mehr... Speicher, Sandisk, SD-Karte, 64 GB Bildquelle: Sandisk Speicher, Sandisk, SD-Karte, 64 GB Speicher, Sandisk, SD-Karte, 64 GB Sandisk

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Kann man nur hoffen, dass 128 und 256 GB bald folgen und die Preise sinken werden.
 
@BloodEX: dann kann ich damit ja meine ssd ersetzen :D
 
@Mezo: Oder es irgendwo als Notfallsicherung verstecken :D klein genug sind die SD-Karten ja. ^^ Nur ob eine SD-Karte in puncto Haltbarkeit und dergleichen auch mit einer herkömmlichen SSD mithalten kann?
 
@BloodEX: SD-Karten gibt es schon wesentlich laenger als SSD, insofern sind alle Bugs schon ausgemerzt. Zudem halten die Sandisk ewig und vertragen auch mal den gelegentlichen Missbrauch mechanischer Art. Alle meine Karten sind von Sandisk und selbst meine 12 jahre alte CF-Karte funktiniert noch.Andere Karten wie Lexar,Kingston,Panasonic haben sich schon verabschiedet.
 
@Jade: Aber eine SSD durch eine SD-Karte ersetzen? Die haben ja eigentlich unterschiedliche Anforderungen, oder?
 
@BloodEX: Lange Freude hat man damit nicht wenn ein Betriebssystem drauf läuft, das viele kleine Schreibvorgänge vornimmt - dafür sind SD-Karten nicht geschaffen und gehen sehr schnell kaputt. Mich hat die Frage auch schon mal beschäftigt, mein Raspberry läuft als Webserver quasi durch und da ist auch ne SD drinn. Eine nette Diskussion zum Thema findet sich hier: http://www.forum-raspberrypi.de/Thread-lebensdauer-einer-sd-karte
 
@cronoxiii: Bei einer SSD, dessen Gebiet genau dieses Betriebssystem sein soll, dürfte das Problem aber mittlerweile gelöst sein, oder?
 
@BloodEX: Ja, die sind genau dafür ausgelegt und können das ab. Einerseits vertragen SD Karten weniger Schreibzyklen und andererseits sind die Schreibvorgänge bei einer SSD wesentlich schlauer verteilt, es wird also drauf geachtet, dass sich alle Speicherzellen gleichmäßig "abnutzen". Gibt da natürlich auch große Qualitätsunterschiede, aber da müsste man sich dann genauer über Reviews und so schlau machen. Meine SSD (128 GB Samsung 830) ist schon seit gut zwei Jahren im Rechner (und der läuft viel) und ich hab noch keine Probleme.
 
@cronoxiii: Und gehe ich recht in der Annahme, dass es lediglich am fehlenden Platz bei einer SD-Karte im Vergleich zur SSD liegt, dass genau das nicht auch bei einer SD-Karte umgesetzt wird?
 
@BloodEX: Das glaub ich nicht nur. Wenn man sich ne SSD so ansieht ist ja alleine der Speichercontroller fast so groß wie das ganze Innenleben einer SD Karte. Ich würde sagen es ist a) kein Platz für so einen guten Controller und b) wäre es zu teuer einen Aufwändigen Speichercontroller zu entwicklen und in eine SD karte die ein paar Euro kostet einzubauen. Für die meisten muss ne SD Karte einfach nur günstig und möglichst groß sein. Glaube kaum, dass viele höhere als Klasse 4 Karten kaufen. Ich hab eben mal gesucht und das hier gefunden: http://www.gutefrage.net/frage/stimmt-es-dass-sd-karten-ssds-sind
 
@BloodEX: 64GB wird da wohl erstmal das Maximum bleiben.
 
@doubledown: Wie? 64GB = Maximum?
Siehe hier:
http://www.picstop.co.uk/memory-cards/sdxc-memory-card/lexar-professional-600x-sdxc-uhs-i-class-10-256gb
Machbar sind längst 2TB Micro-SDs, nur noch zu teuer.
Oder meintest du mit 280+MB/s Übertragungsrate? Die kommen aber bestimmt auch bald.
 
Klingt ja toll! Liest sich fast wie eine Werbeeinschaltung. ^^ @ letzter Absatz USB3: kann mir jemand erklären wieso USB3 nicht sowieso schon längst USB2 verdrängt hat? Das gibt's ja mittlerweile schon eine Ewigkeit - trotzdem kommt ein Großteil der Geräte immer noch mit dem inzwischen lahmen USB2 daher, wobei von Blödmarkt & Co. USB2 sogar noch als "High Speed-USB" angepriesen wird...
 
@moribund: Weil USB 2 oftmals vollkommen ausreicht. In vielen Faellen reicht wohl auch noch USB 1
 
@zwutz: Aber wieso nicht gleich standardmässig das Bessere verbauen?
 
@moribund: Weil USB 3.0 für Anwendungen/Geräte, welche die höhere Geschwindigkeit nicht brauchen in keinster Weise "besser" ist. Die USB 3.0 Controller sind teurer, die Kabel sind aufwändiger herzustellen und daher ebenfalls teurer und die USB 3.0 Verbindung ist auch noch störanfälliger als die USB 2.0 Verbindung. Ich benutze daher weiterhin USB 2.0 und sehe keinen Sinn in USB 3.0. Wenn ich Daten schnell zu externen Festplatten übertragen möchte nehme ich ohnehin eSATA. Die Platte wird so auch vom Betriebssystem wie eine normale interne Platte erkannt und man kann daher auch von ihr booten und braucht keine passenden USB-3.0-Treiber, die eine zusätzliche Fehlerquelle darstellen.____

Meiner Meinung nach taugt USB ohnehin in keiner Version viel. Firewire war immer schon das weit bessere Konzept. Da braucht man am Rechner nur einen Firewire-Anschluss und kann problemlos 63 Geräte daran anschliessen. Versuch mal 63 USB-Geräte an einen Laptop anzuschliessen, dann wirst Du sehen, wie undurchdacht USB als Schnittstelle für externe Geräte ist.
 
@nOOwin: Ja das nervt, wenn man 60 Festplatten und die Maus/Tastatur-Kombi am USB hat, zickt das schonmal rum. Im übrigen kann man auch von USB3.0 ohne Treiber von externer Platte booten.
 
@iPeople: Ich habe wohl eher um die 160 Festplatten. Mehr als 60 laufen schon in den Storage-Arrays meiner drei Dual-Xeon-Server (Haupt-, Spiegel- und dezentraler Backupserver. Jeder von denen ist mit derzeit 24 Platten unterwegs). An einem Rechner 60 Platten per USB angeschlossen würde ich mal gerne sehen. Schon die fast 60 Platten von LAN-Party-Teilnehmern, die ich mal an einem einzigen Firewire-Port an einem Notebook hängen hatte, hätte ich per USB wohl kaum ohne grössere Verrenkungen mit Hubs und Co. daran untergebracht.____

Wenn Du mit voller USB 3.0 Geschwindigkeit von einer externen USB-3.0-Festplatte booten willst, brauchst Du eine zusätzliche USB-3.0-Unterstützung im BIOS, die Deinen Controller-Chip auf USB-3.0-Ebene und nicht nur im USB-Legacy-Mode ansprechen kann. Von eSATA booten kann hingegen jedes Wald- und Wiesen-BIOS, da es ja ohnehin von SATA-Platten booten können muss.
 
@moribund: ist doch auch richtig... USB2 gab es als "Full-Speed" und "High-Speed" wenn ich mich nicht irre... ;)
 
@moribund: USB 3.0 ist durch die hohe Datenrate/Frequenz mit der gearbeitet wird sehr fehleranfällig. Quasi jeder kann USB 2.0 Daten über dünnste Kabel leiten, bei USB 3.0 ist das nicht mehr so leicht, leider. Außerdem sind die Stecker 'umständlich', zu groß und unhandlich (nur eine Einsteckrichtung) für Mobile Geräte. Es kommt bald der Typ-C Stecker, der von der größe ähnlich wie USB 2.0 Typ-B (Micro-USB wie wir ihn kennen und lieben), aber mit USB 3.1 und beidseitig einsteckbar (wie das Apple Lightning) ist: http://www.usb.org/press/USB-IF_Press_Releases/Type-C_PR_20131203_Final.pdf
 
@paul1508: Ok, danke für die Info. Wusste ich nicht.
 
@moribund: weil USB 2 eben High Speed ist. Also die Bezeichnung ist richtig. USB 3.0 ist SuperSpeed. ja wer ist jetzt hier der Blödmarkt ??
 
@Lon Star: "High Speed", "SuperSpeed". Also im Prinzip das übliche stupide Marketing-Geplapper!
 
@moribund: das hat nix mit marketing zu tun. So sind nunmal die offizielen Bezeichnungen.
 
Sicher ein schöner, werbewirksamer Superlativ für Sandisk. Dummerweise gibt es keine sinnvollen Anwendungen für solche Karten. Selbst FullHD-Filme aufzeichnen geht spielend auf ganz normalen Sandisk Ultra Karten.
 
@nOOwin: Den Beitrag hast du dann offensichtlich nicht gelesen.
 
@EffEll: besonders weit kommt man mit 64K dann allerdings nicht. So langsam müsste es auch den Jungs und Mädels bei Sandisc dämmern das man die letzten 2 Jahre immer am falschen Ende optimiert hat. Oder glauben die ersthaft jeder rennt mit nem Patronengurt voller Speicherkarten in der Gegend rum ? 4 mal langsamer und dafür 4 mal größer wäre 4 mal sinnvoller gewesen, dafür hätte ich dann 4 mal mehr Anwendungen.
 
@aliasname: Dumm nur, dass die Größe einer Speicherkarte durch seine Strukturgröße bestimmt wird - und das die Strukturgröße von solchen NAND-Speichern nun mal nicht unendlich verkleinerbar ist.
 
@EffEll: Doch. Nur stimmt es nicht, das professionelle Anwender solche Speicherkarten suchen. Nicht einmal für 4K-Material braucht man diese Datenrate und dazu wird auch in Zukunft kaum ein professioneller Anwender daran denken in 4K zu drehen. Weil nämlich dann keiner seine Filme senden wird, da die Sender allesamt nicht auf 4K umstellen werden. Die haben gerade mal alles auf HD umgstellt und sehen keine Vorteile in FullHD oder 4K. ;-)
 
@nOOwin: Das keiner 4k nutzt ist falsch. Im professionellen Bereich, wurde schon 2009 auf 4k gesetzt. Beispiele aus diesem Jahr welche in nativ 4k gedreht wurden, sind Knowing und District 9. Damals mit der RED ONE Kammera... Nichts desto trotz ist der Speicherplatz von 64GB für 4k im produktiven Einsatz sicher ziemlich klein.
 
@MMc: Ich habe nicht geschrieben, das es absolut keiner nutzt. Ich habe geschrieben, dass es keinen Sinn macht 4K-Auflösung zu nutzen. Klar gibt es immer Leute, die sinnlose Technik nutzen. Die werden auch noch 200MP-Vollformat-DSLRs nutzen, da sie in Physik tief geschlafen haben und daher noch nie etwas von der Beugungsgrenze gehört haben. Schon heutige 40MP-Vollformatsensoren sind sinnlos, wenn man mit Blende 8 oder noch kleineren Blenden fotografiert, weil selbst das beste Objektiv in dem Falle keinen Detailgrad mehr abbilden kann, der einen 40MP-KB-Sensor auslasten könnte. Man zeichnet dann ein Foto mit 40MP auf, dessen Details auch problemlos und dazu viel speicherplatzsparender mit einem 16MP-KB-Sensor hätten eingefangen werden können. Das nenne ich sinnlos.____

Aber zurück zu 4K-Material: Man kann in 4K nicht senden, in einem bundesdeutschen Wohnzimmer hat man von 4K Auflösung nichts, weil man ohnehin nicht genug Abstand zum Fernseher hat und wenn man als Profi in 4K dreht und dann herunterskalieren muss, hat man durch die Skalierung danach Darstellungsfehler (Geometrie und Farbfehler) im Bild, da bei der Skalierung kein Pixel auf dem anderen bleibt.____

Dazu hat man aufgrund der heutigen Rolling-Shutter-CMOS-Technik arge Probleme überhaupt eine 4K-Videokamera zu finden, die Bewegungen ohne Geometrieverzerrungen im Bild festhalten kann. Ich wundere mich ohnehin seit Jahren, das alle Welt CMOS-Videokameras kauft, obwohl die das Einzige nicht können, was eine digitale Videokamera von einem digitalen Fotoapparat unterscheidet: Bewegungen naturgetreu aufzeichnen. Das haben die CCD-Vorgänger der heutigen CMOS-Cams wenigstens noch gekonnt.____

Die RED ONE hat jedenfalls einen Rolling-Shutter-CMOS-Sensor. Ein professioneller Anwender, der mehr als Nahezu-Stillleben von einem Stativ filmen will, nutzt so eine Kamera daher nicht. Wirkliche Profis arbeiten ohnehin nach wie vor mit Filmmaterial wenn sie höchste Auflösungen benötigen. Das sieht man am neuen StarWars-Film. Von dessen Filmmaterial kann man dann später auch noch problemlos eine 8K-Kopie digitalisieren ohne Farb- und Darstellungsfehler in den Film zu bekommen. Einen digitalen 4K-Film kann man sich hingegen nur in 4K ansehen, wenn man keine Skalierungsartefakte im Film haben will. 4K sieht schon auf FullHD heruntergerechnet mies aus. Auf höhere Auflösungen interpoliert kann man es komplett vergessen. Kein Vergleich zu analogem Film. Super 8 Film aus den 70er Jahren kann man heute in FullHD scannen und da sind weniger Darstellungsfehler im Bild als bei HD-720p-Material, wenn man es in 1080p-FullHD umwandelt um es auf einem FullHD-Fernseher im Vollformat sehen zu können.____

Dazu kommt das Speicherplatz- und Übertragungsproblem im Reportageeinsatz. Wenn ein Sender ohnehin sein Programm maximal in HD ausstrahlt, wird der wohl wenig Sinn darin sehen, wenn seine Satellitenleitungen von Reportern mit 4K-Material geflutet werden und auch die Bearbeitung solchen Materials kostet mehr Ressourcen und Zeit, welche man bei aktuellen Nachrichtenreportagen nicht hat.____

Sieht man sich die heutige Situation an, so haben inzwischen viele Leute FullHD-Fernseher, können aber keinen Sender in FullHD empfangen, da alle mir bekannten Sender lediglich in HD senden. Das hätte auf einem normalen 720p-HD-Fernseher besser ausgesehen als hochskaliert auf einem FullHD-Fernseher. D.h. ein FullHD-Fernseher liefert zum Fernsehen heute auch bei HD-Sendungen eher ein minderwertiges Bild. Alte DVDs sehen auf ihm im Vollbild auch miserabel aus. Man kann quasi darauf nur BluRays, selbstgedrehte FullHD-Filme und 1080p-Material aus dem Internet in guter Qualität ansehen. Ein FullHD-Fernseher ist heute also kein FullHD-Fernseher, sondern eher ein Videomonitor. Alles was nicht in nativer FullHD-Auflösung ankommt, wird auf ihm im Vollbild in noch schlechterer Qualität wiedergegeben als das Ursprungsmaterial eigentlich hat. Zum Fernsehen ist ein FullHD-Fernseher also ein sinnloser Kauf und somit nicht sinnvoller als eine SD-Karte mit 280MB/s als Datentransferrate.
 
@nOOwin: wieso ist fürs fernsehn ein fullHD fernsehr ein sinnloser kauf??? Soll ich mir n röhren ding aus den 80er oder 90er hollen???
 
@BonnerTeddy: Um HD-Fernsehübertragungen in guter Qualität im Vollbild zu sehen bräuchte man einen HD-Fernseher und keinen FullHD-Fernseher. Alte Urlaubsfilme von der VHS(-C)-, Video 8/Hi8- oder DV-Videokamera sehen in ihren unterschiedlichen Auflösungen auf HD und FullHD-Fernsehern übler aus als sie müssten und verlangen nach einem Röhrengerät, wenn man sie im Vollbild bei akzeptabler Qualität betrachten will. Auch die meisten älteren Filme und Sendungen im Fernsehen kommen in Auflösungen daher, die für HD-Fernseher nicht geeignet sind und auf diesen daher viel schlechter aussehen als auf einem Röhrengerät.____

Drei von den 6 Monitoren in meinem privaten Büro in meinem Haus sind daher Röhrenmonitore, weil ich meine alten, selbstgedrehten Videos nicht mit den Skalierungs- und Darstellungsartefakten von TFT-Monitoren ansehen und bearbeiten will. Was die Darstellungsqualität angeht, ziehe ich die meiner drei ehemals pro Stück über 6000DM teuren, farbeingemessenen Eizo-CRTs der meiner drei über 3000EUR teuren, ebenfalls farbeingemessenen Eizo-TFTs jederzeit vor. Den Unterschied habe ich bei meinem 6-Monitor-Setup jeden Tag vor Augen._____

Würde ich noch fernsehen, würde mir daher einen Röhrenfernseher kaufen. Auf dem sieht Material unterschiedlicher Auflösung (inklusive HD-Material) wenigstens halbwegs ordentlich aus, während man auf Fernsehern mit fester nativer Auflösung eben nur Material in guter Qualität ansehen kann, welches in dieser nativen Auflösung aufgenommen wurde. Ich habe nicht vor meine alten Videos wegzuwerfen und finde es etwas unpraktisch mir 3 bzw. mit 4K nun schon 4 Fernseher (CRT, HD, FullHD und 4K) ins Wohnzimmer zu stellen um alle Formate in brauchbarer Qualität im Vollbild sehen zu können. Lustigerweise gibt es unter dem Begriff 4K auch noch zwei unterschiedliche Auflösungen, so das es vorkommen könnte, das ein 4K-Fernseher selbst bei 4K-Material schon skalieren muss um es im Vollbild darzustellen.____

Für mich persönlich hat sich das Problem vor über 15 Jahren mit einem Laserbeamer gelöst, der mit einigen Umbauten an Bildaufbereitung und Laserablenkung heute auch FullHD-Material darstellt ohne es skalieren zu müssen. Allerdings sehe ich mit dem nicht fern, da mich Fernsehen schon in den 90er Jahren gelangweilt und mit Werbung und anderen Sendungen zur Massenverblödung und -gehirnwäsche genervt hat.____

Mein Laserbeamer wäre allerdings für die meisten Leute nicht das richtige Gerät, da man damit ganz fix mal erblinden kann, wenn man nicht weiss, was man tut. Und Wissen darüber, wie man mit Laserstrahlen umgeht, vermittelt das heutige Fernsehprogramm leider nicht (Das beschränkt sich eher darauf, z.B. Leuten zu suggerieren, dass ihre topmodischen Klamotten vom letzten Jahr nun so peinlich sind, dass man unbedingt neue kaufen muss, die dann nächstes Jahr wieder peinlich sind. Es gibt scheinbar genug Leute, die auf solchen Schwachsinn reinfallen bzw. sich mit so etwas Nebensächlichem beschäftigen wie zur Gewinnmaximierung induzierten Modeströmungen. Auch bei technischen Geräten.). Insofern würde mein Beamer im Massenmarkt sicher dazu führen, dass eine Menge Leute mit schwarzen Flecken auf der Netzhaut bei ihrem Augenarzt vorsprechen würden. Daher werden alle wohl weiter FullHD-Fernseher kaufen müssen, denn die hochwertigen Röhrenfernseher stehen grösstenteils schon in Afrika. Man kriegt hierzulande ja nichts anderes mehr als die billiger herzustellenden FullHD-Flatcreens. ;-)
 
@nOOwin: Warum reitest du auf der Auflösung rum? RAW benutzt man hauptsächlich um Qualitätsverluste durch Komprimierung zu vermeiden. Zudem enthält ein Raw File vielmehr Helligkeitsinformationen. Ein über/unter belichtetes Bild kannst du - wenn es in raw vorliegt - Problemlos korrigieren.
 
@nOOwin: sicher gibt es die. Allein schon Serienaufnahmen in Raw. Meine Einsteiger DSLR produziert ca 60 MB Raw files. Nach den ersten 3 Bildern ist der interne Flash volll, dann fällt sie auf ca 0.8 Bilder/Sec zurück. In Jpg sind bis zu 8 Bilder / sec drin. Offensichtlich limitiert die schreibrate der heutigen sds das flushen des internen flashs. (Kamera Fähigkeit nat. Vorausgesetzt)
 
@dognose: Mal ganz davon abgesehen, dass Du ein Speicherinterface mit über 480MB/s bräuchtest um mit 60MB-RAWs und 8 Bildern pro Sekunden über längere Zeit Serienbildaufnahmen machen zu können, frage ich mich, wie sinnvoll es ist Fotos zu machen, die man sich auf keinem derzeit und in den nächsten 10-20 Jahren erhältlichen Anzeigegerät ohne Skalierungsartefakte und somit Qualitätsverlust ansehen kann? Willst Du Dir Deine Fotos erst dann als Ganzes in guter Qualität ansehen können, wenn Deine Augen altersbedingt keine gute Qualität mehr haben? Ich nicht. Daher habe ich Anfang letzten Jahres auch die Finger von der Nikon D800E gelassen, die ich damals kaufen wollte und mir lieber ein paar gebrauchte DSLRs mit 8-12MP Sensoren ersteigert. 10MP werden wir wohl in wenigen Jahren auf Monitoren haben und dann kann ich mir meine Bilder endlich als Ganzes in guter Qualität ansehen und muss mich nicht mehr über diese blöden Bildfehler durch die andauernd nötige Skalierung ärgern.____

Dazu zeichnet Deine Kamera mit hoher Wahrscheinlichkeit (eine Mittelformatkamera wirst Du wohl nicht als Einsteigerkamera bezeichnet haben) spätestens ab Blende 8 hin zu kleineren Blendenöffnungen die Beugungsunschärfe Deines Objektivs statt der maximale Detailauflösung Deines Sensors vom Motiv auf, womit die 60MB-RAWs reine Platzverschwendung sind, da man dieselbe Detailauflösung auch mit wesentlich weniger Pixeln auf gleichgrossem Sensor hätte einfangen und somit rauschfreier und platzsparender als RAW hätte speichern können. Wenn Du also nicht nur Portraits mit grosser Blendenöffnung und damit verschwimmendem Hintergrund knipsen willst, wird Dein Objektiv aufgrund der Beugungsunschärfe häufig nicht in der Lage sein, auch nur annähernd genügend Details auf dem Sensor abzubilden, um dessen hohe Auflösung auszureizen.____

Wie gesagt: Sinnvolle Neuerungen sind heute selten geworden, seitdem dummes Werbegeschwurbel in "Schneller, höher, weiter"-Manier ohne Rücksicht auf technische und physikalische Fakten den Verkauf von technischem Gerät übernommen hat. Wir haben heute digitale Fotoapparate deren Auflösung auf Jahrzehnte in die Zukunft kein bezahltbares Betrachtungsgerät anzeigen kann und Videokameras, die keine Bewegungen mehr naturgetreu einfangen können. Darüberhinaus versucht man uns heute funktionsreduzierte, simplifizierte, den Benutzer bevormundende und überwachende Geräte (SmartPhones, Lifestyle-Tablets) und Betriebssysteme (iOS, Android) als technischen Fortschritt zu verkaufen. Sorry, aber Systeme bei denen man dazu gezwungen ist sich bei der Bedienung das Display mit den eigenen Fingern zu verdecken und zu verdrecken und bei denen man kindlich bunte und auf kleinen Mobildisplays unsinnig viel Platz verschwendene Funktionsschaltflächen zur Bedienung hat, die nur wenig Funktionsschaltflächen pro Bildschirmseite und damit nur anpruchslose Software zulassen, werde ich nie als technischen Fortschritt ansehen. Auf diesen Geräten muss man mit einer Displaytastatur arbeiten, die grosse Teile des Displays verdeckt und beim 10-Finger-System-Schreiben nicht fühlbar ist und damit nicht "blind" bedient werden kann. Ich hatte schon vor über 10 Jahren ein Tablet in der Hand auf dem man keine plumpen, riesigen Schaltflächen brauchte und keine Bildschirmtastatur, weil es mit einem induktiven Stiftdigitizer funktionierte und daher Schreibschrift erkannte und in ASCII-Text umwandelte. Darauf konnte man schon präzise Freihand-Skizzen zeichnen. Von dieser Funktionalität ist das heute verkaufte Wohlstandsspielzeug meilenweit entfernt. Wo früher Weiterentwicklung der Software hin zu mehr Funktionalität stattfand, werden heute Funktionen zusammengestrichen. Funktionsbeschränktes Kinderspielzeug wird den Menschen heute als Hochtechnologie verkauft und es stört nicht einmal mehr die Konstrukteure, dass ihre Konstruktionen unter technischen/physikalischen Aspekten betrachtet oft keinen Sinn mehr ergeben. Bildwandlerchips, die eine höhere Auflösung haben als das Objektiv überhaupt noch anliefern kann, können nur eines gut: rauschen. Um das Rauschen zu entfernen wird die Auflösung dann noch einmal reduziert. Das Bild was da rauskommt ist zigmal durch den Fleischwolf gedreht worden und hat mit der fotografierten Realität kein einziges Pixel mehr gemein, da jedes Pixel schon zigmal neu berechnet worden ist. Das soll Qualität sein?____

Fazit: Wir brauchen keine schnelleren SD-Karten, wir brauchen erstmal wieder an physikalischen Gegebenheiten ausgerichtete, sinnvoll konstruierte Kameras für die heutigen SD-Karten.
 
In Zeiten von 4k-Videos (später 8K) und Clouds, längst überfällig...
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles