Software bewertet Stärke von Bildmanipulationen

Eine neue Software, die am Dartmouth College in Hanover im US-Bundesstaat New Hampshire entwickelt wurde, erkennt, wie stark ein Foto mit Bildbearbeitungsprogrammen verändert wurde. Anwender sollen so ein Tool in die Hand bekommen, mit dem sie ... mehr... Photoshop Photoshop

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Damit erstmal die ganzen Facebook-Profilbilder checken. So macht man sich unbeliebt ^^
 
@eN-t: "gelang es der Software ... was auch von Menschen als ... Veränderungen empfunden wird" dü düü düüü düüüüüü ...
 
@DataLohr: Als ich das gelesen habe, hab ich mich auch gefragt, was das ganze soll. Wenn die Software nur erkennt, was ich selber auch erkenne - dann ist sie unnütz.
 
@Whistler2010: Wie viele Bilder kannst Du pro Stunde bewerten (vor allem wenn die Veränderung nicht offensichtlich ist), und wie viele Bilder wird die Maschiene ermüdungsfrei pro Stunde verarbeiten?
 
@rallef: also wenn die manipulation gut ist, egal wie schwer, sieht du sie nicht. ich arbeite grad viel mit blender und weiß wie leicht es ist bilder zu erzeugen, die man auf den ersten blick für echt hält. wenn das jemand macht der ahnung davon hat wird eine manipulation nicht auffallen, oder sogar eher als echt erkennt, als ein schlecht gemachtes foto. guck dir die werbung an wo das auto sich in ein roboter wandelt und rum tanzt, das ist doch eindeutig manipulation, die software wird es nicht erkennen können. wen ich ein zeugniss nehme, einscanne, buchstaben kopere und ersetze, den hintergrund leicht über die kanten kopiere, erkennste keine manipulation mehr. nächste frage ist halt, wie oft brauchst du das? wie oft braucht die menschheit das? bei model fotos wissen wir eh das die großteils fake sind, bei werbefotos ist das immer so. ich würde jetz gern mal diese software testen und schauen was sie wirklich erkennt. wenn sie nur das kann was menschen können, eben schneller, ist sie zwar ne tolle sache, wird aber wohl keinen produktiven einsatz finden. das hauptproblem wird dann sein, dass sie nicht weiter denken kann, so weit ist die KI entwicklung noch nich. edit: nehmen wir einfach mal das hier http://goo.gl/akGij ich behaupte ich hab den in meinem garten gebaut, wenn der übergang in den hintergrund besser wäre (zu lazy gewesen) würde das programm doch garkeine auffälligen ränder oder farbwechsel oder was auch immer feststellen können. so und nun bau du nen besseren! :p
 
@rallef: Ich kann vielleicht weniger Bilder pro Zeit erkennen, aber darum geht's doch gar nicht. Wenn man bei einer Werbung erkennt, dass manipuliert wurde, dann brauche ich das nicht mehr von einer Software bestätigt bekommen. Wenn aber die 15kg Frau auf dem Plakat echt aussieht (der Mensch es also als nicht manipuliert ansieht), dann glaubt auch die Software, dass es echt ist und bescheinigt die Echtheit. Also prangt auf dem Werbeplakat ein cooles 100%-echt-Zertifikat, und die Mädels glauben sich dann noch zusätzlich darin bestätigt, dass sie zu dick sind und abnehmen müssen.
Wenn die Software also _nicht_ besser als das menschliche Auge ist, dann ist sie _kontraproduktiv_.
 
@DataLohr: Es geht nicht nur darum, eine Veränderung an sich festzustellen, sondern vor allem zu unterscheiden, ob es eine leichte oder schwerere Manipulation ist. Der Schweregrad ist ziemlich subjektiv, da muss die Software drauf trainiert werden, um ähnlich wie Menschen zu unterscheiden.
 
@eN-t: all the duckfaces XD
 
@eN-t:

du machst werbung für fb und merkst es nicht
 
Und wie viele, unter Essstörungenund krankhaften Minderwertigkeitskomplexen leidende junge Frauen schauen mit der Software, ob das Modell nun stark oder weniger stark retuschierte Fotos veröffentlicht? Wenn eine Frau sich davon beeinflussen lässt ist, es egal ob das Schönheitsideal echt oder retuschiert ist.
 
@CoF-666: Geht wohl eher darum zu prüfen, ob diejenigen, die die Bilder veröffentlichen sich an die Kennzeichnungspflicht halten, die - wie im Artikel ja erwähnt wurde - in bestimmten Ländern möglicherweise eingeführt werden soll.
 
Was hier nicht so richtig raus kommt: man braucht auch das Vorher-Bild.
Die Software bewertet also nur die Veränderung zwischen 2 Bildern. Ich weiß nicht ob das jetzt eine Meldung wert war.
 
@MonkeySoup: Danke, genau das wollte fragen. Woher will die Software sonst auch wissen ob eine Person Falten/Pickel oder die Hautfarbe wissen. Und dann ist das ganze reichlich unsinnig.
 
@MonkeySoup: Nein, das stimmt nicht - wäre ja auch völlig sinnlos. Er hat Vorher-/Nachherfotos genommen, um die Algorithmen zu trainieren. Er hat wohl ein neuronales Netz mit angekoppelt. Das Programm "lernt" so, den Unterschied zwischen Originalen und Fakes zu erkennen. Das ist jetzt eigentlich nichts wirklich neues, denn mittels statistischer Methoden wird schon lange erkannt, ob ein Bild bearbeitet wurde oder nicht. Das Neue ist hier, dass ein solches Verfahren gezielt auf Menschenbilder angewandt wurde. --- Man muss dabei auch im HInterkopf behalten, dass in den USA Forschungsgelder anders verteilt werden als z.B. bei uns. Deshalb wird da sehr oft eine große Publicity erzeugt, um die Aufmerksamkeit von potentiellen Geldgebern zu erlangen. Ein anderer Fall war z.B. die Untersuchung der VErbreitung von Viren in World of Warcraft, wer sich daran noch erinnert.
 
@doubledown: Doch leider stimmt es was MonkeySoup sagt. Ich zitiere mal aus dem Abstract des Papers "We describe a quantitative and perceptually meaningful metric of photo retouching." Der Beitrag der Forschungsgruppe war also die Maße zu entwickeln mit der die Veränderung zwischen beiden Bildern gemessen wird. Dabei hatten sie offensichtlich zum Ziel, möglichst die wahrgenommene Veränderung mit den Maßen zu beschreiben (kleine Änderungen können stark wahrgenommen werden)
 
@Compadrito: Ich habe das paper gelesen. Das Programm funktioniert so, dass man ihm ein Bild gibt und es anhand der genannten Metrik eine Bewertung erzeugt. D.h. Du gibt dem Programm ein Bild und es sagt Dir, in welchem Maße es retouchiert wurde. Um die Regeln für diese Metrik zu erstellen, müssen die Algorithmen natürlich auf Vorher-/Nachherbilder angewandt werden, aber das sagte ich ja.
 
@MonkeySoup:
Schade eigentlich. Dann ist sie auch nicht geeignet, Manipulationen an Bildern in wissenschaftlichen Arbeiten zu erkennen. Das wäre sicher eine gewaltige Funktion gewesen.
 
Bei BILD zeigt die Software einen Wert von 100% an.
 
@GordonFlash: Nein. Bei kleineren Korrekturen gibt die Software einen Wert von ca. 1 aus und bei starken Veränderungen laut Artikel einen Wert um die 5. Bei der Bildzeitung wäre der Wert... over 9000! ;)
 
@monte: naja ... 5 von 5 sind auch 100% :)
 
@GordonFlash: Die Erkennungsfunktion wurde mittlerweile auch für Texte und Inhalte angepasst. Bei BILD wurde eine "Realitätsfremdheit" von 75% erkannt :-)
 
@GordonFlash: Beim Playboy auch
 
Der UAT der Software wurde im Axel Springer - Verlag ( BILD ) durchgeführt. Da kam es allerdings ständig zu einer -6- in der Manipulationsbewertung. Deswegen - für den Hausgebrauch geht die Skala nur bis FÜNF !
 
die besten Manipulationen an Fotos sind die, die nicht auffallen. Daher kann die Software eigentlich nur übertriebene Manipulationen erkennen. Woher soll sie wissen, wie das Bild unbearbeitet war? Wenn ich ein geschminktes Model knipse, wirds mir als Retusche angekreidet weil die Haut eben ist?
 
@Rikibu: Tja, so aus der News geht nicht viel hervor... auch nicht, ob man der Software einfach ein einzelnes Bild vorlegt und diese dann einen "Anzeichen für Manipulations-Faktor" auswirft oder ob es nicht doch eines irgendwie geartetes Vergleichsfoto benötigt. Zur Schminke schreiben sie auf pnas.org: "While the judicious use of make-up and lighting can significantly alter the appearance of a model, subsequent digital retouching can create highly idealized and unobtainable body images that no amount of make-up or lighting can produce. We focus on this latter charade because we consider it to be more significant." Was eigentlich suggeriert, dass die Fotos schon recht stark modifiziert sein müssen, damit die Software die Haut für zu glatt o.ä. hält. Beispiele wären gut. So wie sie ist ergibt sich aus der News für den Leser eigentlich keinerlei Wissens- oder Erkenntniszuwachs (es sei denn er wusste vorher nicht, dass viele Abbildungen in der Werbung, in/auf Zeitschriften etc. manipuliert sind).
 
@Rikibu: Um Pickel geht´s nicht...behaupte ich. Das, was Frauen unter "Schönheitsdruck" setzt, sind die unnatürlichen, anatomisch unkorrekten Proportionen die im Rahmen der Nachbearbeitung erzeugt werden. Beinlängen mit Oberschenkel- und Wadendicken, die ein normales Gehen gar nicht erlaub würden. Beckenproportionen, mit denen man niemals ein Kind bekommen könnte, oder so perfekt symetrische Gesichtshälften, die es so nicht gibt.
 
Ich hätte ja lieber ne BOTOX und Plastebrüste-Erkennungs-APP. Bilder sind doch nur Makulatur. ^^
 
Bei den "'High-Socity" Fotos wird da wohl bestimmt die Mess-Skala gesprengt werden :D
 
Absoluter Unsinn so etwas, da müssen dann Frauen die Makeup tragen auch ein großes Schild mit sich umher tragen und deutlich sichtbar kennzeichnen das nicht alles echt ist. Wer sich so etwas einfallen lässt hat irgendwie ein massives Geltungsbedürfnis.
 
Wenn man nichts kann, dann macht man eben so etwas. Mit ernsthafter Wissenschaft hat das NULL zu tun.
 
schafft die Software das OHNE das Original zu kennen?!
 
Die heutige Zeit besteht nur mehr aus Lügen und Täuschungen. Darum "für was"!
 
bei manchen veränderten bildern reicht das menschliche auge noch voll und ganz aus...
BSP:
http://www.digital-world.de/gallery/show/galid/70567/picnum/1
 
erinnert mich an photoshop-disasters. http://www.psdisasters.com/ :-D
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles