Microsoft: Neuartige Fotorestauration via Deep Learning beeindruckt

Innerhalb Microsofts Forschungsabteilung wurde ein KI-Algorithmus ent­wickelt, der alten Fotos zu neuem Glanz verhelfen kann. Selbst Aufnah­men, an denen der Zahn der Zeit erheblich genagt hat, sollen dadurch wiederhergestellt werden können. mehr... Microsoft, Microsoft Research, Restauration, Bildwiederherstellung Bildquelle: Microsoft.com Microsoft, Künstliche Intelligenz, Ki, Fotobearbeitung, Rekonstruktion Microsoft, Künstliche Intelligenz, Ki, Fotobearbeitung, Rekonstruktion Microsoft

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ist eigentlich echt praktisch, so können "Forschungspaper" nicht gegenvalidiert werden, weil ja dieselben Daten anderen Forschern nicht zur Verfügung stehen. Man kann also bahnbrechende Erfolge verkünden, die keiner prüfen kann.

Nicht, dass ich Microsoft das hier unterstelle - für mich ist nur KI keine Forschung, sondern Datenberge schütteln in der Hoffnung, das das Ergebnis selbst hilfreiche Ergebnisse liefert.
 
@DRMfan^^: Dann solltest du dich noch mal mehr mit KI beschäftigen. KI ist nämlich mehr als maschinelles lernen.
Es fing schon vor über 50 Jahren an mit Suchen im Suchraum. Schach, Go und Co. ist auch alles KI. Dann kam Logik mit constraints und Solvern (SAT) und verhalten unter Unsicherheit.
Maschinelles lernen ist jetzt nur so beliebt weil wir endlich die notwendige Rechenleistung haben und selbst hier gib es viele unterschiedliche verfahren.
z.B. nutzen Bild basierte Modelle oft zwei neurale Netze. Ein Feature-Netz, das generisch ist und z.b. Kanten und Übergänge erkennt (unbewacht erlernbar) und ein zweites Netz, dass diese Features für den jeweiligen zweck nutzt (überwacht).

Hier ist ganz wichtig wie man da ran geht. Ein Bild hat z.b. sehr viele Dimensionen als Eingangsvector, aber nicht alle davon sind wichtig. Wenn man es schafft einen Algorithmus zur Dimensionsreduktion für den jeweiligen Anwendungszweck zu finden, z.b. PCA oder AutoEncoder, verbessert man die Leistung des Modells enorm bei weniger Aufwand. Sowas zu finden ist aber aufwendig.

Weiterführende KI geht auch nicht hin, um alles zu lernen. Es werden bestimmte Wissensbasen bereits vorgegeben (Wortbedeutungen oder Assoziationen) und aus diesem Wissen, zusammen mit neuen Daten werden neue Schlüsse gefolgert.

Auch wenn Werbung es gerne so aussehen lässt als ob man Daten in ein neurales Netz schmeißt und dann kommt die Lösung ist dies nicht so. Also ist Ki Forschung
 
@henne_boy: Du hast recht, es gibt durchaus "algorithmische" KI. Vereinfachend schrieb ich von den "großen Erfolgsmeldungen" der letzten Jahre, die meiner Kenntnis nach alle auf "Deep Learning" basieren, was wiederum einfach nur große neuronale Netze sind, wie man sie im Prinzip seit Jahrzehnten kennt.
 
@DRMfan^^: Die algorithmische KI ist auch Bestandteil der neuralen Netze.
Das problem ist nur, viele dieser Such- oder Solver Ansätze liegen in ihrer Komplexität in NP-vollstädnig. Da wir immer mehr und größere Daten haben ist das alleinige einsetzen solcher Algorithmen leider nicht mehr praktikabel. Netze haben den Vorteil sehr generisch zu sein.
Wie aus der News auch zu entnehmen wurde erst auf Fotoartefakte trainiert. Die Restoration ist ein separater Schritt. Oft werden aber viele KI aspekte kombiniert. Wie gesagt vorgefertigte Wissensbasen oder eine KI, die die andere Trainiert (Gesichtserkennung). Weiterer Vorteil, wenn das Modell einmal gelernt ist, ist es verdammt klein und schnell bei neuen Daten anwendbar .

Dern name "Triplet Domain Translation Net­work" lässt ja bereits vermuten, dass mehrere Netze genutzt werden. Wahrscheinlich ähnlich wie mit den Restricted Bolzmann-maschines, nur eben eine Ebene höher. Wahrscheinlich können einzelne Aspekte des Netzes auch für andere Zwecke genutzt werden
 
@henne_boy: Aber dann hat die Gesichtserkennung noch das Problem, angeblich rassistisch zu sein, weil sie im dunklen Weiße besser erkennt als Schwarze - aber ja, das ist ein anderes Thema.
 
@DRMfan^^: jein. Man könnte hier ein Tool zur Verfügung stellen, mit dem man selber Fotos restaurieren kann. Also selbst wenn man nicht über die Datenberge verfügt um selber den beschriebenen Algorithmus zu trainieren, dann könnte man trotzdem relativ einfach (in diesem Fall) überprüfen, ob die Ergebnisse bahnbrechend sind.
 
@Robin01:Ich sehe das eher kritisch da man damit auch Geschichte im nachhinein verfälschen kann, eine Schelm wer sich was dabei denkt^^
 
@GetthepoweR: Das wird doch so oder so schon gemacht. Aber wenn die Fälschungen jetzt ordentlich aussehen gibt es wenigstens nicht diese ewigen Diskussionen. ;)
 
@Robin01: Und wer sagt dir, dass da nicht z.B. eine falsche Augenfarbe rekonstruiert wird? Der Algorithmus baut da Pixel hin, die "plausibel" sind - nicht, wie sie damals waren.
 
@DRMfan^^: Das passierte der Firma die im Auftrag der BBC vor 10 Jahre Tonnenweise Weltkriegsvideos manuell nachcoloriert hat aber bestimmt auch.
 
@Bautz: Sicherlich. Es ist aber ein unterschied, ob alle Farbinformationen "erfunden" sind - und jedem klar sein muss, dass ein Stück weit künstleriscce Freiheit darin steckt - oder ob man behauptet, die magische Depp-Learning-KI habe das verknickte Farbbild wiederhergestellt.
 
@DRMfan^^: das sind Fragen, die auch ein Mensch (ohne Insiderwissen) nicht beantworten kann. Der Algorithmus macht halt die Knicke und blasse Farben aus den Bilder raus. Und das scheinbar ganz brauchbar - außer bei dem Kind im vorletzten Bild, der hat ein demoliertes linkes Auge.
 
@DRMfan^^: Dann ist für Dich IT auch nur Schalter an / Schalter aus, denn mehr sind Computerchips auch nicht? Kann man so sehen, ist aber ziemlich sinnlos.
 
@Nunk-Junge: Die Chips werden konstruiert, man versteht ihre Funktionsweise und programmiert sie - wer will, kann Programme von c# bis runter zum Assembler nachvollziehen. Die meisten "Deep-Learning"- Ansätze sind halbblindes Testen und Irren, bis das Ergebnis sinnvoll erscheint - und dann merkt man, dass z.B. das tolle neuronale Netz, das Hunde erkennt, eigentlich in den EXIF die URLs von 5 Webseiten für Hundefans gelernt hat.
 
@DRMfan^^: "halbblindes Testen und Irren" klingt fast nach Evolution^^ ;)
 
@vSphere: hat gewisse Parallelen, ja. Wobei die "Menschlichkeit" das aus rein biologischer Sicht ad absurdum führt. Kann man mögen, kann man lassen.
 
@DRMfan^^: wenn das nicht Ansätze von KI sind, dann weiß ich auch nicht...
 
@Arnitun: Verstehe deinen Kommentar an dieser Stelle nicht.
 
@DRMfan^^: In der Theorie hast Du recht, aber auch nur in der Theorie. Ein moderner Prozessor hat viele Milliarden Transistoren. Wenn Du da die genaue Funktionsweise nachvollziehen willst, dann wird Dein ganzes Leben nicht reichen.
 
@Nunk-Junge: Klar, die volle Parallelität permanent abbilden, überwachen und verstehen ist nicht zu leisten - aber die Algorithmen lösen konkret das Problem - und emulieren nicht etwas, von dem wir hoffen, dass es irgendwie Probleme lösen kann.

Aber prfüe doch mal, an welchem virtuellen Neuron ein Entscheidungsweg falsch abgebogen ist und wieso ...
 
Jupp, schön fehlendes dazudichten lassen und nicht entsprechend kennzeichnen.

Die könnten DeepLearning ja mal sinnvollerweise für die Wettervorhersage nutzen und nicht um zukünftig Beweise fehlerhaft zu restaurieren.
 
@damitschi: Hast du Beweise und Quellen dagegen, dass sie dies nicht bereits täten, nur weil WF hier kein Beitrag erstellt?!
 
@damitschi: https://bigdata.uni-saarland.de/predictweather/ yw
 
Sättigung und Kontrast erhöhen - das konnte man schon lange.
 
Sieht nach viel Weichzeichner aus.
 
naja wenn man sich mit dieser Materie länger beschäftigt, kommt man nach längerer Zeit zu dem Punkt das diese Techniken ihre Grenzen haben, spätestens wenn es um die 'Wieder Papier Werdung' sprich Ausgabe geht. Außerdem kommt man auch zu dem Punkt an dem man sich frägt ob man das überhaupt will, weil es nie etwas mit der Realität zu tun hat. So wie das mit 'ganz normal' geschönten Fotos aus jedem Handy ist.
 
Finde die letzten beiden Fotos beachtlich mit den "Knitterfalten"/"Abnutzungserscheinungen".

Beim Rest ist das natürlich auch was vor allem durch einen gewissen Automatismus, aber erinnert mich ähnlich an die automatische Verbesserung von Google - von daher *wirkt* es für mich jetzt weniger beeindruckend, da es mir von da schon bekannt vorkommt - wobei ich das noch nie bei alten Fotos probiert habe, sondern nur bei Fotos vom Pixel.
Kommentar abgeben Netiquette beachten!
Einloggen

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte