Bilderkennung: Microsoft Research schlägt Google, Intel etc. klar

Die Forschungsabteilung des Redmonder Konzerns genießt einen erstklassigen Ruf und Microsoft Research konnte nun ein weiteres Mal unter Beweis stellen, warum man so angesehen ist. Denn beim nunmehr sechsten Bilderkennungs-Wettbewerb ... mehr... Microsoft Research, Project Oxford, Gefühlserkennung, Emotion Recognition Bildquelle: Microsoft Microsoft Research, Project Oxford, Gefühlserkennung, Emotion Recognition Microsoft Research, Project Oxford, Gefühlserkennung, Emotion Recognition Microsoft

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Unabhängig ob nun Google oder Microsoft den "Bigbrower Award" gewinnt oder nicht, kann ich die Jubelarie des Autors absolut nicht unterstützen.

Anstatt immer neue Höchstleistungen in der Auswertung der Überwachung zu erreichen, wäre es aus meiner Sicht erst mal angebrachter die Anwendung zum Schutz der Menschen zu reglementieren.
 
@Kribs: Sorry, aber: Hä?
Ich weiß zwar ganz grob worauf du hinaus willst, aber das ist ziemlich Äpfel/Birnen, was du machst. Es geht hier nicht um Massenüberwachung (ich nehme an, dass du "Big Brother" meinst), sondern um Forschung. Die ethische Diskussion, was Forschung darf und was nicht, würde zu weit führen.
Jedenfalls hat das alles nichts mit "Jubelarie" zu tun.
 
@witek: Zitat, 5 Absatz:
"Deep Learning wird bei den großen Konzernen im IT-Geschäft immer beliebter, die "denkenden Maschinen" sollen aber natürlich nicht nur für die Analyse von Bildern zum Einsatz kommen, sondern allen Bereichen, bei denen große Datensätze anfallen."

Wozu braucht man Bilderkennung,
natürlich nicht um Person zu identifizieren, was ja nicht die Aufgabe von "großen Konzernen" ist, oder aus willkürlich gesammelten Daten ein Profil herzustellen,
ganz besonders nicht wenn die Einwilligung dieser Personen fehlt!

Mir war schon klar das der Versuch die Schattenseiten aufzuzeigen quasi Geschäftsschädigend ist
 
@Kribs: @Nunk-Junge hat das weiter unten bereits sehr schön zusammengefasst, weshalb ich mir das spare, weil du eh nur das liest, was du lesen willst...
 
@Kribs: Ich glaube, Du hast nicht verstanden, um was es geht. Bilderkennung wird in vielen Bereichen verwendet: Landwirtschaft, Verkehrsleittechnik, Medizin, Biologie, Zivilschutz, Archäologie und vielen anderen mehr. Bessere Bilderkennung ist sehr wünschenswert. Aber natürlich kann man jede Technologie auch zum schlechten Anwenden, z.B. zur Überwachung. Bessere Netzwerke lehnst Du doch auch nicht ab nur weil einige Schüler über das Netz Cybermobbing betreiben.
 
@Nunk-Junge: Das mit dem Verstehe ist immer so eine Sache, natürlich hatte der Artikel nichts mit Bildern von Personen zu tun und dessen Auswertung, das Bild oben Links ist ja eine Landschaftsaufnahme mit Katze?

Trotzdem fehlt (wie immer) die grundsätzlich sachliche Auseinandersetzung mit den Folgen für die Menschen, eine Reflektion der Folgen für uns, was ich bemängele ist ein Fortschritt in Regeln zur Anwendung >gegen< Menschen.

Die einseitig begünstigende Schreibweise des Autors mal außen vor.
 
@Kribs: Da ist sicherlich was Wahres dran. Forschung ist grundsätzlich sehr wünschenswert - aber man muss natürlich immer schauen, was mit den Ergebnissen gemacht wird. Wenn man forscht, welche Stimmungen Menschen haben oder andere Dinge aus Bildern herausfiltern, ist das sicherlich gut.
Man muss aber natürlich auch soweit denken, dass das missbraucht werden kann. (Z.B. jemand wird im Gericht verurteilt, weil ein Erkennungsprogramm die Schuld erkannt hat; oder wie Kribs schreibt, dass hier leichter Massenüberwachung mit Gesichtserkennung gemacht wird, wie es de facto ja leider schon durchgeführt wird an großen Bahnhöfen etc. .

Das klassische Beispiel ist wohl die Erfingung der Atomkraft, die Atomkraftwerke mit unzerstörbarem Müll sowie Atombomben hervorbebracht hat.
 
@gettin: Danke, wenn nur mehr sich derart Differenziert mit der Thematik auseinandersetzen würden, wäre die Welt schon ein Stück besser!
 
Und wahrscheinlich ist das nächste Win10 Feature dann noch, das es ungefragt die Kamera anschmeisst und Fotos vom User schießt.
Das Feature ist doch bestimmt schon verbaut.
 
@EinerVomPack: nicht nötig ... den durchschnittlichen jugendlichen musst du ruhig stellen damit nicht alle 5 sekunden ein selfie geschossen wird. automatisierung wäre hier unnötiger overhead :P
 
@dustwalker13: Die Jugendlichen ja, aber was ist mit den Erwachsenen? Den Büros? etc
 
@EinerVomPack: Es geht hier nicht um Personenerkennung, es geht um Objekterkennung auf Bildern. Erkennen von Hunderassen, Blumen, Häusern usw..
 
@Knarzi81: Wird behauptet.
 
@EinerVomPack: Was meinst du, wie das neue Feature im iPhone umgesetzt ist, dass "Siri" versteht wenn man nach ihr ruft? Weil sie permanent "zuhört".

Und wer weiß, was für "Keywords" Siri sonst noch so "erkennt"...
 
@dognose: Nicht viel. Die erkennung wird aus Akku gründen in einem extra Chip berechnet damit die CPU im Idle bleiben kann.
Machen alle so
 
@Alexmitter: Mag technisch so sein - heißt aber nicht, dass es keine anderen Keywords gibt, die dann die CPU aufwecken und "nach Hause telefonieren".
 
@dognose: Miss es nach, kauf dir ein Oszilloskop und schau selber.
 
@Alexmitter: Wie genau soll man das herausfinden?
 
@gettin: Er wollte vermutlich einfach einen Fachausdruck in den Raum werfen.
 
@Alexmitter: Trotzdem muss auf JEDES Wort gehört werden, und dieses analysiert. Woher soll Siri sonst wissen, das sie angesprochen wurde? Es wird nur nicht auf jedes Wort reagiert...
 
@EinerVomPack: Natürlich hört der Chip jedes Wort, aber er triggert sein Signal nur bei einer bestimmten Sequenz. Anders würde ja die CPU wieder dauerhaft aktiv sein müssen.
 
@Alexmitter: Frage: Wo ist der Unterschied zwischen CPU und einem dedizierten Chip im Stromverbrauch? Beide brauchen Strom wenn sie arbeiten. Sind sie langsamer dauerts länger, sind sie schneller gehts schneller. Der Stromverbrauch in Summer dürfte relativ gleichbleiben.
Und im dem Moment wo er jedes hört muss er es auch analysieren (egal wie das letztenendes passiert) um sein Signal triggern zu können. Schließlich muss er die Sequenz identifizieren.
Und daher kann er prinzipiell auch jedes Wort übertragen.
 
@EinerVomPack: Das ist vollkommen Falsch gedacht. Es ist ein Chip der auf eine auf eine Bestimmte Sequenz programmiert wird. Er Bearbeitet keinen Code. Er ist Per Design darauf bestimmt eine Sequenz zu erkennen..
Wenn man das ganze per Code Ausführung ermöglicht benötigt der Vorgang im vergleich enorm viel Energie.
Der Vorteil einer CPU, also einer Berechnung mit Befehlssatz ist nun mal das man den Code ausführen kann den mal will, man ist nicht auf einen bestimmten Vorgang beschränkt ist. Dafür kostet es viel viel mehr Energie.
 
@dognose: Ja eben. mit der Hauptgrund warum ich Siri, Cortana und Co nicht einsetze.
 
@EinerVomPack: Das ist Blödsinn, oder schmilzt dein Akku wie butter.
Für jedes Signal das der Chip der zuhört triggert muss die CPU Arbeiten.
Man möchte alleine wegen des Begrenzten Akkus nicht jedes Wort hören.
 
An sich eine tolle Sache, jetzt muß sowas nur noch tatsächlich am Markt ankommen.
 
"...bei denen Computer "trainiert" werden, Bilder zu erkennen..." Training im Sinne von Konditionierung , und wenn ja wie belohnt man einen Computer? Ein Watt extra, oder so :-) Würde mich in dem Zusammenhang ja schon interessieren
 
@teufler: Wie man Computer belohnt? Mit Cookies natürlich ^^
 
@Trashy: An dich geht der heutige Word-Spiel Award *überreich* :)
 
@teufler: Und das Training ist nicht ohne. Ich nehme an, sie haben die KI erst vorgeführt, nachdem sie alle Grimassen, die Steve Ballmer in seiner Laufzeit bei Microsoft geschnitten hat, dem gleichen Gesicht zuordnen konnte. Das Geheimnis sind also die anspruchsvollen Trainingsdaten.
 
Da haben MS und Nokia im Consumer-Bereich ja gut zusammen gepasst. Forschungsabteilung super, technische Ideen gut, Umsetzung und wie man es an den Markt bringt...oftmals mangelhaft.
 
"Verantwortlich [...] ist die asiatische Außenstelle der Redmonder" - Da sitzen bestimmt 1000 Niedriglöhner, die für 2 Cent pro Bild die Erkennung durchführen und ins System eintragen :D
 
@dognose: Nein, die Bilderkennung soll ja angeblich gut sein.
 
@dognose: Gähn, ich habe einen Troll gesehen...
 
"...bei denen Computer "trainiert" werden, Bilder zu erkennen..." Training im Sinne von Konditionierung , und wenn ja wie belohnt man einen Computer? Ein Watt extra, oder so :-) Würde mich in dem Zusammenhang ja schon interessieren
 
Technische Leistung hin oder her... mir macht das Angst.
 
@Karmageddon: Menschen machen genau das gleiche und vor denen hab deutlich mehr Angst.
Kommentar abgeben Netiquette beachten!

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter