Microsoft ist aktuell der Weltmeister bei der Spracherkennung

Die Forscher bei Microsoft haben einmal mehr Grund zum Feiern: Es gibt derzeit wohl niemanden sonst, dessen Spracherkennungs-Systeme mit einer so geringen Fehlerquote arbeiten. Im Gesamtbild zeigt sich außerdem, welche Fortschritte entsprechende ... mehr... Windows Phone 8.1, Cortana, Halo, Sprachassistent, Halo 4 Bildquelle: Microsoft Windows Phone 8.1, Cortana, Halo, Sprachassistent, Halo 4 Windows Phone 8.1, Cortana, Halo, Sprachassistent, Halo 4 Microsoft

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
und genau dafür ist es nun mal WICHTIG Telemetriedaten zu erfassen... Es geht nicht darum zu wissen wer du bist, was du kaufen willst und wohin du gehst, sondern nur "Woher du kommst" und "Wie du sprichst"...

Anhand dieser Daten kann Regional die Spracherkennung verbessert werden.
=> und wir hier in Deutschland wissen alle wie wichtig es ist die Region zu berücksichtigen, da man viele Wörter in Region A ganz anders meint als die selben Wörter in Region B...

Ich bin ein Freund davon, dass auch mit meinen Daten geforscht wird, jetzt fehlt nur die Information welche genau von mir bezogen werden!
 
@baeri: Sehe ich genauso. Bei solchen Dingen müssen halt Daten erhoben werden. Aber dann wüsste ich auch gern welche...
 
@ryg: Dafür gibt es in Cortana einem extra button.
 
@Alexmitter: nein... welche daten... und damit meine ich nicht "es können Sprachaufzeichnungen" oder "telemetriedaten",...
sondern:
Uhrzeit, Position, Sprache ... und dann wirds persönlich ... IP, GeräteID, ???
als nächstes werden die Daten verbunden...
Speichert man
Datensatz 1 Position A
Datensatz 2 Position B

oder

Datensatz 1 Position A Gerät X
Datensatz 2 Position B Gerät X

<= besonders das macht für mich einen Großen unterschied...
mir völlig egal wenn die NSA schaut ob ich "BOMBE" schreibe... die Frage ist (im Falle das ich es nicht tue) wird dann trotzdem Aufgezeichnet?
 
@baeri: Ist mir relativ egal, wenn M$ meine Daten haben will, sollen sie mich gefälligst fragen und kommunizieren welche daten sie erfassen und nicht einfach Telemetriedaten sammeln von denen keiner weiß, was sie beinhalten(abgesehen von M$).
 
@Nandemonai: öhhh, die Fragen dich... genau wie Winfuture dich fragt oder jeder andere Fragt...

=> AGBs auch "Ich akzeptiere" klicken und dann meinen "die haben nich gefragt oder bescheid gesagt" ist Falsch...

das einzige was wirklich fehlt ist die Transparenz!
 
@baeri: Dann sollte es aber auch immer die Möglichkeit geben, das zu deaktivieren, wenn man es nicht möchte. Genau da liegt ja der Kritikpunkt.
 
@dodnet: nun ja... das ist wie bei den "Kostenlosen" (besonders) Android Apps...
Wenn du dir n Windows 10 Enterprise holst, werden auch keine Telemetriedaten erhoben. Wenn du dir die Homeedition für 30€ (wenn überhaupt so viel) holst, musst du erstmal damit Rechnen, das Microsoft das mit seinem "Entwicklungsbudget" gegenrechnet!?
 
@dodnet: Andererseits könnte man einfach auch die Nutzung sein lassen. Problem gelöst!
 
@FatEric: ... oder entsprechende Hilfsprogramme installieren. Problem auch gelöst!
 
Computer, bereithalten. Selbstzerstörungssequenz Omega. Kennung Stimmmuster Jean Luc Picard. Autorisierung: Alpha Alpha drei null fünf.

Antwort von Cortana: Selbstzerstörung ist defekt.

Erinnere mich gerade an die teilweise kuriosen Unterhaltungen mit dem Schiffscomputer (TNG) :), einfach herrlich.
 
@FlatHack: zu einem aktuellen G S7 sollte man das nicht sagen, das explodiert sofort :D
 
@Chiron84: Verdammt, warum hast du das nicht vorher gesagt?
 
@Chiron84: Du meinst N7... ;)
 
@Knarzi81: Witzigkeit war wichtiger als Genauigkeit, ich denke jeder wusste was gemeint war ;)
 
@Chiron84: Sicher, aber ich bin gut erzogen und helfe gerne. ;)
 
Also ich bin gespannt, wann ich im Dialekt mit einer KI sprechen kann. Vielleicht in näherer Zukunft als mit einem Deutschen. Triggered.
 
@King Prasch: Dazu müsste die Spracherkennung nur lernfähig sein sprich - der Nutzer muss ihr etwas beibringen können.
Wenn ich sage : "Mei Auto hot an Potsch", dann muss ich über ein Interface erklären können, dass das "Mein Auto hat einen Platten" bedeutet.
 
Man beachte bitte die logarithmische Skala der Grafik. 100-10-1%. Die Verbesserung der Quoten ist also noch deutlich drastischer als man bei linearer Skala vermuten würde. Das macht aber auch den Vergleich ziemlich schwierig, da die Verhältnisse >10% und <10% unterschiedliche Abstufungen haben.
 
@Thunderbyte: Ich werde aus der Grafik nicht schlau, da gibt es doch 1990 schon Punkte, die unter dem von MS liegen.
 
@dodnet: Das ist aber nur Abgelesene Spracherkennung keine frei gesprochene wie im Artikel beschrieben.
 
Gratuliere! Weltmeister bei einer Funktion die so gut wie niemand benützt, egal ob Cortana, Siri, usw.
 
@alh6666: Die Forschung dazu finde ich aber grundsätzlich sehr gut. Ich hoffe eines Tage funktioniert es perfekt.
 
@alh6666: Na wie gut, dass es hier einfach mal gar nicht um Cortana geht, sondern um MS Spracherkennung im Ganzen. Die wird nämlich noch woanders eingesetzt, beispielsweise Skypes Universal-Translator. Weiter werden die MS Research Technologien auch noch weitergehend an andere lizensiert.
 
@alh6666: Vielleicht weil eine Fehlerquote von knapp über 6% je nach Anwender immer noch relativ störend empfunden wird? Wobei ich vermuten würde, diese gilt für Englisch - für Deutsch würde ich sie höher vermuten, und wenn es nur sei weil noch nicht so viel Budget in die Erkennung deutscher Sprache geflossen ist wie in die Erkennung englischer Sprache.

Zumindest habe ich subjektiv das Gefühl, z.B. beim Verfassen einer E-Mail keinen einzigen kurzen Satz diktieren zu können, ohne an diesem noch manuell nachbessern zu müssen, und das selbst bei deutlicher Aussprache. Da macht das nicht wirklich Freude (ausserdem ist es in der S-Bahn doch irgendwie peinlich, seinem Telefon Anweisungen zu geben und diese obendrein noch hilflos wirkend mehrmals zu wiederholen, weil das Ding einen nicht richtig versteht, anstatt darauf herumzutappsen ;)).
 
@alh6666: Benutzt schon, nur eher selten in der Öffentlichkeit.
 
Wie sieht es denn mit der Konkurrenz aus? Apple, Google?
 
@undianer: Also das letzte mal als ich mich Cortana beschäftigte, konnte sie noch nicht
einmal mit gesprochenen Komma-Zahlen umgehen. d.h an einer simplen Rechnung
wie z.B.:

2-mal-2-komma-fünf (2X 2,5)

scheiterte Cortana kläglich. Für Google Now und Siri war das aber kein Problem.

Insofern kann ich nicht so ganz daran glauben, dass die Spracherkennung von MS die
beste der Welt sein soll.
 
@Selawi: Deutsch ist auch nicht Englisch
 
@Selawi: Dein Test liegt dann aber auch schon etwas zurück, hat sich schon einiges getan.
 
@Selawi: Und wann war das?

Habe es soeben ausprobiert und es funktioniert perfekt mit kommastellen.
 
Naja, da ich cortana häufiger im Auto benutze, kann ich euch aber versichern, dass sie nach bestimmten Routinen funktioniert...
Es gibt so gewisse Standardsätze und die hat sie drauf, aber wehe in diesem Satz ist ein Wort plötzlich nicht mehr standard, dann kann ma reden so laut und deutlich wie man will, sie kriegts nicht gerissen.

Beispiel zur Vortellung?
"Ich bin auf dem Heimweg von der Arbeit" -> "Ich bin auf dem Heimweg von der Astrid" (ausgesucht, da mir die konkreten Fälle gerade nicht einfallen)

Die Astrid bekommt Cortana dann einfach nicht hin.
Sie macht auch ganz gerne mal aus nem deutschen Wort, nen Englisches^^
Und hat generell starke Probleme mit zusammengesetzten Sätzen, wie z.B. "Ich bin auf dem Rückweg, aber hier ist überall Stau/alles dicht" Bei sonem Satz kannste teilweise schon echt verzweifeln.
 
die akustische Erkennung ist das eine. da mag microsoft spitze sein, die semantisch-kognitive leistung das gesprochene auch sinnvoll umzusetzen ist aber das andere - und da ist nunmal nachweislich google an der spitze und microsoft hängt noch hinter apple hinterher.
Kommentar abgeben Netiquette beachten!