Smartphones: Microsoft entwickelt 3D-Gesten-Sensor

Microsoft-Forscher haben im Vorfeld der morgen beginnenden Fachkonferenz ACM CHI, auf der Experten im kanadischen Toronto über die menschliche Interaktion mit dem Computer diskutieren, das Konzept für einen günstig umzusetzenden Gesten-Controller für ... mehr... Microsoft Research, Gestensteuerung, 3D Sensor für Smartphones Bildquelle: Microsoft Research Microsoft Research, Gestensteuerung, 3D Sensor für Smartphones Microsoft Research, Gestensteuerung, 3D Sensor für Smartphones Microsoft Research

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Tja, was unterscheidet diese "Gestenerkennung" von der Technik, die Samsung bei der berührungslosen Navigation vom S4 nutzt?
 
@gutenmorgen1: Soweit ich weiß nutzt das S4 die Kamera dafür ;)
 
@Knerd: ja und dennoch benutzt es kaum jemand weil es unnötig ist. ich muss zugeben ich habe seit dem s2 immer ein samsung gehabt und nie diese spielerein benutzt mir ging es eher um andere sachen. es mag den ein oder anderen anwender geben der das gut gebrauchen kann aber gesten haben noch niemand wirklich viel geholfen. ;D
 
Bei 3D Interfaces denke ich immer zwei Sachen zur Benutzerfreundlichkeit:

1) Schon bei den 2D Touchscreens gab es Beschwerden, dass es zu wenig Feedback bei einer Eingabe gibt. Das Problem sollte doch noch schlimmer sein, wenn Etwas in der freien Luft ausgewählt wird (bei Touchscreens spürt man wenigstens die Berührung).

2) Fehleingaben: Bei 3D Interfaces erfolgt eine Erfassung, sobald der abgescannte Raum betreten wird, was großes Potenzial für Fehleingaben bedeutet. Ständig zwischen "Faust bilden" und "Zeigefinger ausstrecken" zu wechseln ist auf dauer nicht sehr angenehm. Da muss dann das Device genau entscheiden können, ob und wie lange etwas als Eingabe gedacht ist, oder keine Bedeutung für das Device haben sollte.

Wenn für die Probleme keine cleveren Lösungen gefunden werden, glaube ich werden 3D Interfaces nur für spezielle Dinge eingesetzt, aber kaum die heutigen Interfaces grundlegend ablösen.
 
@Wolfgang3: Da denkst du nicht weit genug... Um ein spontanes Beispiel zu nennen warum es genau das Gegenteil bedeutet -> jetzt ist es möglich anzuzeigen wo der Finger auf dem touchscreen auftrifft bevor er auftrifft! ... Und ablösen glaub ich ehrlich gesagt auch nicht! Eher erweitern!
 
Stelle mir gerade vor. Man sitzt in der Bahn und jeder fuchtelt da über so ein Ding und haut dem total vernetzten Nachbarn vielleicht noch Google Glass vom Haupt....:-)
 
@Zwerg7: Und ich stelle mir vor, wie Leute anderen Leuten sonst wo hin fassen und sich dann mit der Begründung entschuldigen, dass man doch nur sein Smartphone bedienen wollte.
 
@BloodEX: Per Google Glass eine virtuelle Tastatur auf das Dekolleté der gegenübersitzenden Dame projekziert. Hat was.
 
@Draco2007: Hehe. :D Erinnert mich an die Shirts, auf denen so ein Gamepad drauf ist.
 
Die negative Kommentare oben - ja - sehr unterhaltsam. Ich finde diese Technik sehr interessant. Im Unterschied zur Steuerung durch eine Kamera wird diese Technik denke ich schneller reagieren können und vor allem auch näher am Screen noch funktionieren, was ja bei der Kamerasteuerung nicht möglich ist. Es sind also Gesten möglich, die z.B. 3D und Berührung des Bildschirms nahtlos kombiniert zulassen. Als Entwickler habe ich da sofort einen Haufen Ideen.
Kommentar abgeben Netiquette beachten!

Beliebtes Windows Phone

Beiträge aus dem Forum