Fingershadow: Microsoft erforscht stromsparende Display-Technik

OLED-Displays kommen in immer mehr Geräten zum Einsatz und sind wegen ihrer stromsparenden Eigenschaften beliebt. Microsoft hat jetzt unter dem Namen "Fingershadow" eine Methode entwickelt, mit der der Stromhunger von OLED-Anzeigen noch weiter ... mehr... Microsoft Research, OLED, Fingershadow, Display-Technik Bildquelle: Microsoft Research Microsoft Research, OLED, Fingershadow, Display-Technik Microsoft Research, OLED, Fingershadow, Display-Technik Microsoft Research

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Microsoft hat echt coole Ideen, nur leider landen diese viel zu selten in einem Endprodukt :(
 
@Sam Fisher: Oder MS wird am Ende dafür verachtet ^^
 
@Draco2007: Coole Ideen? Also die Idee ist mal sowas von nicht alltagstauglich und wird kein Kunde nutzen wollen. MS hat eigentlich kaum coole Ideen, deswegen findet man diese auch nicht in Endprodukten.
 
@Knuffig: Kannst du deine Behauptungen bitte mal mit Argumenten unterlegen, oder willst du auf diesem Kindergarten-Niveau bleiben?
 
@Draco2007: Dann erzähl doch mal was MS alles für coole Ideen so hatte in den letzten Jahren! XD Die Liste wird bestimmt nicht lang werden.
 
@Draco2007: Du glaubst ja nicht wirklich, dass Du von einem Troll eine Antwort bekommen wirst. Ein Troll wird mit einer Gegenfrage antworten, jede Innovation als "Unnötig" oder ähnliches bezeichnen, etc.
 
@Knuffig: Gesprochene Sprache in Gebärdensprache übersetzen, in Echtzeit. Sprachen übersetzen in echtzeit. MS Forscht viel in richtugn wie können Computer beeinträchtigten Menschen nutzen...
 
@Tintifax: War mir klar, aber manchmal macht Trolle füttern auch Spass =)
 
@Sam Fisher: Dann auch mal dich die Frage: Von was für coole Ideen sprichst Du denn? Mir fallen da schlicht absolut keine ein!
 
@Sam Fisher: Das kann man so auch nicht sagen. Microsoft hat mit seinen Hardware-Partnern z.B. schon vor über 10 Jahren Tablet-PCs gebaut, die den heute weit verbreiteten "Lifestyletablets" mit iOS und Android und sogar Microsofts eigenem Surface 3 in der Funktionalität in mehr als einer Hinsicht weit überlegen sind.

Microsofts Problem ist eher, dass sie lange Jahre nicht bereit waren die Funktionalität ihrer eigenen Produkte zu verkrüppeln um dem Massenmarkt gerecht zu werden, der offenbar eher einfache, von jedem Kind bedienbare, hübsch aussehende Entertainment-Spielzeuge an Stelle ernstzunehmender Arbeitsgeräte sucht. Das hat Microsoft mit Windows 7 und erst recht mit Windows 8 nun zu ändern versucht, mit der Ergebnis, dass sich nun professionelle Anwender vor den Kopf gestossen fühlten, weil die sich bei grossen, einfarbig bunten Kacheln und dem dazugehörigen ineffizienten Bedienkonzept am Arbeitsplatz vorkommen wie Erwachsene die dazu gezwungen werden jeden Tag mit bunten Bauklötzchen zu spielen.

Apple macht das schon wieder besser als Microsoft. Für erfahrene und professionelle Anwender haben die Arbeitsgeräte mit MacOSX. Für den Massenmarkt, der scheinbar nur einfach zu bedienendes Elektronikspielzeug in Hand- und Augenschmeichleroptik zum Zeitvertreib sucht und mit den Funktionen von MacOSX, Windows, Linux und Co. eher überfordert ist, gibt es eben die iOS-Produktschiene, die jedes Kind bedienen kann (Was Videos, die man bei YouTube findet wenn man nach "Baby iPad" sucht, eindrucksvoll belegen.).

Microsoft versucht beides in ein und dasselbe Windows-Client-System zu integrieren und das ist offenbar der falsche Weg solange professionelle Anwender und IT-Fachleute dazu gezwungen werden mit der Oberfläche für Anfänger zu arbeiten und dabei Arbeitszeit und somit Geld verschwenden.
 
Und dann hält man es in der anderen Hand und nix geht mehr
 
@Wuusah: ?
 
@steve_1337: was meinst du, dann geht nichts mehr?
 
@LunaticLord: er hat das wohl mit einem Apple Produkt verwechselt....
 
@LunaticLord: bisher schauts so aus, als würde das Programm nur Rechtshänder einbeziehen. Das Prinzip ist ja nicht so, dass da ständig zu jeder Zeit eine Kamera prüft ob da ein Finger über dem Display ist, sondern nur wenn man mit dem Finger auf dem Display drauftouched und anhand der Daten wird entschieden wo abgedunkelt wird. Wenn die Daten nicht zuverlässig sind, was bei einem Handwechsel der Fall ist, passt das vorne und hinten nicht mehr. So habe ich das zumindest verstanden.
 
@Wuusah: Wieso Kamera? Das Touchpanel weiss, wo der Finger ist.
Glaubst du, ständig eine Kamera mitlaufen zu lassen, würde Strom sparen?
 
@Wuusah: Wie immer... Text nur überfliegen und dabei null Plan von irgendwas haben, ich weiß schon, auch wenn du den Text lesen würdest, würdest du auch nicht wissen worum es geht, aber ich seh sowas immer gerne :D
 
@fuba: Dann erklär es bitte. Ich habe in dem gesamten Text nirgends eine Erklärung gesehen, wie das System funktioniert außer "Touchscreendaten und Lagesensoren"... Sehr detailiert ist das ja nicht.
Ich denke nicht, dass das System sofort in Echtzeit erkennt, wo sich der Finger befindet. Da wird es bestimmt zu Problemen kommen.
 
@Wuusah: Hmm wie soll man dir was erklären, wenn du nichtmal weißt wie das "System" weiß wo der Finger ist...

Ach ja, ein Tuchscreen erkennt schon IMMER in Echtzeit wo der Finger ist sonst würde das ganze doch überhaupt nicht Funktionieren oder was meinst du? :D
 
@fuba: Aber eben nur, wo du touchst, nicht wo der Finger weitergeht. Nicht in Echtzeit.
Edit: Ich weiß ja nicht, wie du touchst, aber ich mach das mit der Fingerspitze und nicht mit dem gesamten Finger...
 
@Wuusah: es wird einfach an der Stelle will den Finger ist die Helligkeit runter gefahren. Also wo dein finger den Bildschirm berührt. Was ist daran so schwer zu verstehen.

Edit:
Und durch Sensoren am Gehäuse könnte man z.b. feststellen wie das Handy gehalten wird und dadurch die überdeckung berechnen.
 
@magnusblack: Das ist es ja eben nicht. Es dreht da die Helligkeit runter, wo der Finger den Bildschirm berührt UND wo der Finger den Bildschirm verdeckt ohne ihn zu berühren. Und woher weiß das Display so zielgenau wo der Finger entlanggeht? Und genau diesen Bereich ist es schwer zu erfassen, deswegen gibt es ja diese Bereiche, die sie in den Bildern da heraussammeln. Und anhand dieser Bereiche und den Lagesensoren wird entschieden, wo es abgedunkelt wird. Aber was wenn die Daten plötzlich nicht mehr stimmen, weil man die Hand gewechselt hat?
 
@Wuusah: siehe mein edit. Es wird hier nicht beschrieben um welchen lagersensor es sich handelt. Könnte also einmal der übliche sein oder ein Sensor der am Handy Rand ist und schaut wo deine Hand ist. Also ein Lagesensor wo die Lage von der Hand bestimmt
 
@magnusblack: Das würde das Handwechselproblem lösen, aber nicht das "mit einer Hand halten und mit der anderen touchen" Problem, was quasi das gleiche ist, wie ein Handwechsel, nur ohne dem Handwechsel ;)

Edit:
Diese Technologie muss hundertprozentig funktionieren und das ist wesentlich schwieriger, als sich das einige hier vorstellen. Ich bin mir sogar ziemlich sicher, dass es aufgrund dieser Schwierigkeit keine Anwendung im Consumerbereich finden wird.
 
@Wuusah: auch das kann man damit erkennen. In diesen fall tät aber dann nur der punkt wo man es berührt abgedunkelt werden.
 
@Wuusah: man kann alles durch Sensoren raus bekommen. Und dies wird zuverlässig funktionieren.
 
@magnusblack: Nicht, wenn es den linken Finger mit dem rechten Daumen verwechselt und einfach nach unten rechts abdunkelt.
Die Idee ist ja gut, aber wirklich zuverlässig kann man nur das abdunkeln, was direkt unter der Fingerspitze ist. Weitere Bereiche sind aber die wichtigen Bereiche, denn die Abdunklung dort wäre weitflächig und würde den Akku schonen.
 
@magnusblack: Natürlich kann man alles durch Sensoren herausbekommen, aber lohnt es sich durch Abdunklung Akku zu sparen, wenn man das Teil mit Sensoren vollstopft, die den Akku wieder verbrauchen? ;)
Wie gesagt, es muss zu 100% funktionieren. Nicht 90%, nicht 99%, sondern 100%. Denn wenn der gewöhnliche Consumer Probleme mit der Abdunklung hat, dann ist er sehr genervt von diesem Feature und kauft sowas nicht mehr. Und es wird sehr schwer sein es 100% zuverlässig zu machen.
 
@Wuusah: Selbst ohne Lagesensor wäre es möglich. Wenn du mit deinem Finger das Touchpanel berührst, entsteht kein kreisrunder Punkt, sondern eher eine Art Oval, welches deine Fingerspitze nachbildet, denn du berührst das Touchpanel ja nicht senkrecht von Oben, sondern in einem gewissen Winkel. Anhand der Ausrichtung dieses Ovals könnte man den Vector bestimmen, welcher Bereich abgedunkelt werden kann.
 
@heidenf: Danke, wenigstens einer, der erkannt hat, wie es funktionieren kann.
Mit dieser Tatsache und dem Lagesensor kann ich mir gut vorstellen, dass das Prinzip ziemlich gut funktionieren könnte.
Auch wenn ich 22% Ersparnis echt für etwas utopisch halte, außer ich habe den ganzen Tag den Finger auf dem halben Display.
 
@Wuusah: Erst dachte ich auch: Äh, was schreibt der da... Aber wenn man sich Abbildung a,b und c anschaut, gehen sie davon aus, dass der Finger von unten rechts in die Mitte des Displays führt und somit hast du wahrlich Recht, das darf nicht grundsätzlich der Fall sein, eben auch bei Linkshändern und/oder unorthodoxischer Bedienweise. Aber da das ein in der Entwicklung befindlicher Research ist, sehe ich das doch eher entspannt ;-)
 
@EffEll: Woher weißt du, dass sie davon ausgehen? Weil du es auf den Bildern siehst? Du weißt schon, dass etwa 90% der Menschen nunmal Rechtshänder sind und genau so den Finger draufhalten? Wieso zum Teufel sollte MS Bilder veröffentlichen, mit dem Finger von der anderen Seite.

Aber nochmal langsam für dich: Die Berührungsfläche des Fingers bildet ein Oval. Ein Oval hat eine Richtung. Und mit dieser Richtung lässt sich eindeutig feststellen welchen Bereich der Finger garantiert verdeckt.
Der Rest ist trivial.
 
@Wuusah: Es wurde ein extra Sensor des Galaxy S5 genutzt:
"Allerdings sei der Sensor des S5 auch in der Lage, Finger zu erkennen, selbst wenn diese den Bildschirm nicht berühren und sich im Abstand von 1,5 cm von der Oberfläche befinden. "
Quelle Heise: http://goo.gl/psdUjJ
 
@Wuusah: Die Beweglichkeit der Daumen unterliegt einfachster Physik.
 
@Draco2007: Sag mal, gehts noch? "Langsam für dich." Ich hoffe du hast ab da wirklich ganz langsam geschrieben, wenn du davon ausgehst, dass ich nicht so schnell lesen kann... Such dir mal ein Hobby oder ein Ausgleich, dann brauchst hier die Leute nicht blöd anmachen.
 
@EffEll: Sag das Wuusah, er stellt doch die Entwickler von MS als Vollidioten hin, nicht ich...
 
@Wuusah: Falsch, es ist schon seit einiger Zeit so das einige Displays den Finger schon erkennen wenn er nur in einem gewissen Abstand über dem Display liegt und es noch nicht berührt. Dieser link ist zwar nur ein Gerücht http://www.netzwelt.de/news/95377-samsung-galaxy-s4-laesst-ohne-beruehrung-bedienen.html Allerdings bin ich mir sicher genau diese Technik schon an einem Smartphone meines Bruders gesehen zu haben. In dem Link ist von ca 20mm Abstand zum Display die Rede. da ist noch ein link wo die technik beschrieben wird. http://tinyurl.com/7u7ybz8 Also das gibt es schon wird nun aber zum Stromsparen eingesetzt.
 
@Wuusah: ?
 
@Wuusah: Lustig, dass du Minus kassierst, da du ein Problem ansprichst, das einige wohl einfach nicht verstehen ...

Das Problem ist folgendes: Wenn man zum Beispiel über eine lange Seite (wie etwa die Facebooktimeline) scrollt, bewegt man kontinuierlich seinen Finger über das Display, von unten nach oben. Die angesprochene Technologie kann nun die unsichtbaren Teile des Displays abdunkeln.
Nun tritt das eigentlich Problem auf: Während bei Rechtshändern vom Finger der gedrückte Punkt und die Flächen rechts von diesem Punkt vom Daumen überdeckt werden, so ist es bei Linkshändern genau andersherum! Da das Handy, aber nicht grundsätzlich weiß, ob es gerade mit der linken oder mit der rechten Hand bedient wird, wird es den eingestellten Standartbereich (also bei Rechtshändern rechts) abdunkeln.

Wechselt man nun die Hand, wird weiterhin rechts abgedunkelt, obwohl nun links überdeckt wird und man sieht abgedunkelte Areale.
 
@Billkiller: Praktisch alle modernen Touch-Displays dürften in der Erkennung genau genug sein um genau sowas erkennen zu können.
Denn wenn deine Hand nach rechts oder links unten geht, geht auch dein Finger, der das Display berührt genau in die diese Richtung. Es ist ja nicht so, dass dein Finger das Display nur an einem mathematischen Punkt (unendlich klein) berührt.
Es wird eine Form sein, die Rückschlüsse zulässt aus welcher Richtung der Finger kommt.

Und damit ist das Problem keins mehr.

Leute ist ja nett, wenn ihr euch Gedanken macht. ABER wenn ihr von der Thematik wirklich keine Ahnung habt (ich übrigens auch nicht), dann geht da entweder mit Fantasie ran, oder geht einfach mal davon aus, dass die vielen hochbezahlten Entwickler bei MS nicht so auf den Kopf gefallen sind, dass sie nicht an solche banalen Dinge gedacht haben.
 
@Wuusah: Sag mal wie bedienst du denn einen Touchscreen? Mit der ganzen Hand etwa? Oo
Also Hand draufklatschen und hoffen das richtige zu erwichen? :D

Dann JA, dann geht natürlich nix mehr :P
 
@fuba: Wenn ich plötzlich die linke Hand nehme, es aber immernoch den rechten Bereich abdunkelt, weil es nicht sofort umschaltet, dann ist das halbe Display nicht sichtbar, ein Teil durch den Finger und ein Teil durch das Abdunkeln. So schwer zu verstehen?
 
@Wuusah: Sieht sohl so aus, dass es schwer zu verstehen ist.

Jedoch verstehe ich nicht warum du nicht verstehst, aber es macht dennosch Spaß :D
 
@Wuusah: Was soll da "umschalten"?
Der abzudunkelde Bereich wird im Moment des Berührens ermittelt, anhand des Berührungsovals, womit man auch gleich die exakte Richtung des Fingers hat.

Dann blendet man das Display für einige hundert Millisekunden aus (Mindestzeit, die der Finger braucht um das Display wieder freizugeben) und fertig.
Neue Berührung, neue Abdunklung.

Da muss nichts umstellen. OLED-Displays können schnell genug Pixel an und aus schalten.
 
@Wuusah: ?
 
@Wuusah: (+) Echt schade. Dir fällt (als vermutlich einzigem) ein Problem auf und keiner will es begreifen, geschweige denn darüber nachdenken; stattdessen wird sofort negativ bewertet und kommentiert. Du hast es meiner Meinung nach ausführlich genug erläutert, also nicht drüber ärgern!
 
@Hannibalector: Weil das "Problem", dass hier erkannt wurde, so banal ist, dass man davon ausgehen kann, dass die Entwickler bei MS selbst schon darauf gekommen sind, oder einfach generell mehr wissen als wir, so dass es überhaupt kein Problem darstellt.

Nur mal als keinen Hinweis, der jetzt schon 2-3 mal kam.
Dein Finger berührt keinenfalls nur einen Punkt (mathematisch gesehen) auf dem Display, sondern viel mehr eine Art Oval. Und anhand der "Drehrichtung" des Ovals kann man sehr wohl herausfinden aus welcher Richtung der Finger kommt.

Was meint ihr Witzbolde denn? Dass MS hier einfach einen festen "Finger-Winkel" annimmt? So dämlich ist doch kein Entwickler, der in einer solchen Forschungseinrichtung arbeitet.
 
@Draco2007: Es ist einfach nur ein Problem, welches ich anspreche. Kann gut sein, dass MS es lösen wird, kann aber auch gut sein, dass diese Lösung nicht zuverlässig genug funktioniert und es dem Endkunden vorlegen zu können.
MS bringt nicht nur einwandfreie perfekt funktionierende Produkte auf den Markt. Die erste Surface Version hatte unzählige Bugs.
 
@Wuusah: Das Problem ist, du rätst einfach ins Blaue, weil du technisch gar keine Ahnung hast. Ich übrigens auch nicht...

Ja es kann mal vorkommen, dass man als technischer Mensch offensichtliche Kleinigkeiten übersehen kann. Aber was du hier als Problem hinstellst ist etwas so grundlegendes, dass ich mir nicht vorstellen kann, dass die Entwickler bei MS es übersehen.
 
@Draco2007: Und ich kann es mir sehr gut vorstellen. Es geht nämlich nicht um übersehen, sondern darum, dass sie das Problem perfekt lösen und da habe ich meine Zweifel.
 
@Wuusah: Ok nochmal die potentielle Lösung für dich langsam:

Die Berühungsfläche ist ein Oval. Ein Oval hat eine Richtung. Die aus dieser Richtung lässt sich ermitteln wo der Finger herkommt. Damit lässt sich feststellen, welcher Bereich 100%ig verdeckt wird.
Zusätzlich können OLED-Displays schnell genug zwischen "aus" und "an" umschalten.

Es geht hier um Grundlagen, die du anzweifelst. Wenn MS da keine Lösung für hätte, meinst du sie treten vor die Presse und verkünden die Idee einfach so?
Nochmal ganz deutlich...es ist ein GRAVIERENDER Unterschied ob man bei einem kompletten Gerät (das angesprochene erste Surface) irgendwelche Kleinigkeiten übersieht, die dann einigen Kunden negativ auffallen, weil man selbst nicht daran gedacht hat. Nennt sich Betriebsblindheit und ich kenne das als Softwareentwickler zu genüge.
ABER HIER zweifelst du GRUNDLEGENDE Dinge an. Und ich empfinde das langsam als Beleidgung in richtung der Entwickler von MS. Du stellst die Leute da wirklich als inkompetente Idioten hin, wenn du solch grundlegende Dinge anzweifelst.

Wie wärs, wenn du das nächste mal deine Bedenken für dich behälst und wie alle anderen meckerst, WENN es ein Problem GIBT. Den aktuell hast du weder eine Ahnung wie MS diese Funktion umgesetzt hat, noch hast du einen funktionierenden Prototypen gesehen.
 
@Draco2007: Herrgott, bist du sensibel. Ich meckere hier nicht. Ich weise nur auf ein mögliches Problem hin und darauf, dass diese nicht gelöst werden muss, sondern PERFEKT gelöst werden muss. Der Nutzer sollte bestenfalls gar nicht merken, dass da was abgedunkelt wird. Und DIES ist etwas, was sehr schwer ist. Ja, es sind die Grundlagen des Projekts, aber es ist eben auch das, was am schwersten zu bewerkstelligen ist, denn mit einem einfachen Vektor ist dies nicht gelöst, denn schau mal auf die Finger von zehn verschiedenen Personen. Finger sind nicht immer gleich. Manche sind gerade, andere krumm, andere krumm in die andere Richtung. Um das zu umgehen müsste man das Smartphone kalibrieren. Und was machen dann diejenigen, die aufgrund eines Unfalls unterschiedliche Fingerkrümmungen an den Händen haben? Dann bringt auch eine Kalibrierung nix.
So eine Technologie ist sehr hilfreich, keine Frage, aber sie ist eben auch restriktiv. Sie zwingt einen quasi dazu das Smartphone auf eine bestimmte Art zu nutzen um es "richtig zu nutzen" und wer Probleme damit hat "macht es nicht richtig". Das ist nicht kundenfreundlich, ganz und gar nicht.
Und was ist, wenn jemand anderes auf den Touchscreen tippt?

Ja, es ist die Grundfunktion an der ich zweifle, weil es eben ein nicht so leichtes unterfangen ist dies perfekt zu lösen. So cool es auch wäre, wenn man Akku sparen könnte, so denke ich nicht, dass dies jemals in den gewöhnlichen Smartphones ankommen wird, da sie den Kunden stören könnte.
 
@Wuusah: Selbst wenn man für 500ms sieht, dass etwas um den Finger abgedunkelt ist, so what?
Da muss nichts PERFEKT funktionieren. Das ganze wird als Energiespar-Option eingebunden und fertig.

Ich beschwere mich auch nicht, wenn ich mein Smartphone in den Energiesparmodus versetze, dass alles monochrom wird, weil ich es bewusst so eingestellt habe, DASS es passiert.

Um es PERFEKT zu machen, so dass wirklich nur EXAKT der Umriss des Fingers "aus" ist, ist meiner Meinung nach überhaupt nicht machbar. Das ginge nur, wenn man den Blickwinkel des Benutzers mit einbeziehen würde und "sehen" könnte, was der Benutzer sieht.

Aber es geht wie gesagt nicht im Geringsten um eine perfekte Lösung. Es geht darum bedeutende Mengen an Akku zu sparen mit einer möglichst minimalen Störung des Users. Und DAS ist durchaus machbar...
 
@Draco2007: "Da muss nichts PERFEKT funktionieren." -- Das ist genau diese Einstellung, mit der man heutzutage nicht mehr weit kommt. Man schiebt damit Probleme auf den Nutzer ab, nach dem Motto 'Ach, das funktioniert nicht wirklich, aber damit kann sich ja der Nutzer rumschlagen'. Ich persönlich kaufe solche Produkte nicht, weil es nicht mein Job ist rauszufinden was funktioniert und was nicht. Ich hab da schlicht keinen Spaß dran durch irgendwelche Gimmicks durchzusuchen. Und ernsthaft, irritierende Bildstörungen hinnehmen für ein paar Prozent Ersparnis würde ich ohnehin nicht einsehen. Ich meine, wie viel Prozent des Displays kann man maximal abdunkeln? 15%? Wie oft habe ich wirklich meinen Daumen über dem Display schwebend? 5% der Zeit? Wie viel Strom verbraucht das Display? 40%? Macht 0.3% modulo Rechenaufwand Ersparnis insgesamt. Da fallen mir deutlich weniger störende Methoden ein den Bildschirm dunkel zu halten, die deutlich bedeutender sind.
 
Sehr coole Idee. Jedes bisschen, das man Strom beim Display sparen kann, ist gut, denn schließlich ist das Display mit der größte Verbraucher.
 
Man könnte doch erst mal damit anfangen öfter "dunkle Themes" mit heller Schrift verwenden, scheint mir auch für die Augen angenehmer.
 
@xploit: Siehe Windows Phone. ;)
Kommentar abgeben Netiquette beachten!

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles