Beeindruckend: Microsoft-KI beschreibt Blinden, was um sie passiert

Der wahrscheinlich berührendste, aber auch technologisch beeindruckendste Moment der Tag-1-Keynote der Microsoft-Entwicklerkonferenz Build gehörte dem blinden Entwickler Saqib Shaikh. Dieser stellte per Video und auf der Bühne das Projekt Seeing AI der Microsoft Cognitive Services vor, dieses hilft sehbeeinträchtigten Menschen mit KI-Hilfe, besser ihre Umwelt zu erfassen.

Saqib Shaikh erzählt im Video zunächst, dass er im Alter von sieben Jahren seine Sehkraft verloren hat. Wenig später besuchte er eine spezielle Schule für Blinde, dort hatte er dann zum ersten Mal Kontakt mit "sprechenden Computern." Diese haben ihm dann eine "völlig neue Welt an Möglichkeiten" aufgezeigt.

Leben verbessern

Vor zehn Jahren ist er dann als Informatiker zu Microsoft gestoßen und wollte dort etwas erschaffen, was das Leben von Menschen wahrhaft verbessern kann. Und sein Traum sei es gewesen, ein System zu schaffen, das jemandem zu jeder Zeit beschreiben kann, was gerade um die Person herum passiert.

Dabei wird Saqib Shaikh mit einer Kamera-Brille gezeigt, per Geste wird dann ein Foto geschossen und von einer Künstlichen Intelligenz analysiert. Eine Computerstimme beschreibt dann das, was (vermutlich) gerade passiert, im Video wird das unter anderen anhand eines Skateboarders gezeigt, der einen Trick vollführt.

Die dazugehörige App basiert auf den Intelligence-APIs bzw. den Microsoft Cognitive Services. Die APIs bieten Entwicklern die Möglichkeit, Anwendungen das Sehen, Hören, Sprechen, Verstehen und Interpretieren menschlicher Bedürfnisse beizubringen. Das funktioniert über spezielle Brillen, aber auch über eine Smartphone-Anwendung.

Beeindruckend ist, dass die App Menschen erkennen, aber auch ihre Emotionen einschätzen kann bzw. dies versucht. Außerdem kann sie blinden Menschen Text vorlesen und auch eine Anleitung geben, wie sie das Smartphone halten sollen, damit das gelingt.

Weitere Ankündigungen vom ersten Tag:
Jetzt einen Kommentar schreiben