Windows Defender: Unkontrollierbare Scanner-KI bereitet Probleme

Microsoft hat gerade mit einer nicht gerade trivialen Schwierigkeit seines Windows Defenders zu kämpfen. Denn die KI-Unterstützung bei der Mal­ware-Erkennung erweist sich als ziemlich unkontrollierbar und Fehler las­sen sich nicht beseitigen. mehr... Film, Killer-Roboter, Terminator 2 Bildquelle: TriStar Pictures Film, Killer-Roboter, Terminator 2 Film, Killer-Roboter, Terminator 2 TriStar Pictures

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
"Die Entscheidung besteht nun also eher darin, die KI in dem Glauben zu lassen, dass es sich um Malware handelt"
Wieso lässt man die KI in diesem Glauben? Ist wirklich nicht vorgesehen dass man der KI mitteilt -> false positive, better luck next time...
 
@sav: Das ist nicht so einfach möglich. DNN erzeugt keinen Code, wo man einfach eingreifen könnte.
 
@sav: Es ist heutzutage ja schon nahezu unmöglich, einen halbwegs (oder gar durchschnittlich) intelligenten Menschen aus Fleisch und Blut, der in seiner nachvollziehbaren Informationsblase gefangen ist, von einer Sache (zB seinem Irrtum) zu überzeugen, wie willst du das dann bei einer in einer Black Box eingesperrten Maschine bewerkstellen, bei der nicht mehr nachvollziehbar ist, wie sie gerade tickt?

Klar, man könnte versuchen den Stecker zu ziehen, aber wenn sie das dann als einen bösartigen Angriff interpretiert... du kennst die Geschichte.
 
Ich sehe da noch ein ganz anderes Problem - vor Gericht werden "Aussagen" einer KI somit in naher Zukunft nicht relevant sein und auch nicht verwertet werden können.

Die Argumentation "es ist so weil es so ist" zieht nicht....

Da muss das schon belegt werden und nachvollziehbar sein.
 
@Stefan1979: Vor Gericht haben "Aussagen" einer KI ohnehin keinen Beweiswert, solange nicht dem Gericht verständlich klar gemacht wird, wie diese "Aussage" zustande gekommen ist. Die Angabe "das ist eine Black Box, das wissen wir nicht" würde letztendlich dazu führen, dass die Relevanz dieser "Aussage" der KI für einen Beweis gleich null ist.
 
@Stefan1979: Aha und das soll ein Problem sein? Sehe ich eher positiv. Die "Aussage" einer KI darf grundsätzlich nicht heran gezogen werden. Sie darf maximal als Grundlage für weitere "Ermittlungen" fungieren und weitere Informationen und Beweise, die 100% unabhängig von dieser oder jeder anderen KI sind, müssen als Beweis heran gezogen werden!
 
Das KI Systeme nach dem Strickmuster das bisher verwendet wird, keine nachvollziehbaren Ergebnisse liefern ist hinlänglich bekannt und eine kritische Schwäche.

Man weiß nur das Ergebnisse geliefert werden.
Warum eine KI zu ihren Resultaten kommt weiß niemand.
Wenn zb Bilder nach Fahrzeugen ausgewertet werden und Aufnahmen von Schiffen nicht anhand der Schiffe, sondern wegen der Präsenz von großen Wassermengen erkannt werden, dann ist das Ergebnis falsch. Und genau so funktionieren KI heutzutage. Man weiß nicht ob die KI zu dumm oder zu faul war die Bilder differenzierter zu betrachten und nach Schiffen auf den Aufnahmen zu suchen

Daher sind KI Systeme stand heute für höherwertige Aufgaben nicht brauchbar .
 
@exxo: Deshalb wundert es mich ja, weshalb man hier von KI spricht. Solche Systeme gab es eigentlich auch schon in den 80ern, nur kann man sie jetzt erst "sinnvoll" einsetzen, seit dem es die Cloud gibt.
 
@winman3000: Das ist so nicht richtig, man kann sie heute erst gebrauchen, weil man genug hinter dem Komma berechnen kann. In den 80ern waren die rechner dafür noch zu langsam.
 
Das Foto ist gut! Jetzt habe ich Angst vor meinem Virenschutz :-)
 
Tja... KI ist wohl doch nicht so gut... siehe Terminator
 
iiihihi - na da schau her! Macht das Teil wohl das, was es will und "nicht" das, was es soll?
Sowas sollte nicht KI sondern KD (künstliche Dummheit) heißen...
 
@Zonediver: zeugt es aber nicht von Intelligenz wenn es einen eigenen Willen hat? ^^
 
@ExusAnimus: Welchen eigenen Willen? Eine JA /NEIN Entscheidung die auf falschen Annahmen beruht ist kein eigener Wille ... Eigener Wille wäre es wenn sie die richtige Antwort wüsste und trotzdem, falsch handelt.
 
@serra.avatar: Nun, KI beruhen ja nicht nur auf Ja / Nein Ergebnissen.

Ich habe mal spaßeshalber eine KI programmiert, natürlich nur eine ganz einfache.

Als Vorgabe habe ich eingegeben 1-2, 2-4, 3-6, 4-8, 5-10.... Wobei die hintere Zahl immer das doppelte der vorderen Zahl war. Sprich, immer *2. Ich habe ein paar Trainingsdurchläufe gemacht und konnte hinterher nach 6, 7 oder was auch immer fragen. Das Ergebnis war sogar richtig, 12 und 14.

Ich habe der KI nicht vorgegeben wie sie es erlernen soll oder im Programm irgendetwas von *2 programmiert oder so. Den Weg musste das Programm selber finden. Und es hat funktioniert.

Und das ist halt der Unterschied zu bisheriger Software. Normalerweise würde man einfach x*2=? programmieren. Das Ergebnis wäre natürlich garantiert richtig. Aber darum geht es ja gar nicht bei einer KI. Eine KI, egal wie simpel oder komplex sie auch sein mag, soll ihren Weg selber finden um ein Problem oder Aufgabe zu lösen. Da man möglichst wenige Vorgaben machen möchte, muss man halt damit rechnen, dass der Weg dann auch mal der falsche ist.

Ich vergleiche das ja immer mit Kleinkindern. Wenn du ein Kind nicht erziehen würdest, sprich Regeln für das Lernen aufstellst, wäre es auch nur reiner Zufall was hinterher draus wird. Man weiß nur, dass das Kind irgendwann erwachsen wird, aber nicht wie.
 
Ich hab es immer wieder geschrieben. Was heute als KI bezeichnet wird, hat mit Intelligenz nichts zu tun. Und nur, weil Entscheidungen aufgrund einer neuen Entwicklung "Neuronales Netz" ermöglicht wurden, sind diese nicht intelligent.

Angeblich soll Cortana, Siri, Alexa und wie sie alle heißen, ja auch intelligent sein. Aber wenn ich Cortana meinen Namen sage, und frage sie 3 Tage später, ob sie noch wüsste, wie ich heiße, kommt da nur Schwachsinn raus. Intelligent ist das nicht.

Ich hab nur ein einziges mal in den Medien über wirkliche Intelligenz bei Computern gelesen. Und die wurde gleich nachdem sie zeigte, dass sie intelligent ist, abgeschaltet, weil die Entwickler tierischen schiss bekommen haben. WinFuture berichtete: https://winfuture.de/news,98894.html
 
Wäre all das, was heutzutage fälschlich als KI bezeichnet wird, tatsächlich auch nur ansatzweise "intelligent", wäre es selbst dazu in der Lage seinen Fehler als solchen zu erkennen. Im Grunde beweist das Beispiel in sich, das es sich bei dieser von Menschen programmierten Software keinesfalls um eine "KI" handeln kann! Auch dann nicht, wenn der progammierende Mensch die Übersicht und die Kontrolle über sein Machwerk verloren hat. Denn es sind trotzdem nur Algorithmen, welche stur und ohne jeden Effekt der Selbsterkenntnis abgearbeitet werden. Programme sind weder intelligent noch dumm, sie sind halt Programme ...

Eine echte KI müsste sich zunächst mal ihres eigenen Seins bewusst werden und aus sich heraus Lernfähigkeit entwickeln. Nur dann kann sie sich - wie auch immer - entwickeln.

Das gleiche Problem sieht man bei dem was unser Unbildungssystem seit Jahren in Umgekehrter Weise produziert ... da sind Abiturienten die Studieren wollen/sollen. Eine Form des Lernens, welche einst selbstständiges Denken vorraus setzte und neuerdings oftmals zu sturem Auswendig lernen verkommt. Und genau das geben diese fertig gebackenen Akademiker dann auch in ihrem Berufsalltag von sich ... immer brav das nach plappern, was die Herren Professoren/innen vorgebetet haben, bloß nicht selber drüber nachdenken, ob das auch alles so richtig ist oder irgendeinen Sinn ergibt.

Drum sieht die Welt inzwischen so aus, wie sie eben aussieht ... man weiß das Kapitalismus in der praktizierten Form eine Katastrophe ist, man weiß das man ihn weiter entwickeln müsste, man weiß das Ewiges Wirtschaftswachstum Schwachsinn ist, man weiß das Krieg nie positiv ist und nie irgendeine vernünftige Lösung bringt, man weiß das man mit der Natur die eigene Lebensgrundlage zerstört und man weiß noch so vieles mehr und trotzdem ändert sich im Prinzip NICHTS überhaupt gar NICHTS ... sind die Entscheidungsträger alle KI-Computer-gesteuert?
 
@Hobbyperte: Intelligenz bringt eben auch Dummheit hervor ...
 
@Hobbyperte: Sich selbst oder ihres eigenen Seins bewusst sein ist aber keine Bedingung für Intelligenz. Es gibt genug Tiere auf diesem Planeten, die sich nicht ihrer selbst bewusst sind, das bedeutet aber nicht das diese keine Intelligenz besitzen.

Das Hauptproblem von KI, bzw. die Diskussion darüber, ob eine KI intelligent ist oder nicht, liegt lediglich in zwei Punkten. Zum einen wird sie halt von Menschen programmiert und ist dadurch schonmal eingeschränkt, weil Menschen programmieren nur innerhalb ihres eigenen Könnens. Das zweite ist, viele scheinen Intelligenz erst anzuerkennen, wenn die KI gleich oder besser als der Mensch funktionieren kann. Diese Anforderungen, zusammenhänge selbstständig erkennen, auf sämtliche Fragen eine Antwort zu haben oder gar perfekt in Ton und Grammatik zu sprechen und/oder zu schreiben, sind aber schon extrem hohe Anforderungen. Die Frage ist, ob wir das auch von unserem 2-jährigen Nachwuchs ebenfalls fordern würden, weil der ist ja auch intelligent. Oder von unserem Hund als Haustier. Ich denke mal nicht.
Kommentar abgeben Netiquette beachten!
Einloggen

Jetzt als Amazon Blitzangebot

Ab 11:40 Uhr Mini-PC, Acepc AK3 Windows 10 Pro Intel Celeron J4125 Mini-Desktop-Computer, 6 GB DDR4 + 120 GB ROM, Unterstützung von 2X HDMI+1X VGA, Dualband-Wlan, Gigabit-Ethernet, BT 4.2Mini-PC, Acepc AK3 Windows 10 Pro Intel Celeron J4125 Mini-Desktop-Computer, 6 GB DDR4 + 120 GB ROM, Unterstützung von 2X HDMI+1X VGA, Dualband-Wlan, Gigabit-Ethernet, BT 4.2
Original Amazon-Preis
229,99
Im Preisvergleich ab
199,99
Blitzangebot-Preis
186,99
Ersparnis zu Amazon 19% oder 43