Nächstes Level für Google-KI: Nach Go soll nun StarCraft kommen

Für ihre Künstliche Intelligenz (KI) DeepMind haben die zuständigen Google-Entwickler jetzt die nächste Herausforderung gefunden. Nachdem das System die beachtenswerte Leistung erbrachte, gegen die Meister im Go-Spiel zu siegen, will man demnächst ... mehr... Google, Logo, Künstliche Intelligenz, Ki, DeepMind, Google DeepMind Bildquelle: Google Google, Logo, Künstliche Intelligenz, Ki, DeepMind, Google DeepMind Google, Logo, Künstliche Intelligenz, Ki, DeepMind, Google DeepMind Google

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
klingt jetzt vielleicht etwas blöd, aber: "viel Spaß mit den Koreanern"... Was die in Starcraft leisten, muss eine KI erstmal schaffen.
 
@Sh4itan: Ähnliches dachte man bis vor Kurzem auch über Go.
 
@gutenmorgen1: allerdings hat man bei Go wie bereits im Artikel erwähnt die "perfekte Information", während in Starcraft der FoW vorherrscht und man quasi keine Ahnung hat, was genau der Gegner gerade treibt. Abgesehen davon ist Starcraft imho DAS Strategiespiel schlechthin, weshalb ich es als eine enorme Herausforderung einstufe. Wenn die das allerdings hinkriegen, dann Hut ab.
 
@Sh4itan: Beim zocken wegen Dehydration und HK-Kollaps krepieren sehe ich nicht als Leistung an. :P
 
@Sh4itan: Hmmm....KI's sind weitaus mächtiger, als du dir gerade vorstellst. Das große Problem ist allerdings, dass es sehr schwer ist, so viele Synapsen wie der Mensch besitzt, eben in einem "künstlichen Gehirn" nachzubilden. Von der Rechengeschwindigkeit her wäre ein KI-Computer mit ähnlich vielen Synapsen wie der Mensch deutlich schneller und könnte so ein Problem viel schneller Lösen als der Mensch. Aber genau das will man ja lösen: Lass den Computer so denken wie einen Menschen, nur viel schneller und größer.
 
@Kampfkeksle:
Es ist eigentlich genau das Gegenteil der Fall. KI's sind viel dümmer als es sich die meisten Vorstellen. Im Prinzip tut eine genannte KI nichts anderes als das was man ihm vorgibt zu tuen. Sind es viele Vorgaben mit Unmengen an Spezifikationen und Ausnahmen erweckt es den Eindruck einer KI, welches jedoch auch eine stupide Einreihung von Aufgaben ist.

"Das große Problem ist allerdings, dass es sehr schwer ist, so viele Synapsen wie der Mensch besitzt, eben in einem "künstlichen Gehirn" nachzubilden"
Aktuell ja. Prognosen, schon etwas älter (3-4 Jahren) ergaben das ein Chip mit der selben Anzahl im Jahr 2020 für ca 1.000€ zu haben sein wird und im Jahr 2030 für 1€.

"KI-Computer mit ähnlich vielen Synapsen wie der Mensch deutlich schneller und könnte so ein Problem viel schneller Lösen als der Mensch."
Das ist nicht korrekt. Die Verarbeitung von Informationen passieren auf sehr unterschiedlichen Wegen. Selbst wenn wir heute einen Chip hätten der korrespondierend 10mal soviele Synopses hätte wäre es vielen Bereichen der Informationsverarbeitung dem menschlichen Gehirn unterlegen.

"Aber genau das will man ja lösen: Lass den Computer so denken wie einen Menschen, nur viel schneller und größer."
Meiner Meinung nach mit den aktuellen technischen Mittel nicht möglich. Man könnte bestenfalls ein System entwickeln welches dies so gut simuliert, sodass es von Außen kaum noch als solches erkennbar ist.
 
@Andy2019: Was du denke ich etwas außer Acht lässt ist die Art und Weise wie KI's lernen.
Es klingt bei dir so als sei es lediglich eine Aneinanderreihung von sehr vielen if...then...else... Anweisungen. Jedoch gehört einiges mehr dazu als zu einem normalen Computerprogramm. Es werden nämlich nicht die konkreten Probleme programmiert, sondern künstliche Synapsen, welche dann durch das Trainieren mit einer gewissen Trainingsmenge an Daten sogenannte Gewichte kalibrieren.

Diese Synapsen kann man dann zu sehr vielen hintereinander und parallel verketten und so dann die Problemlösung modellieren. Nach jedem weiteren Programm-Durchlauf wird anschließend versucht die Gewichte erneut anzupassen, also zu lernen.

Das ist auch nichts wo man hinterher ohne weiteres noch Problemanalyse betreiben kann, sodass die Frage "Warum macht der Rechner so etwas?" nicht mehr unbedingt ohne Weiteres beantwortbar ist.

An der Stelle dürfen sich dann die Philosophen drüber streiten ob man so etwas schon Intelligenz nennen darf, denn definiert man diese als das Vermögen aus den eigenen Erfahrungen logische Schlussfolgerungen ziehen zu können, wäre sie somit gegeben.
 
@JohnLocke94:
Das ändert nichts daran das das Programm nicht mehr kann als es ihm selber beigebracht worden ist. Das ist das Wesen aktueller Programmierung und Hardware. Es kann nicht etwas tuen was im Programmcode selber nicht drin steht. Das ist einfach unmöglich.

"Was du denke ich etwas außer Acht lässt ist die Art und Weise wie KI's lernen". Eigentlich ist die Begrifflichkeit falsch. K.I's können nicht lernen, sie können nach definierten Rahmenbedingungen annähern.

"Warum macht der Rechner so etwas? nicht mehr unbedingt ohne Weiteres beantwortbar ist."
Programmier Zufallszahlen hineinen und schon hat man etwas was von außen kaum noch nachvollziehbar ist. Ist das deswegen ein intelligentes Programm? natürlich kann z.B. einem Roboter beigebracht werden zu Laufen, ohne das er es zu beginn konnte. Doch wie erlernt er dies? Weil der Programmcode definiert was das Ziel ist und wie das Ziel zu erreichen ist.

"Erfahrungen logische Schlussfolgerungen ziehen zu können"
Ein Programm kann nur das als Schlussfolgerung ziehen, welches sein Programmier als Möglichkeiten integriert hat. Defakto kann ein Programm einfach keine eigenen Schlussfolgerungen ziehen.

Wahre künstliche Intelligenz wäre ein System, welches nur noch durch Informationsaufnahme (Sensorik) alles begreifen und erlernen kann, ohne das sein System dafür weiter angepasst werden muss. Meiner Meinung nach ist sowas aber aktuell Aufgrund technischer Limitierung einfach nicht möglich. Jedenfalls nicht mit der Art wie wir aktuell Programmierung und Hardware verstehen. Dazu ist eigentlich ein völlig neues technologisch system notwendig.
 
@Sh4itan: Naja was der Computer auf jeden Fall schneller kann ist Micro-/Macromanagment.

Jeder Einheit/Gebäude im Grunde immer zum perfekten Zeitpunkt Befehle zu geben, halte ich für einen nicht kleinen vorteil gegenüber dem menschen
 
Und ich dachte Bots seinen bei Spielen verpönt?
Noch ein Moderner Sequentieller Abakus, der der Menschheit das fürchten Lehrt, dabei dachte ich man hätte den Tiefpunkt schon erreicht! :D
Kommentar abgeben Netiquette beachten!

StarCraft 2 im Preis-Check