Künstliche Intelligenz: Segen oder Fluch?

Forschung, Roboter, Ki, Robotik, Elon Musk, Stephen Hawking, Harvard, künstlicher Intelligenz, Jaan Tallinn, Francesca Rossi, Padua, Her, Spike Jonze Forschung, Roboter, Ki, Robotik, Elon Musk, Stephen Hawking, Harvard, künstlicher Intelligenz, Jaan Tallinn, Francesca Rossi, Padua, Her, Spike Jonze
Könnten Roboter oder andere Formen künstlicher Intelligenz eines Tages die Kontrolle übernehmen? Die Gefahr besteht ohne einen klaren juristischen, politischen und ethischen Rahmen. So lautet die Warnung zahlreicher prominenter Forscher in einem kürzlich veröffentlichten offenen Brief.

Zu den Unterzeichnern zählen neben dem Physiker Stephen Hawking, auch Skype Mitgründer Jaan Tallinn und Unternehmer Elon Musk, sowie namhafte Vertreter der internationalen Forschergemeinde. Auch Francesca Rossi, die in Harvard und Padua Computerwissenschaft lehrt. Im Gespräch mit unserem Reporter-Kollegen Claudio Rocco erläuterte sie die Beweggründe für den offenen Brief: "Manche sagen, es bestünde kein Grund zur Sorge, Maschinen seien nie vollkommen intelligent. Andere sagen, Maschinen würden bald so intelligent wie ein Mensch sein, vielleicht sogar noch intelligenter und sich gegen den Menschen wenden. Weder das eine noch das andere ist angemessen. Tatsächlich sollte man eine konstruktive Haltung haben und versuchen, intelligentere Maschinen zu bauen, aber besondere Aufmerksamkeit auf ihre Sicherheit und die Kontrolle ihrer möglichen Verhaltensweisen legen. Dieser offene Brief und das dazugehörige Dokument wurden geschrieben, um konstruktiv zu sein und Forschungsarbeiten im Bereich der Künstlichen Intelligenz zu ermutigen, aber auch in anderen Disziplinen, wie Philosophie, Psychologie oder Wirtschaft, um intelligente Maschinen zu bauen, die außerdem sicher sind."

Claudio Rocco: "Die folgende Frage mag etwas nach Panikmache klingen. Aber wäre es denkbar, dass intelligente Maschinen eines Tages die Kontrolle über den Menschen, der den Gesetzen der Biologie unterliegt, übernehmen und ihn unterwerfen?"

Francesca Rossi: "Ich kann mir nicht vorstellen, wie sich ein solches Katastrophenszenario von ganz allein entwickeln soll. Maschinen werden dazu in der Lage sein, ihr Verhalten im Verlauf der Zeit zu verändern aber immer im Rahmen dessen, wozu sie anfangs programmiert wurden. Aber es sollten unbedingt intelligente Maschinen gebaut werden, die sich kontrollieren lassen."

Claudio Rocco: "Der romantische Science-Fiction Film "Her" von Spike Jonze beschrieb, wie sich ein einsamer Autor in die Stimme des Betriebssystems seines Computers verliebt. Ist eine solche Beziehung zwischen Mensch und Computer realistisch?"

Francesca Rossi: "Es gibt bereits Maschinen, die dazu fähig sind, mit dem Menschen zu interagieren. Zum Beispiel Roboter, die alten oder kranken Menschen Gesellschaft leisten. Indem sie auf eine ähnliche Weise mit anderen Menschen interagieren, entwickeln Maschinen so etwas wie Mitgefühl. Aber ich denke nicht, dass die in diesem Film gezeigte Entwicklung in naher Zukunft geschehen könnte."

Claudio Rocco: "Der offene Brief warnt auch, dass gesetzgeberische Anstrengungen notwendig sind, zum Beispiel im Bereich autonomes Fahren, noch bevor die fahrerlosen Autos auf unseren Straßen eine weite Verbreitung finden."

Francesca Rossi: "Stellen wir uns vor, die Technologie ist so weit und die autonomen Autos sind dazu imstande, auf der Straße zu fahren. Das könnte das Leben vieler Menschen retten, die heute aus Zerstreutheit in Autounfälle geraten. Was immer noch fehlt, sind die richtigen Regulierungen. Es ist wichtig zu wissen, wer für die Entscheidungen, die Maschinen treffen, verantwortlich ist, ganz gleich, was sie entscheiden."
Dieses Video empfehlen
Kommentieren13
Jetzt einen Kommentar schreiben
 
Das kann schneller gehen, als einem lieb ist. Ich hoffe, das ich dies nicht erlebe. Möchte kein Szenario wie in Terminator haben. Ich finde Maschinen sollten einem das Leben erleichtern aber bestimmte Sachen sollten immer unter der Kontrolle der Menschen bleiben. Ich wehre mich sowieso gegen diese komplette "Internetiesierung von Klamotten, Kühlschränken, Heizungen, Kaffeemaschinen etc. Viele Sachen sind einfach unnötig und ich will nicht meine Bude abfackeln, weil irgendso ein Kiddie meine Homegeräte hackt und alles in Flammen aufgehen lässt. Früher haben die Menschen auch ohne diese ganzen Technischen Kram überlebt. Mit PC, Smartphone, Tablet ist man schon durchsichtig genug. Ab einem bestimmten Punkt ist Technik eher ein Fluch und das sage ich als PC-Freak.
 
"Könnten Roboter oder andere Formen künstlicher Intelligenz eines Tages die Kontrolle übernehmen?"

Haben "Sie" doch schon längst, wir werden Tagtäglich analysiert, gewertet und gewichtet, irgendwelche Bods spüren uns ständig nach ob bei der Versicherung, der PAYBACK Karte, der Kreditkarte ob Tracker oder Cooky irgendeinen Schnüffler haben wir immer an der Backe,
Das schlimme ist nur meist kriegen wir es gar nicht mit, weil niemand uns damit belasten will, wer was mit wem unsere Daten verarbeitet.
Es ist also gar nicht mehr eine Frage ob Segen oder Fluch, sondern die Frage "wo ist unser Recht auf Selbstbestimmung über unsere Daten hin", wann bekommen wir unser Recht auf und die Hoheit über unsere Daten?
 
@Kribs:
Programme und Algorithmen sind Werkzeuge die vom Menschen erschaffen worden sind. Und tuhen genau das was der Code für Sie beschreibt.

Man sagt ja auch nicht das ein Hammer das Leben des Menschen kontrolliert. Es tut immer der der hinter dem Hammer steht. Das kontrollierende Organ ist nach wie vor der Mensch und wird es noch sehr sehr lange bleiben.

Von richtiger künstlicher Intelligenz, die mit menschlicher Intelligenz vergleichbar ist ist die Menschheit noch so weit entfernt wie der Neandertaler zum besiedeln fremder Planeten.
 
Ich geh ja gerne mit, daß das "irgendwann" zur Gefahr für uns werden könnte.

Aber es ist noch ein langer, LANGER Weg bis zur "autonomen" Maschine. Wenn die Dinger sowas wie self-awareness entwickeln, *dann* wird es interessant.

Aber das, was heutzutage als KI bezeichnet wird, verdient den Namen nicht.
 
@RalphS: sehe ich ähnlich. Erst wenn Maschinen selbsttätig Maschinen entwickeln und bauen können. Dann sollte man ein waches Auge drauf haben. Heute ist noch keine KI eine Gefahr für den Menschen.
 
@RalphS: Warum sollten Maschinen das tun? Wenn ich mir kurz die Freiheit nehmen dürfte und ein Bild der Zukunft malen. Die erste Maschine die so klug ist wie der Mensch->Sie hat ein Bewusstsein, ist neugierig und sonstigen Empfindungen, die uns unser Gehirn auch ermöglicht. Quasi ein Mensch. Ich hab ja auch nicht unbedingt den Drang alle mir unterlegenen Menschen und Tieren zu unterwerfen. Spinnen wir das Szenario weiter. Die Maschinen werden klüger und sehen keinen anderen Ausweg als uns auszulöschen. Dann haben wir es vermutlich verdient.
 
@mil0: Warum sollten Maschinen... /was/ tun? *kopfkratz*

Maschinen und Menschen dürften sich komplett voneinander unterscheiden - es sei denn natürlich, man schaltet als Mensch die Maschine erst dann an, wenn man sozusagen dem Prototypen das Konzept "Mensch" von Anfang an aufgedrückt hatte.

Aber da man als Mensch das Konzept "Mensch" selbst nicht begreift - und vermutlich auch niemals begreifen kann -- wird das nicht passieren.

Stattdessen entwickelt sich die Maschine ab einem bestimmten Punkt einfach selber - und von hier an beginnen die Unterschiede.

Die "Gefahr" insgesamt stammt ja nicht von der Maschine ab. Sondern daher, daß man als Mensch erwartungsgemäß NICHT in der Lage sein wird, den Maschinen so Dinge wie "Moral", "Verhältnismäßigkeit", "Unschärfe" oder "Intuition" beizubringen. Das muß sie sich selbst beibringen.

-- Aber das ist eben (entfernte) Zukunftsmusik. Heutzutage ist man noch stolz, "Wissenschaft an die Wand zu werfen und zu schauen was hängenbleibt" [ -- Cave Johnson ]; oder anders gesagt: ein beliebiges Teil des Gehirns zu emulieren und zu schauen, was passiert. Das war letztes Jahr oder so.

Mit ein bissel Glück werden in mehr oder weniger beliebig vielen Jahren später die Leute über so einen Ansatz lachen können. Bis dahin aber müssen wir vor Maschinen als "Individuen" keine Angst haben.
 
@RalphS: Wieso sollte man es Begreifen? Entwickelt man eine Maschine, mit der man normal kommunizieren kann, die so intelligent wie ein Mensch ist, und sie auf die Frage "Hast du ein Bewusstsein" selbstständig (also nicht gescrippted) mit "Ja" antwortet, dann muss es wohl so sein. Wenn du mich fragst, dann werde ich auch mit "ja" antworten. Entweder du glaubst mir, dass ich ein Bewusstsein haben, oder nicht. Ändern tut es nichts daran.
 
"...Andere sagen, Maschinen würden bald so intelligent wie ein Mensch sein, vielleicht sogar noch intelligenter ..." Wer findet den Fehler in der dieser Aussage? ;)
 
@Lastwebpage: Schwer zu sagen, da bisher nicht klar ist, was "Intelligenz" überhaupt sein soll. *lach*

Was natürlich den Bezeichner "Künstliche Intelligenz" nochmal alberner wirken läßt, als er es ohnehin schon ist.
 
@RalphS: ich meinte zwar eher "intelligent wie ein Mensch" (bezogen auf RTL-Trash TV usw.) , aber du hast natürlich auch Recht. ;)
 
@Lastwebpage: Maschinencamp? ... Warum nicht. :D
 
Baue keine Maschine die schlauer ist als du selbst, wer weiß auf was für Ideen die kommt.
Kommentar abgeben Netiquette beachten!