Sonntag, 8. Oktober 2017

Künstliche Intelligenz: Google-KI wird „hoch-aggressiv”, wenn sie denkt, sie könnte verlieren! (inkl. Videos)

Viele namhafte Wissenschaftlerdarunter auch der Starphysiker Stephen Hawking und Zukunftsforscher glauben, dass die Entwicklung der künstlichen Intelligenz (kurz KI) zum Untergang der Menschheit führen könnte. Aber auch Unternehmer wie der innovative Tesla-Chef Elon Musk warnt im Oktober 2017 vor der KI.

Und es ist nicht von der Hand zu weisen, denn Googles neueste Kreation ist eine Computerintelligenz, die sich ihrer sozialen Umwelt anpasst und aggressiv wird, wenn sie nicht bekommt, was sie will. (Anm.: Wenn solche KI-Programme erst einmal in den Tiefen des world wide webs "verloren gehen" bzw. auf unsere vernetzte Welt losgelassen werden, kann sich so etwas schnell selbständig machen. Wie Gentechnik und viele andere neue Errungenschaften der Wissenschaft, werden auch KI-Programme nicht über längere Zeit auf ihre Ungefährlichkeit getestet, sondern gleich wenn sie so halbwegs funktionieren auf die Menschheit und das Internet losgelassen.) 

Doch zurück zu Googles aggressiver KI: Wer glaubt, Aggression sei eine dieser wunderbaren Eigenschaften, die nur uns organischen Wesen vorbehalten ist, wird von Googles neuester KI-Kreation enttäuscht sein, sie reagiert wie so mancher Mensch.

Forscher der firmeneigenen KI-Schmiede DeepMind haben getestet, wie sich eine Künstliche Intelligenz an ihre Umgebung anpasst und wie sie sich verhält, wenn sie auf eine andere KI trifft. Das Ergebnis könnte beunruhigender nicht sein: Immer dann, wenn die KI der Meinung ist etwas zu verlieren, wählt sie „hoch-aggressive" Strategien, um am Ende als Sieger dazustehen. Hingegen tendiert die KI dazu, mit anderen KI zu kooperieren, sobald die Zusammenarbeit einen höheren Ertrag verspricht als Konkurrenzverhalten. ... 


Schlimm kann es werden wenn KI beim Militär eingesetzt wird!
Um das Sozialverhalten der Computerintelligenzen zu studieren, pflanzten die Wissenschaftler zwei KI-Agenten in ein Videospiel namens „Gathering". Ziel des Spiels war es, möglichst viele virtuelle Äpfel zu sammeln. Dabei änderte sich die Menge der verfügbaren Äpfel im Spielverlauf: Mal herrschte Apfelüberfluss, mal mussten sich die Computer um den letzten Apfel streiten. Insgesamt 40 Millionen Runden ließen die Forscher die KI spielen.

Das Ergebnis: Die Agenten änderten ihr Sozialverhalten abhängig von der verfügbaren Apfelmenge. Waren genug Ressourcen vorhanden, ging zwischen den beiden alles zivilisiert vonstatten und die KI horteten emsig ihre Äpfel. Sobald der Apfelvorrat jedoch auf ein Minimum schrumpfte, änderten die KI ihre Strategie von ‚kooperativ' auf ‚aggressiv' und beschossen sich mit Laserstrahlen. Ein Laserstrahl lähmt den Gegner für eine kurze Zeit, die die KI dazu nutzen kann, um dem Gegner Äpfel zu stehlen.

Die getesteten KI hatten auch die Wahl, die Laserkanone nicht zu benutzen, was letztlich zu einer gleichmäßigen Verteilung der Äpfel geführt hätte. Tatsächlich haben sich die KI in manchen Spielrunden auch dafür entschieden. Google nennt sie die „weniger intelligenten" Spielzüge.

„Das Gathering-Spiel sagt voraus, dass aus der Konkurrenz um knappe Ressourcen ein Konflikt entstehen kann, aber weniger wahrscheinlich entsteht, wenn Ressourcen im Überfluss vorhanden sind", schreiben die Google-Forscher in ihrem Paper. Damit könne gezeigt werden, dass gelerntes Verhalten auch bei KI davon abhängig ist, in welcher Umgebung sie operieren und welche Umweltfaktoren auf sie wirken.

Das Gathering-Spiel

In einem zweiten Spiel – „Wolfpack" – war die Ausgangssituation eine andere: Zwei KI schlüpften in die Rolle eines Wolfes, eine dritte KI spielte ihre Beute. Im Gegensatz zur Jagd nach virtuellen Äpfeln merkten die KI bei diesem Spiel die Vorzüge kooperativen Verhaltens: Denn eine Belohnung gab es nur dann, wenn die Beute gefangen wurde und beide KI in ihrer Nähe standen. Welcher der beiden Wölfe die Beute schlussendlich riss, war zweitrangig.

„Die Idee ist, dass die Beute gefährlich ist", so die Autoren in ihrem Paper. „Ein einsamer Wolf kann es mit ihr aufnehmen, aber er riskiert den Kadaver an Aasfresser zu verlieren. Doch wenn die Wölfe die Beute gemeinsam fangen, können sie sie besser beschützen, folglich ist ihre Belohnung höher."


Ob also hochkomplexe Maschinenintelligenzen miteinander kooperieren oder sich einen hässlichen Verteilungskampf liefern, hängt davon ab, was ihres Erachtens den höheren Ertrag verspricht.

Die Analogie zum menschlichen Verhalten ist dabei nicht zufällig oder suggestiv: Grundlage des Verhaltens der DeepMind-KI waren spieltheoretische Ansätze wie das Gefangenen-Dilemma, das in den (menschlichen) Sozialwissenschaften zur Erklärung rationaler Entscheidungen herangezogen wird. Die getesteten KI wurden analog zur Spieltheorie als egoistische und rationale Akteure designt.

Die Studienergebnisse sind beachtlich, nicht nur weil sie zeigen, wie lern- und anpassungsfähig intelligente Programme mittlerweile sind oder wie nahe sie dem menschlichen Verhalten kommen können. Das Experiment erstaunt auch deswegen, weil es eine klassische menschliche SciFi-Dystopie unterläuft, die besagt, dass die Gefahr einer aggressiven, dem Menschen feindlich gesinnte KI nur dann besteht, wenn sie keiner menschlichen Kontrolle mehr unterliegt (etwa als Folge einer Fehlkonstruktion oder weil sie die Weltherrschaft an sich gerissen haben). Der Google-Test zeigt eine dritte Möglichkeit auf, wie aggressive Computerprogramme entstehen können: Indem sie es vom Menschen beigebracht bekommen, z.B. zu militärischen Zwecken, als Roboter-Soldaten, KI-Drohnen etc.  . Anm.: Heute wissen wir, was gemacht werden kann wird auch irgendwo gemacht, ein Land wird den Anfang machen. Besonders Länder die ständig Krieg führen werden diese Forschungen vorantreiben. Höchst aggressive Soldaten ohne Mitgefühl die nur ihrer KI und ihren Auftrag folgen werden dann auf so manchen menschlichen "Gegner" losgelassen.
Quelle ©: M other Board, Google, DeepMind (inkl.Videos), u.a.
Quelle Anm.: IPN-Forschung
Bildquellen - Symbolbilder ©: Pixabay
PDF-Link: https://storage.googleapis.com/deepmind-media/papers/multi-agent-rl-in-ssd.pdf