Lesedauer: 1 Minute

Interview mit Jaromir Konecny und Roland Fischer

Am 26.06.2018 fand die Veranstaltung „Acatech am Dienstag: Zwischen Chemie und KI – Faust inside?“ der Deutschen Akademie für Technikwissenschaften statt. Im Rahmen des Münchner Faust-Festivals, einer Initiative der Kunsthalle München und des Gasteigs, hielten drei Dozenten Kurzvorträge. Roland Fischer (Inhaber des Lehrstuhls für Anorganische und Metallorganische Chemie an der TUM), Jaromir Konecny (Schriftsteller, Slam Poet und Science Kabarettist) und Klaus Mainzer (TUM Emeritus of Excellence (Herausragende Wissenschaftlerinnen und Wissenschaftler im Ruhestand, die weiterhin ein hohes Maß an Engagement erwarten lassen)) diskutierten die Chancen und Risiken der künstlichen Intelligenz.

v. l. n. r.: Herr Tobias Kubo, Prof. Roland Fischer. Foto: Teresa Schießl

Herr Konecny, Sie sprachen während Ihres Vortrags sowohl von der Optimierung durch Künstliche Intelligenzen (KI) als auch von autonomen Waffensystemen, die dadurch möglich werden. Worin liegen Ihrer Meinung nach die Chancen und Risiken von künstlichen Intelligenzen?

Jaromir Konecny: Tatsächlich muss man zunächst einmal unterscheiden: Auf der einen Seite gibt es die künstlichen neuronalen Netze, die nichts anderes sind, als statistische Optimierungsverfahren. Sie werden programmiert und darauf trainiert, immer eine bestimmte Aufgabe zu erfüllen. Das kann zum Beispiel das Gesichter erkennen sein oder das Medikamente oder DNA-Muster finden, um Krankheiten zu decodieren. Dabei kann es passieren, dass ein Medikament entwickelt wird, das gefährliche Nebenwirkungen auslöst. Bei autonomen Fahrzeugen kann es durch Fehlberechnungen zu Unfällen kommen. Auch, wenn die Statistiken zeigen, dass Menschen weitaus fehleranfälliger sind als Maschinen.

Auf der anderen Seite gibt es die allgemeine künstliche Intelligenz. Die Rechenpower, die uns heute zur Verfügung steht, ist immer noch verhältnismäßig klein – wir haben schließlich keine Quantencomputer oder Ähnliches. Deshalb glaube ich nicht, dass eine allgemeine künstliche Intelligenz überhaupt möglich ist. Was ich aber für sehr gefährlich halte, sind autonome Waffen. Es ist möglich, einen einzelnen Menschen in einen Bunker zu setzen, der auf Entfernung hunderttausende Killerroboter steuern und Krieg führen kann. Das ist keine natürliche Kriegsführung mehr. Das ist absurd. Das sollte man ächten und verbieten. Ich wundere mich darüber, dass unsere Politik sich immer noch über Blödsinn streitet, statt wirklich wichtige Sachen zu lösen. Diese Dinge sind schon da. Das Problem ist, dass die Wissenschaft um die künstliche Intelligenz in den letzten zwei Jahren längst unser Wissen überholt hat. Es gibt unzählige englischsprachige Blogs zum Thema, in denen die Leser ernsthaft diskutieren. In Deutschland gibt es das nicht. Programmierer, Informatiker, Gehirnforscher – die sind alle dahinter. Ich fühle mich da ein bisschen abgehängt. Es wäre wirklich extrem an der Zeit, zu handeln.

Es geht nicht darum, dass wir etwas schneller entwickeln als die anderen. Es geht darum, dass wenn etwas von anderen kommt, wir das verstehen und uns dagegen wehren können. Auch Hacker fangen schon an, KI-Programme zu verwenden. Wir können nicht hier bleiben und uns über Blödsinn streiten, während uns die internationale Forschung überholt.

Professor Fischer, Sie sagten, dass Sie Zukunftspessimismus nicht für sinnvoll halten. Trotzdem haben Sie die heutigen Smartphones mit Fausts Homunculus verglichen. Schließen wir mit der Entwicklung der künstlichen Intelligenz einen faustischen Deal?

Roland Fischer: Auf jeden Fall schließt man mit der Entwicklung der künstlichen Intelligenz einen faustischen Deal. Aber das ist nichts Neues. Wir haben in unserer jüngeren, mittleren und älteren Geschichte permanent faustische Deals geschlossen. Genau wegen dieses urmenschlichen Dilemmas gibt es ja Faust als künstlerische Aufarbeitung. Die Dinge haben immer zwei Seiten. Wenn Sie es so weit treiben wollen, dann können wir das fast schon religiös oder philosophisch deuten. Das ist nichts Neues. Was vielleicht neu ist, ist die Mächtigkeit des Instruments, also des Smartphones als Beispiel, und dass wir alle beteiligt sind, nicht nur einige wenige. Das ist schon eine Dimension, die sehr faustisch ist, wenn Sie es so wollen. Es ist aber kein Menschheitsnovum, dass wir solche Deals eingehen.

Herr Konecny, Sie sagten: „Wenn das Zeitalter der Menschen vorbeigeht, dann nicht wegen der künstlichen Intelligenz, sondern wegen der natürlichen Dummheit. Schaufeln wir uns unser eigenes Grab?“

Jaromir Konecny:Ich sehe das pragmatisch. Ich kann nicht verbieten, dass Leute Äpfel essen, weil sie überall wachsen. Deswegen muss ich mir auch keine Gedanken darüber machen, ob die Entwicklung der künstlichen Intelligenz jetzt eine ganz dramatische Wendung nehmen wird. Ich meine, es kann wirklich sein, dass so ein System kirre geht! Bei autonomen Fahrzeugen beispielsweise: Das ganze System ist wunderbar programmiert. Plötzlich fliegt ein Stück Papier vor das Auto und es macht Unsinn. Das System weiß, dass es vor fliegenden Gegenständen sofort stehenbleiben muss, ohne Rücksicht auf andere Gegebenheiten zu nehmen. Dadurch kommt es zu Unfällen.

Es geht nur darum, wie wir diese Systeme trainieren, wie wir die Regeln festlegen. Und die können nur wir bestimmen. Selbstverständlich machen Menschen dabei Fehler. Solche Programme, von denen Menschenleben abhängen, müssen mit einem zweiten Sicherungssystem abgesichert werden, das diese im Notfall abschaltet.

Es werden schon große Sachen programmiert. Es kann passieren, dass uns das um die Ohren fliegt. Das ist auch schon passiert. Beispielsweise die Aktienprogramme, die 2010 verrückt spielten. Letztlich wurden Tausende von Aktien für nichts gehandelt, die am Tag zuvor noch Tausend Dollar wert waren.

Da hat Herr Mainzer recht gehabt: Wir müssen uns bilden. Wir müssen Leute haben, die das beobachten, die das kontrollieren, die sich damit auskennen. Aber sonst können wir den Zug nicht stoppen. Es kann passieren. Es kann alles passieren. Es kann sein, dass eine künstliche Intelligenz irgendwann die Erde vor der von uns verursachten Umweltzerstörung rettet. Oder dass sie uns vor Kriegen rettet. Es kann aber auch sein, dass wir uns alle damit in die Luft jagen. Wenn wir so weiter machen wie jetzt, dann sind wir in zwanzig, dreißig Jahren vielleicht auch nicht mehr da. Wir müssen uns bilden.

v. l. n. r.: Herr Marc-Denis Weitze, Prof. Klaus Mainzer, Prof. Roland Fischer, Herr Jaromir Konecny. Foto: Teresa Schießl

MerkenMerken

MerkenMerken

MerkenMerken