1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Wie gefährlich ist künstliche Intelligenz?

Fabian Schmidt30. Juli 2015

Roboterentwickler haben sich in einem offenen Brief gegen künstliche Intelligenz bei Waffensystemen ausgesprochen. Im DW-Interview erklärt der Tübinger Professor Bernhard Schölkopf, warum er auch unterzeichnet hat.

https://p.dw.com/p/1G7Ow
Kampfroboter Talon Sword (Foto: picture alliance).
Bild: picture-alliance/dpa/D. Herrick

Deutsche Welle: Herr Professor Schölkopf, Sie haben den offenen Brief des "Future of Life Institute", der auf der Fachtagung zu künstlicher Intelligenz in Buenos Aires am Dienstag vorgestellt wurde, mitunterschrieben. Warum?

Bernhard Schölkopf: Ich beschäftige mich mit maschinellem Lernen. Das ist eine wesentliche Komponente dessen, was heute in der künstlichen Intelligenz gemacht wird. Es geht darum, Systeme durch Daten dazu zu trainieren, bestimmte Aufgaben auszuführen oder Dinge, Personen oder Gesichter zu erkennen. Das kann im Prinzip auch militärisch eingesetzt werden. Das birgt realistische Gefahren, die in dem offenen Brief gut beschrieben werden. Als ich das gelesen habe, sagte ich mir: "Da steh ich dahinter. Das unterschreibe ich auch." Es muss bekannt werden, was da möglich ist, damit es auch diskutiert werden kann und nicht nur von Wissenschaftlern und Ingenieuren erforscht wird.

Wie nah sind wir denn an dem Szenario schon dran, dass ein Roboter entscheidet, einen Menschen zu töten?

Es gibt ja immer wieder Diskussionen darüber, dass wir kurz davor sein sollen, eine künstliche Intelligenz zu erschaffen, die dem Menschen vergleichbar wäre. Ich denke, da sind wir weit davon entfernt. Aber beschränkte Aufgaben - bei denen wir große Trainingsdaten haben - können Roboter genauso gut lösen wie Menschen. Zum Beispiel ist das die Gesichtserkennung: Systeme wie bei Facebook können Gesichter schon sehr gut erkennen. Mit diesen Systemen könnte man bestimmte militärische Anforderungen recht gut lösen.

Professor Bernhard Schölkopf (Foto: Max-Planck-Institut für biologische Kybernetik).
Bernhard Schölkopf warnt davor, Robotern die Entscheidung über Leben und Tod zu übertragenBild: Max-Planck-Institut für biologische Kybernetik

Wäre es technisch möglich, einem Roboter die Uniform eines Gegners beizubringen - und der würde diesen dann bekämpfen?

Im Moment ist es viel einfacher, einen Roboter dazu zu bringen, Gesichter zu erkennen als den Roboter dazu zu bringen, eine Treppe raufzulaufen - ohne dabei zu stolpern! Wir werden in der nächsten Zeit keine Terminator-artigen Roboter haben, die durch Häuser laufen. Aber kleine Hubschrauber oder Drohnen lassen sich viel leichter kontrollieren. Die könnte man dann mit einem Kamerasystem ausstatten, damit sie etwas erkennen, und man kann ihnen sicher auch eine Art von Waffe einbauen, damit sie auch auf etwas schießen können. Das ist sicher innerhalb der nächsten zehn Jahre machbar. Und wahrscheinlich wird so etwas derzeit schon erforscht.

Im Prinzip gibt es so etwas, wie eine rudimentäre "künstliche Intelligenz" ja auch schon jetzt bei Waffensystemen. Die grundlegendste Form ist die Landmine oder die Selbstschussanlage. Wo fängt für Sie künstliche Intelligenz an?

Meistens würde man sagen: Zu künstlicher Intelligenz gehören Wahrnehmung, Handlung und irgendeine etwas aufwendigere Art der Berechnung dazwischen. Bei einem Thermostat, der die Temperatur im Zimmer misst und daraus die Regelung der Heizung berechnet, würde man noch nicht von künstlicher Intelligenz sprechen. Bei einer Selbstschussanlage könnte man zwar sagen, dass das eine ganz einfache Art von Roboter ist - aber künstliche Intelligenz hat er wohl nicht.

Die Grenzen sind dabei indes fließend. Interessant ist die Frage, wo die Entscheidung getroffen wird, zu töten. Bei einer Mine trifft vielleicht der die Entscheidung, der sie baut oder der, der sie an eine Stelle hinlegt. Derjenige ist dann auch moralisch dafür verantwortlich, was dann passiert.

Es gibt auch heute schon intelligente Waffensysteme, zum Beispiel Raketenabwehrsysteme. Die müssen schnell reagieren und ihre Ziele sofort zerstören - schneller als ein Mensch reagieren und den Knopf drücken kann. Auch so etwas kann zu tragischen Unfällen führen - wie bei einem iranischen Passagier-Jet, der von einem U.S. Schiff fälschlicherweise als Rakete erkannt worden war. Ist die künstliche Intelligenz nicht schon längst in der Realität angekommen?

Ja, das kann man so sagen. Das ist ein überzeugendes Beispiel und wir werden wahrscheinlich weitere solche Beispiele sehen. Das betrifft nicht nur die Kriegsführung, sondern auch etwa das Thema autonomes Fahren. Wenn immer mehr Assistenzsysteme auf die Straße kommen, werden wir auch mehr Unfälle sehen, an denen diese beteiligt sind.

Angenommen, der Computer im Auto erkennt ein Kind, das auf die Straße läuft: Um das Kind zu schützen, weicht es aus, kollidiert aber auf der Gegenfahrbahn mit einem anderen Auto. Das ist dann eine schwierige Situation: Wenn uns das als Mensch passiert, sind wir es gewöhnt, dass die Entscheidung und Reaktion nicht perfekt sind. Aber wenn ein automatisches System tut, werden wir damit leben müssen, dass es auch einmal die falsche Entscheidung trifft.

Die Befürworter der künstlichen Intelligenz würden dann ja sagen: Menschen verursachen viel mehr Verkehrsunfälle und treffen auch im militärischen Bereich noch häufiger tragische Fehlentscheidungen - wie der von Menschen veranlasste Abschuss des südkoreanischen Jumbojets über Russland in den 1980er Jahren. Dafür hat die automatisierte Raketenabwehr - etwa der israelische Iron Dome - auch schon viele Menschenleben gerettet…

Bei den Autos ist es wahrscheinlich nur eine Frage der Zeit, bis wir die automatischen Systeme als sicherer betrachten als den Menschen. Bei den Waffensystemen könnte es auch sein, dass die genauer werden und irgendwann besser unterscheiden zwischen Soldaten und Zivilisten. Aber es gibt eine zusätzliche Erwägung: Im militärischen Bereich versucht man ja unter Umständen auch absichtlich, jemandem zu schaden - vielleicht einen Menschen umzubringen.

Mir macht es Bauchschmerzen, dass man solch eine moralische Entscheidung, die normalerweise ein Soldat trifft, dann einem automatischen System in die Hand gibt.

Vielleicht ist es auch eine Gewöhnungssache, aber für mich ist das in diesem Moment noch schwer vorstellbar. Es ist auch schwer vorhersehbar, wie sich das auf Kriegsführung auswirken würde, wenn manche Länder solche Systeme haben und andere nicht. Kämpfen dann Roboter auf der einen Seite gegen Menschen auf der anderen Seite? Senkt das die Hemmschwelle überhaupt einen Krieg zu führen? Ich denke das ist ein Spiel mit dem Feuer. Ich will auch nicht behaupten, dass ich weiß, was da kommen wird. Ich wollte mich aber der Warnung anschließen, dass man darüber nachdenken sollte, was kommen könnte…

… in dem Brief wird vor einem Wettrüsten gewarnt. Haben Sie schon Indizien dafür, dass Militärs an solchen Projekten arbeiten?

In Deutschland gibt es einen Abstand zwischen Grundlagenforschung und Militärforschung. Die meisten Kollegen hier würden wahrscheinlich ungern Gelder vom Militär nehmen und an solchen Themen arbeiten. Ich denke in Amerika sind da die Grenzen ein bisschen fließender. Da kommt viel Geld in die Grundlagenforschung von der "Defense Advanced Research Projects Agency" (DARPA). Das sind meistens nicht direkt militärische Anwendungen, aber sie können potenziell in diese Richtung weiterentwickelt werden. Ich kenne aber zum Beispiel keinen Kollegen, der daran arbeitet, wie man Drohnen baut, die automatisch Soldaten erkennen und erschießen. Aber es ist realistisch, dass so etwas machbar ist. Und ich halte es für extrem wahrscheinlich, dass in Kreisen der anwendungsnahen Forschung, die auch nicht frei publizieren, solche Sachen schon gemacht werden.

Prof. Dr. Bernhard Schölkopf ist Leiter der Abteilung für Empirische Interferenz am Max-Planck-Institut für Intelligente Systeme in Tübingen. Er beschäftigt sich unter anderem damit, wie Maschinen durch empirische Daten etwas lernen und daraus ein konkretes Verhalten ableiten können.

Das Interview führte Fabian Schmidt.