1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Menschen lernen Roboter verstehen

Zulfikar Abbany / fs21. August 2014

In der Industrie 4.0 machen sich Roboter durch das Internet der Dinge selbstständig. Menschen müssen das oft erst einmal verstehen, sagt Mensch-Maschine-Interface-Ingenieur Jörg Niesenhaus.

https://p.dw.com/p/1CyjN
Ein Mann steht an einer Ford-Fertigungsstrasse (Foto: Picture Alliance/ Landov)
Bild: picture-alliance/landov

Deutsche Welle: Industrie 4.0, also die Verknüpfung industrieller Produktionsprozesse durch das Internet, schreitet offensichtlich immer weiter voran. Was verändert sich dadurch für die Menschen und ihr Leben?

Jörg Niesenhaus: Wir kennen zum Beispiel Probleme, die die Betreiber von Maschinen haben. Denn Menschen sind es gewohnt, Maschinen einfach als schwarze Kisten zu betrachten. Und jetzt fangen diese Kisten plötzlich an, Dinge zu bestellen: Materialien für sich selbst. Und der Arbeiter weiß gar nicht so recht, was da vor sich geht.

Sie sprechen vom "Internet der Dinge" - also etwa von dem Kühlschrank, der Milch bestellt, weil er weiß, dass sie aufgebraucht ist. Vielleicht, ohne das der Mensch etwas davon weiß?

Genau das passiert in der Industrie auch. Große Maschinen bestellen etwas von anderen Maschinen. Für den Arbeiter wird es dadurch schwierig, mit der Maschine in Kontakt zu treten. Das klingt sicher etwas merkwürdig, aber es ist wichtig für die Arbeiter, zu wissen, was da passiert und was ihre Rolle in der Industrie 4.0 überhaupt ist. Wir sprechen sehr häufig über technologische Aspekte, aber die Rolle der Menschen dabei ist nicht Teil der Debatte.

Wie können denn Menschen besser mit Maschinen interagieren?

Wir haben gelernt, dass mehr Transparenz für den Nutzer wichtig ist. Die Maschine muss ihm mitteilen, was gerade vor sich geht. Dazu entwickeln wir Interfaces, also Eingabeoberflächen, die viele dieser abstrakten Prozesse veranschaulichen. Das gibt den Nutzern eine Plattform, über die sie den Roboter begreifen können - und auch auf dessen Handlungen reagieren.

Was der Nutzer nicht haben will, ist das Gefühl: "Die Maschine zeigt mir zwar, was sie tut, aber ich kann es nicht unterbrechen. Ich kann es nicht ändern." Es ist wirklich wichtig, den Menschen zu zeigen, dass sie einen Einfluss haben und auch Dinge verändern können. Die Herausforderung bei der Entwicklung von Benutzeroberflächen ist es, Eingabemöglichkeiten zu schaffen, die dem Bediener wirklich erlauben, mit der Maschine zu kommunizieren und die Maschine auch zu verstehen.

Jörg Niesenhaus (Foto: DW/ Zulfikar Abbany).
Niesenhaus: "Menschen müssen wissen, was Maschinen tun und warum"Bild: DW/Z. Abbany

Sie möchten die Maschine sanfter machen. Wie geht das? Muss ich das innere der Maschine verstehen, oder sogar ihren Programmiercode?

Wahrscheinlich nicht den Code, aber die Gründe dafür, dass bestimmte Prozesse ablaufen und nicht unterbrochen werden können. Zum Beispiel, dass Computerdateien beschädigt werden könnten, wenn man den Ausschaltknopf betätigt, während ein Prozess im Gange ist. Es gibt Systeme, die sagen einem zwar, dass irgendetwas Fürchterliches passiert, wenn man einen Prozess unterbricht, aber die Gründe gibt das System nicht an. Das müssen wir den Nutzern mitteilen.

Ihre Firma Centigrade entwickelt neue Interfaces, aber verbessert auch alte. In welche Richtung geht die Forschung?

Je mehr Daten eine Maschine steuern, desto schwieriger wird es zu unterscheiden, was für den Nutzer wichtig ist und was nicht. Wir wollen Mechanismen anbieten, die dem Nutzer ermöglichen, nach wichtigen Themen zu suchen. Wir wollen auch mehr über den Nutzer lernen - über seine Bedürfnisse. Und wir wollen ihm die richtige Information im richtigen Moment zukommen lassen. Das hat teils mit den Oberflächen zu tun, teils mit den Algorithmen. Aber darauf müssen wir in den nächsten Jahren unsere Forschungen konzentrieren.

Wie sind wir überhaupt dahin gekommen, dass die Menschen nicht wissen, was vor sich geht und die Programmierer nicht verstehen, was die Nutzer verstehen müssen? Programmierer sind doch auch nur Menschen. Warum fällt es ihnen so schwer?

Das liegt daran, dass die Software immer besser und intuitiver wird - selbst für die Programmierer. Die Programmierer nutzen Prozesse, die das System ihnen zur Verfügung stellt. Manchmal wissen selbst die Programmierer nicht mehr, was sie eigentlich nutzen. Sie wissen zwar, dass eine bestimmte Vorgehensweise ein bestimmtes Problem löst, aber was sich im Hintergrund abspielt, ist selbst für sie nicht zu durchschauen. Während das zwar die Effizienz erhöht, schafft es neue Barrieren für das Verständnis. Dann verlieren selbst die Programmierer den Überblick über das Programm. Das ist allerdings ein üblicher Teil der Evolution von Entwicklungssoftware mit der man Programme schreibt.

Müssen wir dann noch Programmiercodes lernen?

Ich glaube, es ist wichtig, zu wissen, wie Dinge funktionieren. Das ist eine allgemeine Kompetenz. So, wie wir wissen, wie soziale Netzwerke funktionieren. Wir sollten wissen, wie die Technologie funktioniert: Wie das iPhone funktioniert, was sich hinter all den schicken Apps abspielt. Programmieren ist ein Teil davon.

Ich würde also mehr für Programmierunterricht in Schulen plädieren, damit Kinder verstehen, wie die Systeme funktionieren. Dann können sie auch kritischere Fragen stellen: "Ist das der richtige Weg, Dinge zu tun?" oder "Sollten wir mehr oder weniger Technologie in diesem spezifischen Bereich unseres Lebens nutzen?" Das ist Teil eines Entscheidungsprozesses - mehr Wissen über das zu haben, was sich hinter der schicken Oberfläche abspielt, die man mit seinen Fingern berührt.

Dr. Jörg Niesenhaus ist Ingenieur für Mensch-Maschine-Schnittstellen (User Experience Engineer) bei der Saarbrückener Firma Centigrade. Zuvor arbeitete er elf Jahre lang in der Computerspiele-Industrie, unter anderem für Blue Byte, Similis und Ubisoft.

Das Interview führte Zulfikar Abbany.