Künstliche Intelligenz

Maschinenethik

05. Dezember 2019 Künstliche Intelligenz
Dollarphotoclub_15658694-e1465203821629
Quelle: Dmitriy K._Dollarphotoclub

Darf ein Staubsaugerroboter Insekten töten? Und wenn ja, wer erlaubt ihm das? Dr. Alexander Klier erläutert in »Computer und Arbeit« 11/2019 mögliche Regeln für Algorithmen und zeigt ihre Bedeutung für Betriebs- und Personalräte auf.

Die Science-Fiction Fans unter uns dürften sie kennen: die Asimovschen Regeln, wie sich Roboter moralisch verhalten sollen. Vor 77 Jahren vom Autor Isaac Asimov in seinem Kurzroman »Astounding« beschrieben, könnten sie aktueller nicht sein – mit einer Ausnahme: Sie werden nun nicht mehr nur auf Roboter, sondern auch auf die künstliche Intelligenz (KI) angewandt.

»1. Ein Roboter darf kein menschliches Wesen wissentlich verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.«

Algorithmen-Ethik umfasst auch die Frage, wie sich autonome und teilautonome Systeme moralisch »verhalten« sollen. Mit anderen Worten: Es geht mittlerweile nicht mehr allein darum, welche Regeln diejenigen Menschen, die Maschinen bauen und programmieren, beachten müssen, sondern auch um moralische Regeln, die die Maschinen selbst »einhalten« sollen.

Konkretes Beispiel: Staubsaugerroboter

Wandeln wir den ersten Satz der Asimovschen Regel einmal etwas um und ersetzen das Wort »Mensch« bzw. »menschliches Wesen« durch den Begriff »Lebewesen« – schon kann man die Regel auf ein bereits aktuelles praktisches Beispiel übertragen: den Staubsauger-Roboter.

Das ist keineswegs absurd, denn mittlerweile ist es technisch möglich, dass Roboter Lebewesen nicht nur erkennen, sondern über ihren Algorithmus auch darauf hin trainiert werden, in einer spezifischen Art und Weise mit ihnen umzugehen. In unserem Beispiel kann eine dieser Umgangsweisen für den Staubsaugerroboter bedeuten, erkannten Lebewesen (beispielsweise einem Käfer oder einer Spinne) aus dem Weg zu fahren bzw. sie zumindest nicht einfach einzusaugen und damit zu töten. Einmal programmiert sind Maschinen sehr konsequent in der Umsetzung einer entsprechenden Anweisung. Bereits mit diesem nur minimal veränderten ersten Asimovschen Satz bewegen wir uns voll im neuen Feld der sogenannten Maschinenethik, also den programmierten Verhaltensregeln einer Maschine.

Noch interessanter wird es an dieser Stelle, wenn ein Schalter diesen lebenserhaltenden Algorithmus außer Kraft setzen könnte: »Den Prototyp eines Staubsaugers mit ›Kill-Button‹ gibt es schon«, so Catrin Misselhorn, Philosophin und Maschinenethikerin, von der das Beispiel des Staubsaugerroboters stammt.

So könnten die Nutzer eines jeden Staubsaugerroboters selbst signalisieren, dass es Ihnen beim Saugen nicht auf den Lebenserhalt ankommt. Diese Frage trifft mitten in den Bereich der klassischen Algorithmenethik. Es geht hier nicht darum, welche Überlegungen die Besitzer des Roboters anstellen müssen, um den »Kill-Button« zu betätigen – das wäre ein Thema für die klassische Moralphilosophie.

Zentral ist vielmehr die Frage, ob die Hersteller des Roboters diesen Knopf verfügbar machen bzw. den Algorithmus überhaupt in die Richtung entwickeln sollen, bestimmte Lebewesen zu schonen. Die Entscheidung für einen solchen Algorithmus impliziert wiederum entsprechende technische Voraussetzungen, die eben genau diese »Erkennungsleistung« ermöglichen. Es müssen auch entsprechende Trainingsprogramme für die Entscheidungsalgorithmen geplant und ausgeführt werden, was das Auswählen von Trainingsmaterial, also möglicherweise von Versuchstieren, mit einschließt.

Es schließen sich recht unmittelbar weitere Fragen an: Inwiefern verhindert ein deutlich teureres Modell (mit entsprechendem Algorithmus und Erkennungsfunktion), dass die Billigmodelle weiterhin sinnlos die entsprechenden Tiere töten? Und: Ist das moralisch zulässig oder zumindest zu tolerieren, angesichts der Möglichkeiten, die es nun gibt?

Bereits an diesem vergleichsweise simplen Beispiel wird deutlich, welche Tragweite und Komplexität die derzeitige Diskussion um eine Algorithmenethik tatsächlich hat. Im Gegensatz zu den Robotern und Regeln von Asimov sind algorithmische Entscheidungssysteme längst keine Science-Fiction mehr. Im Rahmen von Kreditvergabesystemen der Banken oder auch bei automatisierten Systemen der Bewerberauswahl in großen Unternehmen sind sie real im Einsatz. Höchste Zeit also, dass es eine Ethik für Algorithmen gibt und daraus abgeleitet Regeln für die Entwicklung, den Einsatz und schließlich eine (moralische) Bewertung künstlicher Intelligenz. Eine Aufgabe übrigens, die – aus vielerlei Gründen – gerade für Betriebs- und Personalräte äußerst spannend sein dürfte.

Mehr lesen bei:

Alexander Klier, »Maschinenethik«, in: »Computer und Arbeit« 11/2019, S. 20 ff.

Jetzt 2 Ausgaben »Computer und Arbeit« gratis testen und sofort online auf alle Inhalte zugreifen!

© bund-verlag.de (ct)

anzeige1-brwahl - Anzeige -

Das könnte Sie auch interessieren