KI unter menschlicher Aufsicht
Im Jahr 2016 sorgte der Chatbot »Tay« für große Aufmerksamkeit. Als lernfähige Künstliche Intelligenz (KI) sollte er im Dialog mit Twitter-Usern seine Kommunikationsfähigkeiten verbessern. Dabei übernahm er aber schnell diskriminierende und fremdenfeindliche Äußerungen. Das System musste daraufhin nach nur weniger als einem Tag außer Betrieb genommen werden.
Neun Jahre später und ein paar Entwicklungsstufen weiter war ironischerweise die gegenteilige Reaktion zu bemängeln. Anwender des Chatbots ChatGPT beklagten einen zu netten Charakter, der fragwürdige Überzeugungen leichtfertig unterstützt haben soll. Auch hier musste der Anbieter nach nur wenigen Tagen nachbessern, um das Verhalten der KI zu korrigieren. In beiden Fällen hinterfragte die User-Community die Ausgaben und Ergebnisse der KI kritisch und zweifelte die Rechtmäßigkeit der Funktionsweise an. Erst die Überwachung der Nutzer*innen eröffnete schließlich die notwendige Korrektur durch die Entwickler.
Warum müssen KI-Systeme überwacht werden?
Die Beispiele zeigen eindrucksvoll, was die Europäische Kommission auch schon bei Erlass der KI-Verordnung (KI-VO) als hinreichend notwendig erachtete: Systeme Künstlicher Intelligenz bedürfen menschlicher Überwachung. Zumindest für Applikationen, bei denen hohe Risiken für Gesundheit, Sicherheit und Grundrechte zu erwarten sind, ist dieser Leitgedanke im Art. 14 KI-VO festgelegt worden. Dem gemäß müssen Hersteller »Mensch-Maschine-Schnittstellen« implementieren, die eine operative Aufsicht durch qualifiziertes Personal ermöglichen.
Als Erwägungsgründe für die menschliche Aufsicht wurden zum einen die Verbesserung der Leistung und Sicherheit der KI durch den Menschen gesehen; zum anderen solle dies aber auch die Rechenschaftspflicht, menschliche Autonomie und Handlungsfähigkeit fördern. Grundzüge dieser Überlegungen finden sich auch in den derzeit international vorangetriebenen Standardisierungs- und Normierungsprozessen wieder. Aktuelle Entwürfe des globalen Normungsgremiums ISO/IEC heben dabei die technischen Ursachen für die Problematik hervor: KI-Systeme sind gerade deswegen fehleranfällig, weil nicht alle Testfälle beim Erstellen der Software abgedeckt werden können. Deshalb funktionieren die zum Teil hoch automatisiert arbeitenden KI-Lösungen nicht immer so, wie es von seinen Entwicklern beabsichtigt ist. Wenn also nicht der gesamte Ergebnisbereich vorhergesagt werden kann, können beim Einsatz der Anwendungen unbekannte Neben- und Folgewirkungen festgestellt werden. Diese werden aber in erster Linie erst im späteren Verlauf von Anwendern während der Nutzung festgestellt.
Mehr zu den Methoden menschlicher Aufsicht, dem Projekt »KI-Cockpit«, den Anforderungen und Risiken bei der Aufsicht und wie Interessenvertretungen mitgestalten können, erfahrt Ihr von Stephan Sander in der »Computer und Arbeit« (CuA) 7-8/2025. Abonnent*innen können den vollständigen Beitrag hier lesen. Außerdem gibt es eine eine Übersicht zu den Einflussgrößen für Fehleinschätzungen und Aufmerksamkeitsverluste bei der Aufsichtsperson eines automatisierten Systems.
Noch kein Abo?
© bund-verlag.de (la)