KI-Cockpit

KI unter menschlicher Aufsicht

26. August 2025
Dollarphotoclub_15658694-e1465203821629
Quelle: Dmitriy K._Dollarphotoclub

KI-Systeme sind fehleranfällig und können unbeabsichtigte Folgen haben. Um diese frühzeitig zu erkennen und gegenzusteuern, ist die menschliche Überwachung unverzichtbar. Wie lässt sich diese gestalten? Und können Interessenvertretungen mitwirken? Mehr dazu verrät Stephan Sander in der »Computer und Arbeit« 7-8/2025.

Im Jahr 2016 sorgte der Chatbot »Tay« für große Aufmerksamkeit. Als lernfähige Künstliche Intelligenz (KI) sollte er im Dialog mit Twitter-Usern seine Kommunikationsfähigkeiten verbessern. Dabei übernahm er aber schnell diskriminierende und fremdenfeindliche Äußerungen. Das System musste daraufhin nach nur weniger als einem Tag außer Betrieb genommen werden.

Neun Jahre später und ein paar Entwicklungsstufen weiter war ironischerweise die gegenteilige Reaktion zu bemängeln. Anwender des Chatbots ChatGPT beklagten einen zu netten Charakter, der fragwürdige Überzeugungen leichtfertig unterstützt haben soll. Auch hier musste der Anbieter nach nur wenigen Tagen nachbessern, um das Verhalten der KI zu korrigieren. In beiden Fällen hinterfragte die User-Community die Ausgaben und Ergebnisse der KI kritisch und zweifelte die Rechtmäßigkeit der Funktionsweise an. Erst die Überwachung der Nutzer*innen eröffnete schließlich die notwendige Korrektur durch die Entwickler.

Warum müssen KI-Systeme überwacht werden?

Die Beispiele zeigen eindrucksvoll, was die Europäische Kommission auch schon bei Erlass der KI-Verordnung (KI-VO) als hinreichend notwendig erachtete: Systeme Künstlicher Intelligenz bedürfen menschlicher Überwachung. Zumindest für Applikationen, bei denen hohe Risiken für Gesundheit, Sicherheit und Grundrechte zu erwarten sind, ist dieser Leitgedanke im Art. 14 KI-VO festgelegt worden. Dem gemäß müssen Hersteller »Mensch-Maschine-Schnittstellen« implementieren, die eine operative Aufsicht durch qualifiziertes Personal ermöglichen.

Als Erwägungsgründe für die menschliche Aufsicht wurden zum einen die Verbesserung der Leistung und Sicherheit der KI durch den Menschen gesehen; zum anderen solle dies aber auch die Rechenschaftspflicht, menschliche Autonomie und Handlungsfähigkeit fördern. Grundzüge dieser Überlegungen finden sich auch in den derzeit international vorangetriebenen Standardisierungs- und Normierungsprozessen wieder. Aktuelle Entwürfe des globalen Normungsgremiums ISO/IEC heben dabei die technischen Ursachen für die Problematik hervor: KI-Systeme sind gerade deswegen fehleranfällig, weil nicht alle Testfälle beim Erstellen der Software abgedeckt werden können. Deshalb funktionieren die zum Teil hoch automatisiert arbeitenden KI-Lösungen nicht immer so, wie es von seinen Entwicklern beabsichtigt ist. Wenn also nicht der gesamte Ergebnisbereich vorhergesagt werden kann, können beim Einsatz der Anwendungen unbekannte Neben- und Folgewirkungen festgestellt werden. Diese werden aber in erster Linie erst im späteren Verlauf von Anwendern während der Nutzung festgestellt.

Mehr zu den Methoden menschlicher Aufsicht, dem Projekt »KI-Cockpit«, den Anforderungen und Risiken bei der Aufsicht und wie Interessenvertretungen mitgestalten können, erfahrt Ihr von Stephan Sander in der »Computer und Arbeit« (CuA) 7-8/2025. Abonnent*innen können den vollständigen Beitrag hier lesen. Außerdem gibt es eine eine Übersicht zu den Einflussgrößen für Fehleinschätzungen und Aufmerksamkeitsverluste bei der Aufsichtsperson eines automatisierten Systems.

Noch kein Abo?

Jetzt zwei Ausgaben »Computer und Arbeit« gratis testen und sofort online auf alle Inhalte zugreifen!

© bund-verlag.de (la)

Whitepaper KI-Verordnung viertel quadratisch - Anzeige -

Das könnte Sie auch interessieren