Mitbestimmung

Wie Betriebsräte bei ChatGPT mitbestimmen

30. Oktober 2023 ChatGPT
KI, Künstliche Intelligenz
Quelle: iStock.com, Jolygon

Die Künstliche Intelligenz (KI) generic pretrained transformer (ChatGPT) ist in den Betrieben angekommen und muss mitbestimmt werden. Betriebsräte sollten hier nicht wegschauen, sondern sich dieser Chance aktiv für ein risikobasiertes Mitbestimmungshandeln stellen. Einen Überblick gibt Jonas Grasy in der »Arbeitsrecht im Betrieb« 10/2023.

Im November 2022 veröffentlichte die US-amerikanische Firma OpenAI ihre Anwendung ChatGPT und löste damit einen unerwarteten Hype aus. Die Presse überschlägt sich seitdem sowohl in der Darstellung von Risiken und Befürchtungen als auch in hochgesteckten Erwartungen und Hoffnungen. Ebenfalls im Zusammenhang mit dem Hype um ChatGPT steht der Aufruf von verschiedenen namhaften KI-Forscherinnen und -Forschern aus dem März 2023, der eine sechsmonatige Entwicklungspause für KI-Sprachmodelle fordert.

Einsatz in den Betrieben

Nach den medialen Aufregungen kommt ChatGPT nun in den ersten Betrieben und Unternehmen an. Dieser Umstand stellt Betriebsräte nun erst mal vor ganz neue Herausforderungen, als die Regelung klassischer IT-Systeme. Zusätzlich bieten sich dadurch aber auch neue Möglichkeiten für die Gestaltung des Technikeinsatzes im eigenen Unternehmen. Insofern sollten Betriebsräte hier nicht wegschauen, sondern sich dieser Chance für Mitbestimmungshandeln aktiv stellen.

Bei ChatGPT (Chat = Plaudern / GPT = generic pretrained transformer) handelt es sich um eine Anwendung, die einen Chatbot mit dem sehr leistungsfähigen KI-Sprachmodell GPT-4 verbindet. Bei der zugrundeliegenden Technik handelt es sich um eine generative Künstliche Intelligenz. Das bedeutet, dass es für solche Anwendungen nicht eine oder mehrere vordefinierte Anwendungsmöglichkeiten gibt, sondern alle möglichen Ergebnisse erzeugt werden können. Dies sind zunächst Texte alle Art, die in Form eines Gesprächs als Reaktion auf die Eingaben von Menschen erzeugt werden; aber darüber hinaus ist die Technik auch in der Lage Bilder, Videos, Audio, Programmcode, 3D-Modelle oder Simulationen zu produzieren. Zusätzlich verfügt sie auch über die Fähigkeit mehr oder weniger große Datenbestände in Tabellen zusammenzufassen oder zu ordnen.

Besonderes Problem: Halluzinieren

Eine besondere Herausforderung bei ChatGPT ist das »Halluzinieren«. Dabei handelt es sich um den Effekt, dass ChatGPT Ergebnisse erfindet – inklusive Quellenangaben und Adressen. Hier ist also eine genaue Überprüfung aller Antworten des Chatbots notwendig, aber nicht immer möglich. Hindernisse in der Überprüfung finden sich in unterschiedlichen Bereichen. Zunächst gibt es ein kulturelles Problem: Die vergangenen Jahrzehnte waren Menschen gewohnt, präzise und wiederholbare Ergebnisse von Computern zu bekommen. Das verändert sich mit dem Einsatz solcher Sprachmodelle wie GPT-4. Die Antworten variieren, wenn man wiederholt die gleiche Frage stellt – und mit den Antworten variiert auch die Qualität dieser Antworten. Insofern kann man sich nicht darauf verlassen, dass die Antwort korrekt ist. Diese Unsicherheit wird dadurch verstärkt, dass ChatGPT nicht für alle seine Antworten auch Quellenangaben liefert. Gerade bei Themen zu denen wenige und/oder stark polarisierte Informationen zur Verfügung stehen, wird somit eine Überprüfung des Wahrheitsgehalts schwierig.

Externer Sachverstand zu Risiken und Chancen

Um über die neuen Risiken und Chancen solcher Anwendungen als Betriebsrat auf Augenhöhe mit dem Arbeitgeber verhandeln zu können, empfiehlt es sich die Möglichkeiten für externen Sachverstand bei der Beurteilung von Künstlicher Intelligenz zu nutzen. Mit dem Betriebsrätemodernisierungsgesetz von Juni 2021 hat der Gesetzgeber den § 80 Abs. 3 Betriebsverfassungsgesetz (BetrVG) so erweitert, dass die Erforderlichkeit für externen Sachverstand bei der Beurteilung von KI immer gegeben ist. Externe Sachverständige können den Betriebsrat einerseits dabei unterstützen die technischen Informationen des Arbeitsgebers zu verstehen und zu beurteilen, andererseits tragen sie Erfahrungen zu den Regelungsmöglichkeiten solcher Anwendungen aus anderen Unternehmen bei. Darüber hinaus helfen sie bei der Versachlichung der Verhandlungen und können auf versteckte Risiken für die Beschäftigten und die Mitbestimmung hinweisen.

Wie klassische Anwendungsfälle von ChatGPT aussehen können, warum ein experimenteller Pilotbetrieb empfehlenswert ist und was beim Datenschutz zu beachten ist, erfahrt Ihr in der »Arbeitsrecht im Betrieb« 10/2023 ab Seite 27. Abonnent:innen können den vollständigen Beitrag hier lesen.

Noch kein Abo?

Jetzt zwei Ausgaben »Arbeitsrecht im Betrieb« gratis testen und sofort online auf alle Inhalte zugreifen!

 

© bund-verlag.de (EMS)

AiB-Banner Viertel Quadratisch - Anzeige -

Das könnte Sie auch interessieren