Künstliche Intelligenz

Auch eine Künstliche Intelligenz hat Vorurteile!

31. Mai 2021
Künstliche Intelligenz
Quelle: pixabay

Smarte Maschinen sollen mithilfe von Künstlicher Intelligenz (KI) neutrale Entscheidungen treffen und so menschliche Entscheidungen vereinfachen. Das ist leichter gesagt als getan. Henning Wachsmuth von der Universität Paderborn verrät, wie Vorurteile bei KI entstehen – und was man dagegen tun kann.

Auch eine KI kann mit Vorurteilen belastet sein. Woran das liegt und wie sich das vermeiden lässt, erforscht Professor Henning Wachsmuth von der Universität Paderborn.

Herr Wachsmuth, erläutern Sie bitte kurz, wie Sie Vorurteilen den Kampf ansagen!

Im Rahmen der Forschung meines Doktoranden Maximilian Spliethöver untersuchen wir, inwiefern Algorithmen der Künstlichen Intelligenz, die natürlichsprachliche Texte verarbeiten, Voreingenommenheit gegenüber Geschlechtern, Ethnizitäten oder anderen sozialen Gruppen – auf Englisch social »bias« – übernehmen und wie sich das vermeiden lässt. Im Moment schauen wir uns dabei sogenannte »Word Embeddings« an, das sind gängige Sprachrepräsentationen, die von KI-Algorithmen auf Basis großer Datenmengen gelernt werden, um die Bedeutung von Texten verarbeitbar zu machen. Wenn in solchen Repräsentationen z.B. Frauen mehr mit Begriffen aus dem häuslichen Umfeld in Verbindung gebracht werden und Männer mehr mit beruflichen Kontexten, dann spricht das dafür, dass die Algorithmen Vorurteile aus den Daten übernommen haben. Herr Spliethöver konnte empirisch belegen, dass Word Embeddings gerade dann Vorurteile aufweisen, wenn die KI-Algorithmen aus subjektiver Sprache lernen, wie sie z.B. in Social-Media-Foren zu finden ist. Wir beschäftigen uns aber auch damit, wie man etwas gegen »social bias« tun kann – sowohl durch eine verbesserte Zusammenstellung der zugrunde liegenden Daten als auch durch die Art, wie aus den Daten gelernt wird.

Ist KI dann nur so fair, wie die Person, die den Algorithmus »füttert«?

Tatsächlich ist es häufig bereits die Auswahl der Daten durch Menschen, die Probleme verursacht. Selbst vermeintlich repräsentative Daten können Verzerrungen enthalten, etwa wenn diese historisch bedingt sind, wie bei dem Beispiel mit Männern und Frauen. Lernende KI-Algorithmen suchen nach Korrelationen zwischen Konzepten in Daten. Sie haben kein eigenes Verständnis davon, ob diese Korrelationen in Vorurteilen begründet sind, sondern nutzen einfach das aus, was sie analysieren können. Das heißt aber nicht, dass sich die Menschen, welche die Daten auswählen, zwangsläufig »unfair« verhalten. Häufig wird die Datenauswahl Informatiker*innen übertragen, die kaum bezüglich der sozialen Perspektive geschult sind. Es ist für sie nicht ohne Weiteres erkennbar, welche Verzerrungen vorliegen oder worauf eigentlich bei der Datenauswahl geachtet werden muss. Übrigens können auch die Techniken, mittels derer KI-Algorithmen die Daten verarbeiten, Vorurteile unnötig verstärken.

Was ist nötig, damit Verzerrungen von Anfang an unterbunden werden?

Ich sehe hier vor allem zwei Angriffspunkte: Einerseits kann ein gegebener Datensatz in der Tat bis zu einem gewissen Grad »gesäubert« werden; man spricht hier von »Debiasing«. Andererseits kann der Datenauswahlprozess umsichtiger gestaltet werden.

Debiasing funktioniert zumindest dann, wenn Vorurteile in sprachlichen Merkmalen erkennbar sind. Dazu gab es in den letzten Jahren erste Ansätze in der Forschungswelt. Etwa lassen sich zu Aussagen, in denen Männer in beruflichen Kontexten auftreten, automatisch entsprechende Sätze mit Frauen generieren – und umgekehrt für das häusliche Umfeld –, ehe diese Daten von der KI verarbeitet werden. Die KI kann dann nicht mehr lernen, dass das eine für einen Mann spricht und das andere für eine Frau. Allerdings kann so etwas natürlich nur für erwartete Vorurteile wie geschlechtsbezogene erreicht werden. Entscheidend ist daher, dass die zu entfernenden Vorurteile aus dem gesellschaftlichem Wertekonsens heraus motiviert sind. Selbst dann bleibt es schwer, im Blick zu behalten, welche Aspekte von Daten Vorurteile oder damit verbundene Verzerrungen hervorbringen könnten und somit von der KI nicht analysiert werden sollten. Dies unterstreicht die Wichtigkeit der Einbindung entsprechend geschulter Personen. Aktuell planen wir an den Universitäten Paderborn und Bielefeld daher, gemeinsam zu untersuchen, wie sich solche Probleme durch systematische Zusammenarbeit zwischen Informatik und den Sozialwissenschaften angehen lassen.

Welche Folgen kann eine vorurteilsbeladene KI haben, z.B. in der Arbeitswelt?

Heutzutage setzen Firmen unter anderem bei der Sichtung von Bewerbungsunterlagen KI ein, um geeignete Kandidat*innen auszuwählen. Es ist z.B. einfach zu vermeiden, das Geschlecht explizit mit in die Analyse einzubeziehen, aber das reicht nicht aus. Das Geschlecht kann sich auch in anderen, teils sehr subtilen Merkmalen implizit widerspiegeln, z.B. in der Sprache, die im Anschreiben verwendet wird. Wenn nun z.B. in der Vergangenheit mehr Männer als Frauen eingestellt wurden, dann könnte eine KI aus entsprechenden Daten lernen, dass die »männliche Sprache« gegenüber der »weiblichen Sprache« zu bevorzugen ist.

(...)

Das vollständige Interview mit Jun.-Prof. Dr. Henning Wachsmuth lesen Sie in »Computer und Arbeit« Ausgabe 5/2021. Weitere Highlights:

  • Corona-Pandemie: 7 Fragen zur Testpflicht am Arbeitsplatz
  • Betriebsrätemodernisierungsgesetz Was ändert sich im BetrVG?
  • Microsoft 365: Von der Betriebsvereinbarung zum Prüfplan

Sie haben bereits ein Abo? Dann lesen Sie hier weiter.

Sie haben kein Abo? Dann können Sie trotzdem sofort online weiterlesen und Zugriff auf das gesamte Online-Archiv mit allen Ausgaben von »Computer und Arbeit« erhalten:

Jetzt 2 Ausgaben gratis testen!

© bund-verlag.de

(ct)

Newsletter Allgemein viertel - Anzeige -
Wolfgang Däubler
Das Handbuch zum Beschäftigtendatenschutz
lieferbar 64,90 €
Mehr Infos

Das könnte Sie auch interessieren