Deepfakes am Arbeitsplatz – das könnt Ihr tun!
Deepfakes sind mithilfe Künstlicher Intelligenz (KI) erzeugte oder manipulierte Bild-, Audio- bzw. Videodateien, die täuschend echt wirken. Im Gegensatz zu herkömmlicher Bildbearbeitung sind sie nur schwer erkennbar, da Gesichter realistisch ausgetauscht, Stimmen imitiert1 und Szenen verfälscht werden. Für die Arbeitswelt ergeben sich beispielsweise folgende Gefahren:
- Gefälschte Sprach- oder Videoaufnahmen von Vorgesetzten können zur Weitergabe sensibler Daten oder zur Auslösung von Zahlungen führen (CEO-Fraud).
- Beweismittel können in gerichtlichen Verfahren manipuliert werden.
- Manipulierte Videos oder Audiodateien können nicht vorhandene Qualifikationen in Bewerbungsverfahren vortäuschen.
- Deepfakes können rufschädigend sein, Mobbing oder Diskriminierung verschärfen und damit den innerbetrieblichen Frieden stören.
- Gefälschte Anweisungen können Abläufe sabotieren und für Betriebsstörungen sorgen.
Deepfakes sind somit nicht nur ein medienethisches Problem, sondern auch arbeitsrechtlich relevant.
Rechtliche Einordnung von Deepfakes
Die rechtliche Einordnung von Deepfakes ist komplex, da unterschiedliche Rechtsgebiete betroffen sind: das Allgemeine Persönlichkeitsrecht, der Schutz des Bildes, das Urheberrecht, Strafrecht und Datenschutzrecht.
Welche rechtlichen Handlungsmöglichkeiten für Betroffene bestehen und was für ein Gesetzentwurf zu Deepfakes geplant ist, lest Ihr im Beitrag von Philipp Brandt, Pascal Goffart in »Computer und Arbeit« 10/2025. Abonent*innen können den vollständigen Beitrag hier lesen. Außerdem im Titelthema der Ausgabe 10/2025:
- CEO-Fraud und Social Engineering – Eine besonders perfide Angriffsmethode
- Deepfakes: Eine psychische Belastung für alle Seiten – Was können Interessenvertretungen tun?
Noch kein Abo?
© bund-verlag.de (la)