Milliardenangebot soll Prozess gegen Chatbot »Claude« verhindern
Um einen teuren Rechtsstreit zu vermeiden, hat das Unternehmen nun einen milliardenschweren Vergleich vorgeschlagen.
Vergleich statt Gerichtsverfahren
Die Sammelklage von Autor*innen richtet sich darauf, dass Anthropic rund 500.000 Werke aus Piraterie-Datenbanken heruntergeladen und in einer eigenen Bibliothek gespeichert hat. Damit sollte »Claude« weiterentwickelt werden – aus Sicht der Kläger*innen ein klarer Rechtsverstoß.
Um einen für Dezember angesetzten Prozess abzuwenden, bietet Anthropic eine Zahlung von mindestens 1,5 Milliarden Dollar an, etwa 3.000 Dollar pro Werk. Die Kläger*innen haben zugestimmt, endgültig ist der Deal aber erst nach einer Entscheidung des Gerichts in San Francisco. Ohne Vergleich hätte dem Unternehmen eine kaum bezahlbare Strafe gedroht: Nach US-Recht sind bei vorsätzlichen Verletzungen bis zu 150.000 Dollar je Werk möglich.
Rechtliche Grenzen und Signalwirkung
Für das Training einer KI mit vorhandenen Texten gilt grundsätzlich das US-Prinzip des »Fair Use«. wonach im Urheberrecht in bestimmten Fällen die Nutzung fremder Werke erlaubt ist – etwa zu Forschungszwecken oder für die Schaffung neuer Inhalte. Nicht umfasst ist jedoch das systematische Anlegen einer Bibliothek mit Millionen illegal kopierter Bücher. Damit, so das US-Gericht, habe Anthropic die Rechte der Autorinnen verletzt und den illegalen Ursprung der Daten in Kauf genommen.
Der Fall reiht sich in zahlreiche weitere Klagen gegen KI-Anbieter ein. Neben Schriftstellerinnen klagen auch Verlage und Musikunternehmen, die verhindern wollen, dass ihre Inhalte ohne Zustimmung in Trainingsdaten landen. Das Verfahren gegen Anthropic macht deutlich, wie groß die finanziellen und rechtlichen Risiken für die Branche inzwischen geworden sind.
© bund-verlag.de (lr)