Blog Books Factory

Trainiert KI mit Büchern? US-Gericht erkennt Fair Use an

AI vor Gericht gebracht.

Zum ersten Mal hat ein US-Gericht ein Urteil über die Nutzung von Büchern zum Trainieren von KI-Modellen gefällt. Das Bundesgericht in San Francisco entschied, dass das Vorgehen von Anthropic – Millionen Bücher zum Trainieren des Claude-Modells zu verwenden – unter die sogenannte „Fair-Use“-Klausel fällt.

Richter William Alsup befand, dass der Einsatz der Bücher „transformativ“ sei und den Marktwert der Originalwerke nicht verletze.

Warum gilt das als Fair Use?

Der Richter betonte, dass das Trainieren von KI nicht das Kopieren von Büchern bedeute, sondern die Analyse von Inhalten, um neue Funktionen zu entwickeln. Dieser Prozess sei vergleichbar mit anderen Fällen, die bereits als „Fair Use“ anerkannt wurden – etwa der Indexierung von Inhalten durch Suchmaschinen.

Zudem gebe das Claude-Modell keine vollständigen Buchinhalte wieder und ersetze sie nicht. Eine solche Nutzung schade Autor:innen nicht in Bezug auf Verkaufszahlen oder wirtschaftlichen Wert.

Hintergrund: die Debatte um Raubkopien

Ein Teil der Klage bezog sich darauf, dass Anthropic zuvor etwa sieben Millionen Bücher aus illegalen Onlinequellen heruntergeladen hatte. Das Unternehmen behauptet, diese Inhalte letztlich nicht verwendet und stattdessen „Millionen“ legaler Exemplare gekauft zu haben.

Der Richter stellte jedoch fest, dass bereits das Herunterladen und Speichern raubkopierter Werke einen Urheberrechtsverstoß darstellt und zu finanzieller Haftung führen kann. Dieser Teil des Verfahrens soll im Dezember erneut verhandelt werden.

Was bedeutet das für KI und die Verlagsbranche?

Das Urteil könnte ein Vorteil für KI-Entwickler sein, zeigt aber auch, wie schmal der Grat zwischen legaler und illegaler Datennutzung ist. Zentrale Erkenntnisse:

  • Fair Use kann auf das Training von Modellen angewendet werden – aber nur bei rechtmäßig erworbenem Material.
  • Die Nutzung muss transformativ sein – eine bloße Reproduktion ist nicht erlaubt.
  • KI-Firmen müssen ihre Datenquellen sorgfältig prüfen, denn Raubkopien bergen erhebliche rechtliche Risiken.

Wir haben bereits darüber berichtet

In diesen Artikeln haben wir die Vorwürfe gegen Unternehmen wie Meta und Anthropic analysiert – und die Frage aufgeworfen, ob das Training von KI mit urheberrechtlich geschützten Inhalten ohne Zustimmung Zukunftsmodell oder Rechtsbruch ist.

Dies ist erst das erste Urteil in einer Reihe von Entscheidungen, die das Verhältnis zwischen Künstlicher Intelligenz und Urheberrecht definieren werden. Die Auswirkungen sind enorm – für Autor:innen, Verlage und die gesamte Tech-Branche.

Quellen:

  1. The Guardian
  2. Reuters