KI-Urheberrecht

Alles nur geklaut?

von | 28. April 2023

Künstler protestieren im Netz seit Monaten gegen KI-generierte Kunst. Warum, und wie legal ist das alles?

Ein von Polizisten überwältigter Donald Trump, der Papst in einer stilsicheren weißen Pufferjacke und wütende Migranten auf einer Instagram-Seite der AfD. Diesen und ähnlich skurrilen Bildern begegnet man im Netz schon seit einigen Monaten. Mittlerweile berichten selbst traditionelle Medien darüber. Aufmerksamkeit erregen dabei nicht die Motive, sondern, dass diese Fotos nicht echt sind. Denn obwohl sie nahezu fotorealistisch aussehen, sind sie von einer künstlichen Intelligenz (KI) generiert worden. Doch viele Künstler und Kreative sehen durch KIs ihre Rechte verletzt – ein Umstand, der derzeit juristisch heiß diskutiert wird.

Bilder aus dem Nichts

Die Popularität dieser noch relativ jungen Technologie ist beständig hoch: Allein auf Twitter werden unter dem Hashtag „AIArt“ fast im Minutentakt KI-erzeugte Bilder hochgeladen. Ein großer Teil dieser Beliebtheit kommt davon, wie einfach es ist, auch als technisch unkundiger Mensch ein visuell ansprechendes Ergebnis zu erzeugen. Man sucht sich lediglich einen der zahlreichen Anbieter von KI-Bildgeneratoren wie Stable Diffusion, Midjourney oder DALL·E 2 im Internet aus und gibt dem Programm eine Anweisung, was im Bild dargestellt werden soll und in welchem Stil. Nach einigen Sekunden Wartezeit erhält man dann wie durch Zauberhand mehr oder minder passende Ergebnisse.

Maschinelles Lernen als Grundlage

Die verschiedenen Modelle, die für die Bildgenerierung genutzt werden, gehören in der Informatik zum Gebiet des maschinellen Lernens. Viele der beliebten Anbieter, wie DALL·E 2 oder Stable Diffusion, nutzen dabei eine Klasse von generativen Modellen, die sich „Diffusionsmodelle“ nennen. Diese werden mit vielen Bildern trainiert und lernen durch den sogenannten Diffusionsprozess, wie sie selbst Bilder generieren können.

Diffusionsmodelle

Diese Modelle lernen Bilderzeugung, indem sie mit Bildern trainiert werden, denen über mehrere Schritte hinweg visuelles Rauschen hinzugefügt wird. Am Ende dieses Prozesses wurden die Ausgangsbilder vollständig in Rauschen umgewandelt. Das Modell lernt nun durch die Umkehrung dieses Vorgangs, wie es aus dem Rauschen schrittweise das ursprüngliche Bild wiederherstellen kann. Wird dieser Prozess oft genug und mit vielen verschiedenen Ausgangsbildern wiederholt, kann das Modell am Ende aus bloßem Rauschen neue Bilder „erraten“.

Die Entwickler von Midjourney und DALL·E 2 haben bisher keine klaren Angaben zu den von ihnen genutzten Ausgangsdaten gemacht. Das Team hinter Stable Diffusion hingegen schreibt auf ihrer Modell-Karte, dass sie zum Trainieren ihres Modells gefilterte Teilmengen des LAION-5B-Datensatzes genutzt haben. Dieser ist eine gigantische Liste mit Links zu über fünf Milliarden Bildern aus dem ganzen Netz – auch solchen, die urheberrechtlich geschützt sind.

Künstler gegen Maschine

Besonders in diesem letzten Punkt sehen viele Künstler seit der Popularisierung von KI-Bildgeneratoren ein Problem. So wurden z.B. Tweets von den Zeichenprogrammanbietern Adobe und Clip Studio Paint, in denen sie neue KI-Werkzeuge vorgestellt haben, mit Beschwerde-Kommentaren geradezu überschwemmt. Und als ArtStation, eine Plattform zur Veröffentlichung von 2D- und 3D-Kunst, Ende letzten Jahres nichts gegen die sich häufenden KI-Bilder auf ihrer Webseite tat, protestierten tausende Nutzer mit dem Upload eines Bildes mit der Aufschrift „Nein zu KI-generierten Bildern”.

Künstler protestieren auf ArtStation gegen die KI-Richtlinien der Plattform; Screenshot: Paul Klotzsche

Die amerikanische Künstlerin und Schriftstellerin Molly Crabapple fasste in einem Beitrag für die Los Angeles Times den Grund für die Abneigung vieler Künstler gegenüber der Technologie zusammen: „KIs können Werke im Stil von jedem beliebigen Künstler, dessen Werke zum Trainieren genutzt wurden, ausspucken – weshalb niemand diesen Künstler selbst nochmal anstellen muss.” Die Bilder würden „ohne das Wissen des Künstlers und ohne Kompensation oder Zustimmung” zum Trainieren der Modelle verwendet werden. „Auch wenn einige AI-Fans behaupten, dass diese Technologie Künstlern helfen soll, so ersetzt sie im Kern den Menschen”, so Crabapple.

Erste rechtliche Schritte

Dieser Meinung sind auch drei Künstlerinnen, die Anfang des Jahres ein Verfahren gegen drei Firmen, die das Diffusionsmodell Stable Diffusion nutzen, eröffnet haben. „Diese neue Technologie ist zwar spannend, doch diese Angebote verletzen die Rechte tausender Künstler und Schöpfer”, so die Kanzlei der Klägerinnen in einer Meldung auf ihrer Webseite. Und sie sind nicht allein: Auch der Archivbild-Anbieter Getty Images verklagte Stability AI sowohl in Großbritannien als auch in den USA. Laut der Klageschrift habe Stability AI „mehr als zwölf Millionen Fotos von Getty Images Sammlung […] ohne Erlaubnis oder Kompensation kopiert.”

Die Köpfe hinter den KIs bleiben beim Thema der Legalität ihrer Trainingsdaten vage. David Holz, Gründer und CEO von Midjourney, antwortete Forbes in einem Interview auf die Frage, ob die genutzten Bilder mit Erlaubnis der Urheber genutzt würden, dass „es nicht wirklich einen Weg gibt, hundert Millionen Bilder zu nehmen und zu wissen, wo sie herkommen”. Der Frage, ob Künstler ihre Bilder aus den Trainingsdaten entfernen lassen könnten, wich Holz aus: „Wir beschäftigen uns damit.”

Urheberrechtsverletzung oder „Fair Use”?

Die Legalität solcher KI-Modelle ist unter Experten ein viel diskutiertes Thema. Mit der Problematik der Nutzung geschützter Bilder beschäftigte sich unter anderem Andres Guadamuz, der an der University of Sussex Immaterialgüterrecht lehrt. In seinem Blog vergleicht er das Training von Modellen mit einem Fall rund um Google Books. Google scannte 2002 zahlreiche Bücher ein und wandelte diese in suchbaren Text um, teils ohne die Erlaubnis der Autoren und Verlage. Laut dem Gericht fielen Googles Aktivitäten unter „Fair Use”. Guadamuz geht davon aus, dass die Nutzung geschützter Bilder als Datenbasis zum Trainieren ähnlich gewertet werden könne und „das maschinelle Training größtenteils legal” sei. Ähnlich sehe es laut Rechtsanwalt und -wissenschaftler Till Kreutzer, der über das Thema mit netzpolitik.org gesprochen hat, auch in der EU aus: Hier würde Paragraf 44b des Urheberrechtsgesetzes, der die automatisierte Analyse von digitalen oder digitalisierten Werken zur Mustererkennung erlaubt, das Training „sehr wahrscheinlich” absichern.

Fair Use

Fair Use ist eine Rechtsdoktrin in den USA, die die nicht-autorisierte Nutzung geschützten Materials in bestimmten Fällen erlaubt.

Kritischer sieht die Rechtslage Peter Hense, Rechtsanwalt mit Spezialisierung auf IT von der Anwaltssozietät Spirit Legal, der die Entwicklung von KI-Systemen eng verfolgt: So sei die Nutzung von geschützten Bildern zum Trainieren „weder nach US-Recht […] zulässig, es ist also kein Fair Use, noch ist es nach europäischen oder deutschen Recht zulässig, weil es nicht unter die Ausnahme von Text- und Datamining fällt”, sagt Hense im Gespräch mit medienMITTWEIDA. Zu tun habe dies mit der Funktionsweise der Generatoren, die sich im Detail zwar von traditioneller Speicherung unterscheidet, nicht aber im Ergebnis: „Es gibt Repräsentationen [von Bildbestandteilen] im Modell und diese können wieder abgerufen werden”, wie ein Paper der University of Maryland und der New York University vom Dezember letzten Jahres zeigen konnte. Und auch das Generieren von Bildern sei problematisch:  Wird z.B. eine geschützte Figur wie Micky Maus abgebildet, sei dies laut Hense eine Urheberrechtsverletzung.

Urheberrecht schützt den Menschen

Während die Rechtsprechung zum Trainieren von Modellen mit geschütztem Material umstritten ist und sich erst eindeutig im Verlauf der derzeit stattfindenden Prozesse klären wird, ist die Frage nach dem Urheberrecht der generierten Bilder klarer: „Es gibt nach aktueller Rechtsprechung weder in den USA noch in Europa einen Schutz für Werke, die durch diese Generatoren erstellt wurden. […] Das Urheberrecht hat schließlich den Sinn, dass ein vom Menschen gemachtes kreatives Ergebnis schöpferischer Arbeit wirtschaftlich vor der Verwertung durch Dritte geschützt ist”, so Hense. Seine Meinung teilt unter anderem auch Daniel Gervais, Professor für Immaterialgüterrecht an der rechtswissenschaftlichen Fakultät Vanderbilt, der in einem Paper über die Rechte von maschinellen Erzeugungen die Konditionen für ein urheberrechtlich schützbares Werk nennt. Eine davon sei „Originalität“, was laut Gervais „voraussetzt, dass das Werk das Ergebnis menschlicher kreativer Entscheidungen sein muss.”

Künstler helfen sich selbst

Solange die Unsicherheiten in der juristischen Landschaft ungeklärt sind, versuchen Künstler sich auf verschiedenen Wegen selbst zu helfen: So versucht die Organisation Spawning, mit den Anbietern von KI-Trainingsdaten direkt zusammenzuarbeiten. Künstler können ihre Bilder im LAION-5B-Datensatz über haveibeentrained.com suchen und eine Entfernung dieser beantragen, wodurch diese bei z.B. der nächsten Stable Diffusion-Version nicht mehr zum Trainieren verwendet werden. Eine Forschergruppe der University of Chicago wiederum hat mit Glaze ein Verschleierungsprogramm entwickelt, welches durch minimale Änderungen am Bild das Training der KIs störe. Diese Methode könnte laut der Forscher jedoch “von zukünftigen Gegenmaßnahmen überwunden werden”.

In Anbetracht der rapiden Entwicklungen im Bereich der KI sind viele Experten unschlüssig, wie Künstler in Zukunft neben generativen Modellen koexistieren werden. Peter Hense gibt zumindest einen Tipp ab: „Wir werden ein sehr strenges Verbot von Handys und Digitalkameras bei Audio-Aufführungen, Theaterstücken und Kunst erleben, diese Kunst wird weggeschlossen und dazu wird nirgendwo mehr was im Netz stehen. Das halte ich für realistisch, um auszuschließen, dass mir jemand meine Arbeit klaut.”

Kommentar des Autors

Ohne Herz und Hand

Als Technik-Enthusiast beobachtete ich über das letzte halbe Jahr die rasanten Fortschritte im Bereich der künstlichen Intelligenz mit fast kindlicher Faszination; ChatGPTs differenzierte, menschliche Antworten und die überraschend realistischen Bilder von DALL·E wirkten auf mich wie Fenster in die ferne Zukunft, in der KIs bisher unvorstellbare Aufgaben erledigen und uns auf jedmögliche Weise unterstützen werden. Doch mit jeder erzeugten Code-Zeile und jeder perfekt formulierten Antwort verschwand meine anfängliche Begeisterung etwas mehr, bis ich am Ende mit einer Frage dastand: Wenn KIs jetzt schon so mächtig sind, wer braucht in zehn Jahren noch meine Fähigkeiten, meine Erfahrung?

Auch wenn mein Berufsfeld noch nicht unmittelbar von der Übernahme durch die maschinellen Alleskönner bedroht ist, so sehe ich in dem derzeitigen Paradigmenwechsel einen Vorboten dessen, was viele andere Berufsfelder in naher Zukunft durchmachen werden – einen Kampf um die Relevanz des Menschen und die Debatte, was menschliche Kreativität wert ist. Besonders unter Tweets zum Thema Bildgeneratoren sehe ich KI-Jünger oft propagieren, dass die maschinellen Modelle ihre Trainingsdaten ja nicht stehlen würden, sondern sich lediglich davon inspirieren lassen, wie es auch Menschen täten. Und überhaupt, Stable Diffusion und seine digitalen Geschwister sind doch lediglich Werkzeuge, die von Menschen benutzt werden können und wer dies nicht tut, verweigert sich dem Fortschritt und ist zur Irrelevanz verdammt. Doch kann eine Maschine sich wirklich kreativ inspirieren lassen? Ein Algorithmus, der Unmengen an Daten analysiert und statistisch wertet, ist konzeptionell zwar komplett anders als das menschliche Gehirn, aber erzeugen nicht sowohl Mensch als auch Maschine neue Ergebnisse anhand vorheriger Eindrücke?

Die Antwort auf diese Frage ist wohl eher philosophischer als technischer Natur, und ich bin mir nicht sicher, wie sie lautet. Doch ob die grundlegende Funktionsweise von KIs dem menschlichen Gehirn nun ähnelt oder nicht, so überbieten sie den Menschen in schierer Effektivität – auf Kosten jeglicher Originalität und Qualität. Und genau das unterscheidet sie von Werkzeugen: Denn anstatt den Schaffenden dabei zu unterstützen, schneller und besser zu arbeiten, ohne aber dabei Kontrolle über die Aufgabe abgeben zu müssen, ersetzen KIs den Mittelsmann gleich komplett. Freilich nichts Neues: Webmaschinen haben Weber ersetzt, Autos Kutscher, die Geschichte ist voll von solchen Veränderungen. Doch noch nie war eine neue Technologie so dreist, ihren menschlichen Vorgänger mit frankenstein’schen Verschmelzungen seiner eigenen Arbeit abzulösen.

Vermutlich werden KIs niemals komplett den Menschen ersetzen. Doch den Illustratoren, Designer und Fotografen, die in den nächsten Jahren immer seltener beauftragt werden, hilft das nicht. Denn auch wenn in einer perfekten Welt KIs wirklich nur ein Werkzeug wären, so wird kaum ein CEO die Chance verpassen, die Gehälter für Künstler weitestgehend einzusparen. Solange die rechtliche Situation rund um Urheber- und Persönlichkeitsrechte also ungeklärt ist, können Künstler – und bald auch alle anderen – wohl nur darauf hoffen, dass sich Firmenchefs und Anwerber in Zukunft für menschliches Können statt für die billige Alternative entscheiden. Und diese Aussicht lässt mich schwarz sehen.

Text, Titelbild, Screenshot: Paul Klotzsche

<h3>Paul Klotzsche</h3>

Paul Klotzsche

ist 23 Jahre alt und studiert eigentlich Medieninformatik an der Hochschule Mittweida, erlebt die Wunder des Medienmanagement-Studiengangs jedoch als Gast mit. Seit dem Sommersemester 2023 engagiert er sich als Leiter der Technik-Abteilung bei medienMITTWEIDA.