Im Jahr 1859, französischer Dichter
Im Jahr 1906,
Im vergangenen Jahrhundert
Im Jahr 2023 haben wir die sogenannte künstliche Intelligenz. Es kann nahtlos und innerhalb von Sekunden Text, Bilder, Videos und Musik aus Textaufforderungen generieren. Viele Künstler sind besorgt.
Drei unabhängige bildende Künstler – Sarah Andersen, Kelly Mckernan und Karla Ortiz – haben den Antrag eingereicht
Matthew Butterick ist bereits eine bekannte Figur im „juristischen Urheberrechtskampf gegen KI“ aus
Allerdings ist die Klage des Klägers weit gefasst und bezieht sich im Wesentlichen auf jedes generative KI-Modell, das auf urheberrechtlich geschützten Daten trainiert wird – was bei allen großen der Fall ist, und zwar in gigantischen Mengen.
Tatsächlich, wenn das Bundesgericht von San Francisco beschließt, den Fall trotzdem am 19. Juli zu verhandeln
Insgesamt versucht das Künstlertrio hinter der Sammelklage, zwei schwierige Urheberrechtsfragen, die generative KI-Modelle aufwerfen, mit „Ja“ zu beantworten – eine in Bezug auf Eingaben und eine in Bezug auf Ausgaben:
Ich bin kein Experte für US-Urheberrecht, sondern lediglich ein Beobachter mit einer neutralen Haltung zu den Fragen. Aufgrund meiner Recherchen glaube ich, dass die Antwort auf die erste Frage „Nein“ lautet, während die zweite Frage problematischer zu beantworten ist und möglicherweise von einer Einzelfallbewertung abhängt.
Ich bezweifle stark, dass uns diese Sammelklage Antworten liefern wird.
Ein weiterer anhängiger Urheberrechtsfall bezüglich der Verwendung und Verbreitung von Bildern durch Stable Diffusion
Die Klage von Getty Images hat meiner Meinung nach eine viel bessere Chance, vor Gericht zu gehen und zum rechtlichen Verständnis von Urheberrechten im Vergleich zu generativer KI beizutragen.
Der Hauptunterschied in einem Satz: Die Klage von Getty Images ist besser dokumentiert. Im Gegensatz zu den Künstlern, die hinter der Sammelklage stehen, kann Getty Images ihre Rechte nachweisen und auf konkrete Rechtsverletzungen hinweisen.
Die Sammelklage der Künstler ist leider voller rudimentärer Fehler und falscher Annahmen darüber, wie Stable Diffusion trainiert wurde und wie das Modell Bilder generiert.
Eine Gruppe von Technikbegeisterten hat eine Website http://www.stablediffusionfrivolous.com/ erstellt, auf der sie auf einige der technischen Ungenauigkeiten in der Beschwerde hinweisen.
Hier werde ich mich darauf konzentrieren, wie die Künstler die beiden oben genannten rechtlichen Fragen angehen bzw. nicht ansprechen.
Hier ist ein Zitat aus der Beschwerde (§57-58), in der die Künstler ihre Ansichten zur Eingabefrage darlegen:
„Stability kratzte und kopierte dabei über fünf Milliarden Bilder von Websites als Trainingsbilder, die als Trainingsdaten für Stable Diffusion verwendet wurden.
Stability hat weder die Zustimmung der Ersteller der Schulungsbilder noch der Websites eingeholt, auf denen sie gehostet wurden und von denen sie gescrapt wurden.
Stability hat nicht versucht, Lizenzen für eines der Trainingsbilder auszuhandeln. Die Stabilität hat sie einfach gekostet. Stability hat komprimierte Kopien der Trainingsbilder in Stable Diffusion eingebettet und gespeichert.“
Die erste Version von Stable Diffusion wurde trainiert mit „
LAION-5B enthält Informationen über 5,85 Milliarden Bilder und ist die größte Datenbank ihrer Art. Es wurde von der deutschen Non-Profit-Organisation LAION (Abkürzung für Large-scale Artificial Intelligence Open Network) entwickelt und Stability AI half bei der Finanzierung seiner Entwicklung.
Es ist wichtig zu beachten, dass in LAION-5B keine tatsächlichen Bilder gespeichert sind. Stattdessen werden Informationen zu jedem Bild gespeichert und bestehen aus:
Die Behauptung der Künstler, dass Stable Diffusion „komprimierte Kopien“ ihrer Kunst speichert, ist daher eine Fehlbezeichnung. Tatsächlich besteht der Trainingsdatensatz von Stable Diffusion aus Metadaten über einige Bilder der Künstler, und diese Metadaten sind an sich nicht urheberrechtlich geschützt.
Ebenso ist ein Song auf Spotify urheberrechtlich geschützt, Metadaten darüber wie Künstlername, Songtitel, Produzent, Veröffentlichungsdatum, Genre und Titeldauer jedoch nicht. Denn das Abrufen dieser Daten ist ein rein mechanischer Prozess, der keinen kreativen Aufwand erfordert.
Als öffentlicher Datensatz kann LAION-5B von jedem Interessierten eingesehen werden. Das Unternehmen
Das haben die drei Künstler Sarah Andersen, Kelly McKernan und Karla Ortiz getan und sie haben mehr als 200, mehr als 30 bzw. mehr als 12 Darstellungen ihrer Werke gefunden.
Konkret handelte es sich zunächst um eine stabile Diffusion
Angesichts der Größe der Stable Diffusions-Trainingsdaten sind die unabsichtlichen Beiträge der drei Künstler nur kleine Tropfen in einem riesigen Ozean.
Im Vergleich dazu ging es um die Klage von Getty Images gegen Stability AI
Von allen Werken der Künstler wurden nur 16 Bilder von Sarah Andersen beim US-amerikanischen Urheberrechtsamt registriert.
Aus 17 USC § 411(a) folgt, dass „ keine Zivilklage wegen Verletzung des Urheberrechts an einem Werk der Vereinigten Staaten eingeleitet werden darf, bis eine Vorregistrierung oder Registrierung des Urheberrechtsanspruchs erfolgt ist (..)“.
Mit anderen Worten: Wenn ein Werk nicht beim US-amerikanischen Urheberrechtsamt registriert ist, kann der Rechteinhaber im Allgemeinen keine Verletzungsklagen in einer Zivilklage geltend machen. Dies bedeutet, dass die Künstler nur Ansprüche im Namen der 16 Werke geltend machen können, die Sarah Andersen gehören und bei ihr registriert sind.
Wenn die Künstler nur beweisen könnten, dass Stable Diffusion manchmal Ergebnisse erzeugen kann, die jedem dieser 16 Bilder ähneln, könnten die Künstler vielleicht eine Argumentation zur „Ausgabefrage“ vorbringen. Aber wie wir sehen werden, sind sie dazu nicht in der Lage.
In Bezug auf die Ausgabefrage schlagen die Künstler vor, dass jede Ausgabe, die Stable Diffusion generiert, im Wesentlichen aus seinen Trainingsdaten abgeleitet ist und somit eine Urheberrechtsverletzung darstellt (siehe ¶94-95). Diese Rechtstheorie ist äußerst weit hergeholt.
Unten finden Sie eine Illustration aus der Arbeit von Juraprofessor Matthew Sag: „
Die Bilder rechts wurden von Stable Diffusion mit der Textaufforderung „Kaffeetassen auf weißem Hintergrund“ generiert. Nach der Logik der Künstler würden alle Bilder rechts das Urheberrecht der Bilder links verletzen.
Obwohl die Bilder offensichtlich nicht im Wesentlichen ähnlich aussehen.
Unter bestimmten seltenen Bedingungen konnte nachgewiesen werden, dass Stable Diffusion tatsächlich Ausgabebilder erzeugen kann, die den Bildern aus dem Trainingsdatensatz sehr ähnlich sehen.
Dies ist insbesondere dann der Fall, wenn das eingegebene Trainingsbild im Internet weit verbreitet ist und in den Trainingsdaten von Stable Diffusion immer wieder vorkommt.
In einem kürzlich erschienenen Artikel mit dem Titel
Anschließend generierten sie über Stable Diffusion 500 neue Bilder mit Textaufforderungen, die mit den Textbeschreibungen identisch waren, die den einzelnen Trainingsdatenbildern zugeordnet waren.
Wie sich herausstellte, konnten von den 175 Millionen Bildern (350.000*500) nur 109 der Bilder (0,03 %) vernünftigerweise als „Beinahe-Kopien“ betrachtet werden.
Dabei kann es zu Urheberrechtsverletzungen kommen, allerdings führen die Künstler keine Beispiele dafür an, wie Stable Diffusion ihre Werke kopiert hat. Im Gegenteil schreiben sie in der Beschwerde § 93:
„ Im Allgemeinen ist es wahrscheinlich, dass keines der Stable Diffusion-Ausgabebilder, die als Reaktion auf eine bestimmte Textaufforderung bereitgestellt werden, genau mit einem bestimmten Bild in den Trainingsdaten übereinstimmt. ”
Die Künstler behaupten, dass Stable Diffusion in der Lage sei, ihre persönlichen künstlerischen Stile nachzuahmen. Normalerweise kann ein „künstlerischer Stil“ nicht dem Urheberrechtsschutz unterliegen. Verletzungsansprüche müssen immer mit der Verletzung konkreter Werke verknüpft sein.
Allerdings liegt hier ein berechtigtes Problem vor
Um dieses Problem zu lösen, hat Stability AI die Namen berühmter Künstler aus den Labels in ihrem Datensatz entfernt
Wenn Sie Stable Diffusion beispielsweise bitten, ein Bild im Stil von Picasso oder Rembrandt zu erstellen, ist dies nicht mehr möglich. Die Änderung wurde zwei Monate vor der Sammelklage eingeleitet.
Insgesamt ist unklar, wie und warum die Künstler glauben, dass Stable Diffusion ihre Werke kopiert. Die Künstler scheinen mehr darüber besorgt zu sein, wie Stable Diffusion ihre Arbeitsplätze in Zukunft gefährden könnte , und weniger darüber, wie Stable Diffusion jetzt tatsächlich funktioniert.
Eine der drei Künstlerinnen, Sarah Andersen, schrieb ein
„Ich habe mit mehreren Generatoren herumgespielt, aber bisher hat keiner meinen Stil in einer Weise nachgeahmt, die meine Karriere direkt gefährden könnte, eine Tatsache, die sich mit ziemlicher Sicherheit ändern wird, wenn sich die KI weiter verbessert.“
Unten finden Sie zwei Illustrationen aus dem Artikel, eine von Sarah Andersen und eine von Stable Diffusion. Sie können wahrscheinlich erraten, welches von wem erstellt wurde.
Im Dezember 2022,
Obwohl die Initiative
Vor der Sammelklage
„Das Einzige, was Stability.AI tun kann, ist die algorithmische Degorgierung, bei der sie ihre Datenbank und alle Modelle, die alle unsere Daten enthalten, vollständig zerstören.“
Diese Aussage ist sehr aufschlussreich. Die drei Künstler, die hinter dem Sammelklagegesetz stehen, geben zusammen mit Matthew Butterick und dem Rest ihrer Rechtsvertretung vor, für die Rechte des Künstlers einzutreten, sind aber in Wirklichkeit modern