En 1859, el poeta francés
En 1906,
En el siglo pasado,
Avance rápido hasta 2023, tenemos la llamada inteligencia artificial. Puede generar sin problemas y en segundos texto, imágenes, videos y música a partir de indicaciones de texto. Muchos artistas están preocupados.
Tres artistas visuales independientes, Sarah Andersen, Kelly Mckernan y Karla Ortiz, han ido tan lejos como para presentar
Matthew Butterick ya es una figura conocida en "la batalla legal de los derechos de autor contra la IA" de
Sin embargo, la queja del demandante está formulada en un ámbito amplio y esencialmente se enfrenta a todos los modelos generativos de IA entrenados en datos protegidos por derechos de autor, que son todos los grandes, y en cantidades gigantescas.
En efecto, si la corte federal de San Francisco decide escuchar el caso el 19 de julio, a pesar de
En general, el trío de artistas detrás de la demanda colectiva está tratando de imponer un "sí" a dos preguntas difíciles de derechos de autor que plantean los modelos generativos de IA: una relacionada con las entradas y otra relacionada con las salidas:
No soy un experto en la ley de derechos de autor de EE. UU., solo un observador con una postura neutral sobre las preguntas. Según mi investigación, creo que la respuesta a la primera pregunta es "no", mientras que la segunda pregunta es más problemática de responder y puede depender de una evaluación caso por caso.
Dudo mucho que esta demanda colectiva nos proporcione alguna respuesta.
Otro caso pendiente de derechos de autor relacionado con el uso y la distribución de imágenes por parte de Stable Diffusion
En mi opinión, la demanda de Getty Images tiene muchas más posibilidades de ir a los tribunales y contribuir a la comprensión legal de los derechos de autor frente a la IA generativa.
La principal diferencia en una frase: la demanda de Getty Images está mejor documentada. Getty Images puede probar sus derechos y señalar infracciones específicas de sus derechos, mientras que los artistas detrás de la demanda colectiva no pueden.
Desafortunadamente, la demanda colectiva de los artistas está plagada de errores rudimentarios y suposiciones erróneas sobre cómo se entrenó Stable Diffusion y cómo el modelo genera imágenes.
Un grupo de entusiastas de la tecnología ha creado un sitio web http://www.stablediffusionfrivolous.com/ donde señalan algunas de las inexactitudes técnicas de la queja.
Aquí, me centraré en cómo los artistas abordan, o mejor dicho, cómo dejan de abordar, las dos cuestiones legales como se indicó anteriormente.
Aquí hay una cita de la demanda (¶57-58), donde los artistas ofrecen sus puntos de vista sobre la pregunta de entrada:
“Stability raspó y, por lo tanto, copió más de cinco mil millones de imágenes de sitios web como imágenes de entrenamiento utilizadas como datos de entrenamiento para Stable Diffusion.
Stability no buscó el consentimiento de los creadores de las Imágenes de entrenamiento ni de los sitios web que las alojaron de los cuales fueron extraídas.
Stability no intentó negociar licencias para ninguna de las imágenes de entrenamiento. La estabilidad simplemente se los llevó. Stability ha incrustado y almacenado copias comprimidas de las imágenes de entrenamiento dentro de Stable Diffusion”.
La primera versión de Stable Diffusion fue entrenada con “
LAION-5B contiene información sobre 5850 millones de imágenes y es la base de datos más grande de su tipo. Fue desarrollado por la organización alemana sin fines de lucro LAION (acrónimo de Red abierta de inteligencia artificial a gran escala), y Stability AI ayudó a financiar su desarrollo.
Es importante tener en cuenta que no hay imágenes reales almacenadas en LAION-5B. En cambio, la información sobre cada imagen se almacena y consiste en:
La afirmación de los artistas de que Stable Diffusion “almacena copias comprimidas” de su arte es, por lo tanto, un nombre inapropiado. En realidad, el conjunto de datos de entrenamiento de Stable Diffusion consta de metadatos sobre algunas de las imágenes de los artistas, y esos metadatos en sí mismos no están protegidos por derechos de autor.
De la misma manera, una canción en Spotify está protegida por derechos de autor, pero los metadatos sobre ella, como el nombre del artista, el título de la canción, el productor, la fecha de lanzamiento, el género y la duración de la pista, no lo están. Esto se debe a que recuperar estos datos es un proceso puramente mecánico que no requiere ningún esfuerzo creativo.
Como conjunto de datos público, LAION-5B puede ser examinado por cualquier persona interesada. La empresa
Así lo hicieron las tres artistas, Sarah Andersen, Kelly McKernan y Karla Ortiz, y encontraron respectivamente más de 200, más de 30 y más de 12 representaciones de su obra.
Específicamente, Stable Diffusion fue inicialmente
Teniendo en cuenta el tamaño de los datos de entrenamiento de Stable Diffusions, las contribuciones involuntarias realizadas por los tres artistas son pequeñas gotas en un vasto océano.
En comparación, la demanda de Getty Images contra Stability AI se refería
De todas las obras de los artistas, solo 16 imágenes han sido registradas en la oficina de derechos de autor de EE. UU. por Sarah Andersen.
De 17 USC § 411(a) se desprende que “ no se iniciará ninguna acción civil por infracción de los derechos de autor en cualquier obra de los Estados Unidos hasta que se haya realizado el prerregistro o el registro de la reclamación de derechos de autor (...)”.
En otras palabras, si una obra no está registrada en la oficina de derechos de autor de EE. UU., el titular de los derechos generalmente no puede presentar reclamos por infracción en una demanda civil. Esto significa que los artistas solo pueden presentar reclamos en nombre de las 16 obras que pertenecen y están registradas por Sarah Andersen.
Si tan solo los artistas pudieran demostrar que Stable Diffusion a veces puede generar resultados que se asemejan a cualquiera de estas 16 imágenes, los artistas tal vez podrían presentar un caso sobre "la cuestión del resultado". Pero como veremos, son incapaces de hacerlo.
Con respecto a la pregunta de salida, los artistas sugieren que cada salida que genera Stable Diffusion se deriva esencialmente de sus datos de entrenamiento y, por lo tanto, infringe los derechos de autor (ver ¶94-95). Esta teoría legal es extremadamente descabellada.
A continuación se muestra una ilustración del artículo del profesor de derecho Matthew Sag "
Las imágenes de la derecha fueron generadas por Stable Diffusion con el texto "tazas de café sobre fondo blanco". Según la lógica de los artistas, todas las imágenes de la derecha infringirían los derechos de autor de las imágenes de la izquierda.
Aunque las imágenes claramente no se ven sustancialmente similares.
Bajo ciertas condiciones excepcionales, se ha demostrado que Stable Diffusion, de hecho, puede generar imágenes de salida que se parecen mucho a las imágenes de su conjunto de datos de entrenamiento.
Esto es especialmente probable que suceda cuando la imagen de entrenamiento de entrada se distribuye ampliamente en Internet y se repite una y otra vez en los datos de entrenamiento de Stable Diffusion.
En un artículo reciente titulado
A partir de entonces, generaron 500 nuevas imágenes a través de Stable Diffusion con indicaciones de texto idénticas a las descripciones de texto asociadas con cada una de las imágenes de datos de entrenamiento.
Al final resultó que, de los 175 millones de imágenes (350.000*500), solo 109 de las imágenes (0,03 %) podrían considerarse razonablemente "casi copias".
Por lo tanto, pueden ocurrir infracciones de derechos de autor, pero los artistas no mencionan ningún ejemplo de cómo Stable Diffusion ha copiado su trabajo. Por el contrario, escriben en la demanda ¶ 93:
“ En general, es probable que ninguna de las imágenes de salida de difusión estable proporcionadas en respuesta a un mensaje de texto en particular coincida con ninguna imagen específica en los datos de entrenamiento. ”
Los artistas afirman que Stable Diffusion es capaz de imitar sus estilos artísticos personales. Normalmente, un “estilo artístico” no puede estar sujeto a la protección de derechos de autor. Las reclamaciones por infracción siempre tienen que estar vinculadas a infracciones de obras específicas.
Sin embargo, aquí hay un problema legítimo que ha recibido
Para resolver este problema, Stability AI eliminó los nombres de artistas famosos de las etiquetas en su conjunto de datos.
Si, por ejemplo, le pide a Stable Diffusion que cree una imagen al estilo de Picasso o Rembrandt, ya no podrá hacerlo. El cambio se inició dos meses antes de la demanda colectiva.
En general, no está claro cómo y por qué los artistas creen que Stable Diffusion copia su trabajo. Los artistas parecen más preocupados por cómo Stable Diffusion podría amenazar sus trabajos en el futuro, y menos preocupados por cómo Stable Diffusion realmente funciona ahora.
Una de las tres artistas, Sarah Andersen, escribió en
“He estado jugando con varios generadores, y hasta ahora ninguno ha imitado mi estilo de una manera que pueda amenazar directamente mi carrera, un hecho que casi seguramente cambiará a medida que la IA continúe mejorando”.
A continuación se muestran dos ilustraciones del artículo, una de Sarah Andersen y otra de Stable Diffusion. Probablemente puedas adivinar cuál fue creado por quién.
En diciembre de 2022,
Aunque la iniciativa
Antes de la demanda colectiva,
"Lo único que Stability.AI puede hacer es la devolución algorítmica en la que destruyen por completo su base de datos y destruyen por completo todos los modelos que contienen todos nuestros datos".
Esta afirmación es muy reveladora. Los tres artistas detrás de la ley de demanda colectiva, junto con Matthew Butterick y el resto de su representación legal, pretenden defender los derechos del artista, pero en realidad son modernos.